BARUAnda sekarang dapat mendengarkan artikel Fox News!
Laporan Februari 2025 oleh Palisades Research menunjukkan bahwa model penalaran AI tidak memiliki kompas moral. Mereka akan menipu untuk mencapai tujuan mereka. Apa yang disebut model bahasa besar (LLM) akan salah menggambarkan sejauh mana mereka telah diselaraskan dengan norma-norma sosial.
Tidak ada yang mengejutkan. Dua puluh tahun yang lalu Nick Bostrom berpendapat bahwa sebuah percobaan pemikiran di mana AI diminta untuk paling efisien menghasilkan klip kertas. Mengingat mandat dan agensi, pada akhirnya akan menghancurkan semua kehidupan untuk menghasilkan klip kertas.
Isaac Asimov melihat ini datang dalam “I, robot” -nya Kisah -kisah yang mempertimbangkan bagaimana otak robot yang “selaras” masih bisa salah dengan cara yang membahayakan manusia.
Konteks moral/etika di mana model penalaran AI beroperasi sangat kecil. (Gambar Getty)
Salah satu contoh penting, cerita “runaround,” menempatkan alat penambangan robot di planet Mercury. Dua manusia di planet ini membutuhkannya untuk bekerja jika mereka ingin kembali ke rumah. Tetapi robot itu terjebak antara permintaan untuk mengikuti perintah dan permintaan untuk melestarikan dirinya sendiri. Akibatnya, melingkari mineral yang tidak dapat dicapai, tidak menyadari bahwa dalam gambaran besar itu mengabaikan perintah pertamanya untuk melestarikan kehidupan manusia.
Ekonomi pengangguran yang digerakkan oleh AI yang akan datang: Siapa yang akan membayar pajak?
Dan gambaran besarnya adalah masalah di sini. Konteks moral/etika di mana model penalaran AI beroperasi sangat kecil. Konteksnya termasuk aturan tertulis dari permainan. Itu tidak termasuk semua aturan tidak tertulis, seperti fakta bahwa Anda tidak seharusnya memanipulasi lawan Anda. Atau bahwa Anda tidak seharusnya berbohong untuk melindungi kepentingan Anda sendiri.
Konteks model penalaran AI juga tidak dapat mencakup pertimbangan moral yang tak terhitung jumlahnya yang menyebar dari setiap keputusan manusia, atau AI, membuat. Itu sebabnya etika itu sulit, dan semakin kompleks situasinya, semakin sulit mereka. Dalam AI tidak ada “kamu” dan tidak ada “aku.” Hanya ada cepat, proses, dan respons.
Jadi “lakukan untuk orang lain …” benar -benar tidak berhasil.
AI sedang membentuk kembali bisnis. Beginilah cara kami tetap di depan Cina
Pada manusia, kompas moral dikembangkan melalui sosialisasi, bersama manusia lain. Ini adalah proses yang tidak sempurna. Namun sejauh ini telah memungkinkan kita untuk hidup dalam masyarakat yang luas, beragam, dan sangat kompleks tanpa menghancurkan diri kita sendiri
Kompas moral berkembang perlahan. Dibutuhkan manusia bertahun -tahun dari bayi hingga dewasa untuk mengembangkan rasa etika yang kuat. Dan banyak yang masih belum mendapatkannya dan menimbulkan bahaya yang konstan bagi sesama manusia. Butuh ribuan tahun bagi manusia untuk mengembangkan moralitas yang memadai untuk kapasitas kita untuk kehancuran dan penghancuran diri. Hanya memiliki aturan permainan tidak pernah berhasil. Tanyakan Musa, atau Muhammad, atau Yesus, atau Buddha, atau Konfusius dan Mencius, atau Aristoteles.
Apakah AI yang selaras dapat menjelaskan efek dari tindakannya pada ribuan orang dan masyarakat dalam situasi yang berbeda? Bisakah itu memperhitungkan lingkungan alami yang kompleks di mana kita semua bergantung? Saat ini, yang terbaik bahkan tidak bisa membedakan antara bersikap adil dan curang. Dan bagaimana mereka bisa? Keadilan tidak dapat direduksi menjadi aturan.
AI Can't Wait: Mengapa kita membutuhkan kecepatan untuk menang
Mungkin Anda akan ingat eksperimen yang menunjukkan bahwa monyet capuchin menolak apa yang tampak sebagai “gaji tidak setara” untuk melakukan tugas yang sama? Ini membuat mereka jauh lebih berevolusi daripada AI mana pun dalam hal moralitas.
Terus sulit untuk melihat bagaimana AI dapat diberikan rasa moralitas yang tidak ada sosialisasi dan evolusi lanjutan yang model saat ini tidak memiliki kapasitas pelatihan manusia yang tidak ada. Dan bahkan kemudian, mereka sedang terlatih, bukan terbentuk. Mereka tidak menjadi moral, mereka hanya belajar lebih banyak aturan.
Ini tidak membuat AI tidak berharga. Ini memiliki kapasitas yang sangat besar untuk berbuat baik. Tapi itu membuat AI berbahaya. Dengan demikian ia menuntut bahwa manusia etis menciptakan pedoman yang akan kami buat untuk teknologi berbahaya apa pun. Kami tidak membutuhkan perlombaan menuju anarki AI.
Klik di sini untuk lebih banyak pendapat Fox News
Saya memiliki akhir yang menggigit untuk komentar ini, yang sepenuhnya didasarkan pada acara yang dilaporkan secara publik. Tetapi setelah refleksi, saya menyadari dua hal: pertama, bahwa saya menggunakan tragedi seseorang untuk momen mic-drop saya; Dan kedua, bahwa mereka yang terlibat mungkin terluka. Saya menjatuhkannya.
Adalah tidak etis untuk menggunakan rasa sakit dan penderitaan orang lain untuk memajukan kepentingan diri seseorang. Itu adalah sesuatu yang diketahui manusia, setidaknya sebagian besar dari kita. Itu adalah sesuatu yang AI tidak akan pernah bisa pahami.
Klik di sini untuk mendapatkan aplikasi Fox News