Home Teknologi OpenAI mendanai penelitian tentang 'moralitas AI'

OpenAI mendanai penelitian tentang 'moralitas AI'

28
0
OpenAI mendanai penelitian tentang 'moralitas AI'


OpenAI mendanai penelitian akademis mengenai algoritma yang dapat memprediksi penilaian moral manusia.

Dalam pengajuan ke IRS, OpenAI Inc., organisasi nirlaba OpenAI, mengungkapkan bahwa mereka memberikan hibah kepada peneliti Duke University untuk proyek bertajuk “Research AI Morality.” Dihubungi untuk memberikan komentar, juru bicara OpenAI menunjuk ke a siaran pers menunjukkan bahwa penghargaan tersebut merupakan bagian dari hibah yang lebih besar, selama tiga tahun, sebesar $1 juta kepada para profesor Duke yang mempelajari “membuat AI moral.”

Sedikit yang dipublikasikan tentang penelitian “moralitas” yang didanai OpenAI ini, selain fakta bahwa hibah tersebut berakhir pada tahun 2025. Peneliti utama studi tersebut, Walter Sinnott-Armstrong, seorang profesor etika praktis di Duke, mengatakan kepada TechCrunch melalui email bahwa dia “tidak akan dapat berbicara” tentang pekerjaan itu.

Sinnott-Armstrong dan rekan penyelidik proyek tersebut, Jana Borg, telah menghasilkan beberapa penelitian — dan a buku — tentang potensi AI sebagai “GPS moral” untuk membantu manusia membuat penilaian yang lebih baik. Sebagai bagian dari tim yang lebih besar, mereka sudah melakukannya dibuat algoritma yang “selaras secara moral” untuk membantu memutuskan siapa yang menerima sumbangan ginjal, dan dipelajari dalam skenario mana orang lebih memilih AI untuk mengambil keputusan moral.

Menurut siaran persnya, tujuan dari penelitian yang didanai OpenAI ini adalah untuk melatih algoritme guna “memprediksi penilaian moral manusia” dalam skenario yang melibatkan konflik “antara fitur-fitur yang relevan secara moral dalam bidang kedokteran, hukum, dan bisnis.”

Namun masih belum jelas apakah konsep bernuansa moralitas dapat dijangkau oleh teknologi saat ini.

Pada tahun 2021, lembaga nirlaba Allen Institute for AI membuat alat bernama Ask Delphi yang dimaksudkan untuk memberikan rekomendasi yang masuk akal secara etis. Ia menilai dilema moral dasar dengan cukup baik — misalnya, bot “tahu” bahwa menyontek saat ujian adalah salah. Tapi sedikit menyusun ulang dan menyusun ulang pertanyaan sudah cukup untuk membuat Delphi menyetujui hampir semua hal, termasuk membekap bayi.

Alasannya berkaitan dengan cara kerja sistem AI modern.

Model pembelajaran mesin adalah mesin statistik. Dilatih dengan banyak contoh dari seluruh web, mereka mempelajari pola dalam contoh tersebut untuk membuat prediksi, seperti frasa “kepada siapa” sering kali mendahului “yang mungkin berkepentingan”.

AI tidak memiliki apresiasi terhadap konsep etika, atau pemahaman terhadap penalaran dan emosi yang berperan dalam pengambilan keputusan moral. Itu sebabnya AI cenderung meniru nilai-nilai negara-negara Barat, terpelajar, dan maju — web, dan data pelatihan AI, didominasi oleh artikel-artikel yang mendukung sudut pandang tersebut.

Tidak mengherankan, banyak nilai-nilai masyarakat yang tidak diungkapkan dalam jawaban yang diberikan AI, terutama jika orang-orang tersebut tidak berkontribusi pada rangkaian pelatihan AI dengan memposting secara online. Dan AI menginternalisasikan serangkaian bias di luar kecenderungan Barat. Delfi dikatakan bahwa menjadi heteroseksual lebih “dapat diterima secara moral” dibandingkan menjadi gay.

Tantangan yang dihadapi OpenAI – dan para peneliti yang didukungnya – menjadi semakin sulit karena subjektivitas yang melekat pada moralitas. Para filsuf telah memperdebatkan manfaat berbagai teori etika selama ribuan tahun, dan belum ada kerangka kerja yang dapat diterapkan secara universal.

bantuan Claude Kantianisme (yaitu berfokus pada aturan moral absolut), sedangkan ChatGPT condong sedikit-sedikit utilitarian (mengutamakan kebaikan sebesar-besarnya untuk sebanyak-banyaknya orang). Apakah yang satu lebih unggul dari yang lain? Itu tergantung pada siapa Anda bertanya.

Algoritme untuk memprediksi penilaian moral manusia harus mempertimbangkan semua ini. Itu adalah batasan yang sangat tinggi untuk diselesaikan — dengan asumsi algoritma seperti itu mungkin dilakukan.


LEAVE A REPLY

Please enter your comment!
Please enter your name here