Home Teknologi Kertas 145 halaman DeepMind tentang Keselamatan AGI mungkin tidak meyakinkan skeptis

Kertas 145 halaman DeepMind tentang Keselamatan AGI mungkin tidak meyakinkan skeptis

9
0
Kertas 145 halaman DeepMind tentang Keselamatan AGI mungkin tidak meyakinkan skeptis


Google DeepMind pada hari Rabu menerbitkan kertas yang melelahkan Pada pendekatan keamanannya terhadap AGI, secara kasar didefinisikan sebagai AI yang dapat menyelesaikan tugas apa pun yang dapat dilakukan manusia.

AGI adalah sedikit subjek kontroversial di bidang AI, dengan orang yang lebih baik menyarankan bahwa itu sedikit lebih dari mimpi pipa. Lainnya, termasuk laboratorium AI utama seperti antropik, memperingatkan bahwa itu sudah dekat, dan dapat mengakibatkan bahaya bencana jika langkah tidak diambil untuk menerapkan perlindungan yang tepat.

Dokumen 145 halaman DeepMind, yang ditulis bersama oleh pendiri Deepmind Shane Legg, memperkirakan bahwa AGI dapat tiba pada tahun 2030, dan itu dapat mengakibatkan apa yang oleh penulis disebut “kerusakan parah.” Kertas ini tidak secara konkret mendefinisikan ini, tetapi memberikan contoh alarmis dari “risiko eksistensial” yang “secara permanen menghancurkan kemanusiaan.”

“[We anticipate] Pengembangan AGI yang luar biasa sebelum akhir dekade saat ini, “tulis para penulis.” A AGI yang luar biasa adalah sistem yang memiliki kemampuan yang sesuai dengan setidaknya persentil ke-99 orang dewasa yang terampil dalam berbagai tugas non-fisik, termasuk tugas metakognitif seperti mempelajari keterampilan baru. “

Di luar kelelawar, kertas ini kontras dengan perlakuan DeepMind tentang mitigasi risiko AGI dengan antropik dan openai. Antropik, katanya, kurang menekankan pada “pelatihan yang kuat, pemantauan, dan keamanan,” sementara Openai terlalu bullish pada “mengotomatisasi” suatu bentuk penelitian keselamatan AI yang dikenal sebagai Penelitian Alignment.

Makalah ini juga menimbulkan keraguan tentang kelayakan AI yang superintelligent – AI yang dapat melakukan pekerjaan lebih baik daripada manusia mana pun. (Openai baru -baru ini mengklaim bahwa ia mengubah tujuannya dari AGI ke Superintelligence.) Tidak ada “inovasi arsitektur yang signifikan,” para penulis DeepMind tidak yakin bahwa sistem superintelligent akan segera muncul – jika pernah.

Makalah ini memang merasa masuk akal, bahwa paradigma saat ini akan memungkinkan “peningkatan AI rekursif”: Lingkaran umpan balik positif di mana AI melakukan penelitian AI sendiri untuk menciptakan sistem AI yang lebih canggih. Dan ini bisa sangat berbahaya, menegaskan penulis.

Pada tingkat tinggi, makalah ini mengusulkan dan mengadvokasi pengembangan teknik untuk memblokir akses aktor buruk ke AGI hipotetis, meningkatkan pemahaman tindakan sistem AI, dan “mengeraskan” lingkungan di mana AI dapat bertindak. Ini mengakui bahwa banyak teknik yang baru lahir dan memiliki “masalah penelitian terbuka,” tetapi memperingatkan agar tidak mengabaikan tantangan keselamatan yang mungkin ada di cakrawala.

“Sifat transformatif AGI memiliki potensi untuk manfaat luar biasa maupun kerusakan parah,” tulis para penulis. “Sebagai hasilnya, untuk membangun AGI secara bertanggung jawab, sangat penting bagi pengembang AI Frontier untuk secara proaktif berencana untuk mengurangi bahaya yang parah.”

Namun, beberapa ahli tidak setuju dengan tempat surat kabar ini.

Heidy Khlaaf, Kepala Ilmuwan AI di Institute AI nirlaba, mengatakan kepada TechCrunch bahwa dia pikir konsep AGI terlalu tidak jelas untuk “dievaluasi secara ilmiah secara ilmiah.” Peneliti AI lain, Matthew Guzdial, asisten profesor di University of Alberta, mengatakan bahwa ia tidak percaya peningkatan AI rekursif saat ini realistis.

“[Recursive improvement] adalah dasar untuk argumen singularitas intelijen, “Guzdial mengatakan kepada TechCrunch,” tetapi kami belum pernah melihat bukti untuk itu berfungsi. “

Sandra Wachter, seorang peneliti yang mempelajari teknologi dan regulasi di Oxford, berpendapat bahwa kekhawatiran yang lebih realistis adalah AI memperkuat dirinya dengan “output yang tidak akurat.”

“Dengan proliferasi output AI generatif di internet dan penggantian data otentik secara bertahap, model sekarang belajar dari output mereka sendiri yang penuh dengan ketidakberesan, atau halusinasi,” katanya kepada TechCrunch. “Pada titik ini, chatbots sebagian besar digunakan untuk tujuan pencarian dan pencarian kebenaran. Itu berarti kita terus-menerus berisiko diberi kesalahan dan mempercayainya karena mereka disajikan dengan cara yang sangat meyakinkan.”

Komprehensif mungkin, makalah DeepMind tampaknya tidak mungkin menyelesaikan perdebatan tentang seberapa realistis AGI – dan bidang keamanan AI dalam kebutuhan perhatian yang paling mendesak.


LEAVE A REPLY

Please enter your comment!
Please enter your name here