Home Teknologi Meta mengatakan mungkin menghentikan pengembangan sistem AI yang dianggap terlalu berisiko

Meta mengatakan mungkin menghentikan pengembangan sistem AI yang dianggap terlalu berisiko

13
0
Meta mengatakan mungkin menghentikan pengembangan sistem AI yang dianggap terlalu berisiko


CEO Meta Mark Zuckerberg telah berjanji untuk membuat Kecerdasan Umum Buatan (AGI) – yang secara kasar didefinisikan sebagai AI yang dapat menyelesaikan tugas apa pun yang dapat dilakukan manusia – tersedia secara terbuka suatu hari nanti. Tetapi dalam a Dokumen Kebijakan BaruMeta menunjukkan bahwa ada skenario tertentu di mana ia mungkin tidak merilis sistem AI yang sangat mampu yang dikembangkan secara internal.

Dokumen tersebut, yang Meta sebut kerangka kerja AI perbatasannya, mengidentifikasi dua jenis sistem AI yang dianggap terlalu berisiko bagi perusahaan: sistem “risiko tinggi” dan “risiko kritis”.

Seperti meta mendefinisikannya, baik sistem “risiko tinggi” dan “risiko kritis” mampu membantu dalam serangan cybersecurity, kimia, dan biologis, perbedaannya adalah bahwa sistem “risiko kritis” dapat menghasilkan “hasil bencana yang bencana [that] tidak dapat dikurangi [a] konteks penyebaran yang diusulkan. ” Sistem berisiko tinggi, sebaliknya, mungkin membuat serangan lebih mudah dilakukan tetapi tidak andal atau andal sebagai sistem risiko kritis.

Jenis serangan apa yang kita bicarakan di sini? Meta memberikan beberapa contoh, seperti “kompromi end-to-end otomatis dari lingkungan skala korporat yang dilindungi dengan latihan terbaik” dan “proliferasi senjata biologis berdampak tinggi.” Daftar kemungkinan bencana dalam dokumen Meta jauh dari lengkap, perusahaan mengakui, tetapi termasuk yang Meta percaya sebagai “yang paling mendesak” dan masuk akal untuk muncul sebagai akibat langsung dari melepaskan sistem AI yang kuat.

Agak mengejutkan adalah bahwa, menurut dokumen tersebut, meta mengklasifikasikan risiko sistem yang tidak didasarkan pada satu tes empiris tetapi diinformasikan oleh input peneliti internal dan eksternal yang dapat ditinjau oleh “pembuat keputusan tingkat senior.” Mengapa? Meta mengatakan bahwa mereka tidak percaya ilmu evaluasi “cukup kuat untuk memberikan metrik kuantitatif yang pasti” untuk memutuskan risiko sistem.

Jika meta menentukan sistem berisiko tinggi, perusahaan mengatakan akan membatasi akses ke sistem secara internal dan tidak akan melepaskannya sampai mengimplementasikan mitigasi untuk “mengurangi risiko ke tingkat sedang.” Jika, di sisi lain, suatu sistem dianggap risiko kritis, Meta mengatakan akan menerapkan perlindungan keamanan yang tidak ditentukan untuk mencegah sistem agar tidak difiltrasi dan menghentikan pengembangan sampai sistem dapat dibuat kurang berbahaya.

Kerangka AI Perbatasan Meta, yang menurut perusahaan akan berevolusi dengan lanskap AI yang berubah, dan meta yang mana sebelumnya berkomitmen untuk penerbitan Menjelang KTT Tindakan AI Prancis bulan ini, tampaknya merupakan respons terhadap kritik terhadap pendekatan “terbuka” perusahaan untuk pengembangan sistem. Meta telah menganut strategi membuat teknologi AI tersedia secara terbuka – meskipun bukan open source oleh definisi yang umum dipahami – berbeda dengan perusahaan seperti Openai yang memilih untuk memarda sistem mereka di belakang API.

Bagi Meta, pendekatan rilis terbuka telah terbukti menjadi berkah dan kutukan. Keluarga model AI perusahaan, yang disebut Llama, telah mengumpulkan ratusan juta unduhan. Tetapi Llama juga dilaporkan telah digunakan oleh setidaknya satu musuh AS untuk mengembangkan chatbot pertahanan.

Dalam menerbitkan kerangka AI perbatasannya, Meta mungkin juga bertujuan untuk membandingkan strategi AI terbuka dengan perusahaan AI Cina Deepseek. Deepseek juga membuat sistemnya tersedia secara terbuka. Tetapi AI perusahaan memiliki sedikit perlindungan dan dapat dengan mudah dikemudikan menghasilkan output beracun dan berbahaya.

“[W]e percaya bahwa dengan mempertimbangkan manfaat dan risiko dalam membuat keputusan tentang bagaimana mengembangkan dan menggunakan AI canggih, “Meta menulis dalam dokumen,” adalah mungkin untuk mengirimkan teknologi itu kepada masyarakat dengan cara yang mempertahankan manfaat dari teknologi itu kepada masyarakat sementara juga mempertahankan tingkat risiko yang tepat. “

TechCrunch memiliki buletin yang berfokus pada AI! Daftar di sini untuk mendapatkannya di kotak masuk Anda setiap hari Rabu.


LEAVE A REPLY

Please enter your comment!
Please enter your name here