Dalam sebuah laporan baru, sebuah kelompok kebijakan yang berbasis di California yang dipimpin oleh Fei-Fei Li, seorang perintis AI, menunjukkan bahwa anggota parlemen harus mempertimbangkan risiko yang “belum diamati di dunia” ketika membuat kebijakan peraturan AI.
Itu Laporan sementara 41 halaman Dirilis pada hari Selasa berasal dari kelompok kerja kebijakan California bersama pada model AI Frontier, upaya yang diselenggarakan oleh Gubernur Gavin Newsom mengikuti veto tagihan keselamatan AI yang kontroversial California, SB 1047. Sementara Newsom menemukan bahwa SB 1047 melewatkan sasaran, ia mengakui tahun lalu perlunya penilaian yang lebih luas tentang rislator AI untuk menginformasikan legis.
Dalam laporan itu, Li, bersama dengan rekan penulis UC Berkeley College of Computing Dean Jennifer Chayes dan Carnegie Endowment untuk Presiden Perdamaian Internasional Mariano-Florentino Cuéllar, berpendapat mendukung undang-undang yang akan meningkatkan transparansi ke dalam apa yang ada di perbatasan AI laboratorium seperti Openai sedang membangun. Para pemangku kepentingan industri dari seluruh spektrum ideologis meninjau laporan tersebut sebelum publikasi, termasuk pendukung keselamatan AI yang setia seperti pemenang Turing Award Yoshua Benjio serta mereka yang berdebat menentang SB 1047, seperti salah satu pendiri Databricks Ion Stoica.
Menurut laporan itu, risiko baru yang ditimbulkan oleh sistem AI mungkin memerlukan undang -undang yang akan memaksa pengembang model AI untuk secara terbuka melaporkan tes keselamatan mereka, praktik akuisisi data, dan langkah -langkah keamanan. Laporan ini juga mengadvokasi peningkatan standar di sekitar evaluasi pihak ketiga dari metrik dan kebijakan perusahaan ini, di samping perlindungan whistleblower yang diperluas untuk karyawan dan kontraktor perusahaan AI.
Li et al. Tulis ada “tingkat bukti yang tidak meyakinkan” untuk potensi AI untuk membantu melakukan serangan siber, membuat senjata biologis, atau menghasilkan ancaman “ekstrem” lainnya. Mereka juga berpendapat, bagaimanapun, bahwa kebijakan AI seharusnya tidak hanya mengatasi risiko saat ini, tetapi mengantisipasi konsekuensi di masa depan yang mungkin terjadi tanpa perlindungan yang cukup.
“Misalnya, kita tidak perlu mengamati senjata nuklir [exploding] Untuk memprediksi dengan andal bahwa hal itu dapat dan akan menyebabkan kerusakan yang luas, “kata laporan itu.” Jika mereka yang berspekulasi tentang risiko yang paling ekstrem benar – dan kami tidak yakin apakah mereka akan – maka taruhan dan biaya untuk tidak bertindak pada AI perbatasan pada saat ini sangat tinggi. “
Laporan ini merekomendasikan strategi dua cabang untuk meningkatkan transparansi pengembangan model AI: Kepercayaan tetapi memverifikasi. Pengembang model AI dan karyawannya harus diberikan jalan untuk melaporkan bidang-bidang yang menjadi perhatian publik, kata laporan itu, seperti pengujian keselamatan internal, sementara juga diminta untuk mengajukan klaim pengujian untuk verifikasi pihak ketiga.
Sementara laporan itu, versi final yang akan keluar pada bulan Juni 2025, tidak mendukung undang -undang khusus, telah diterima dengan baik oleh para ahli di kedua sisi debat pembuatan kebijakan AI.
Dean Ball, seorang peneliti yang berfokus pada AI di Universitas George Mason yang mengkritik SB 1047, mengatakan dalam sebuah posting di X bahwa laporan itu adalah langkah yang menjanjikan untuk Peraturan Keselamatan AI California. Ini juga merupakan kemenangan bagi AI Safety Advocates, menurut Senator Negara Bagian California Scott Wiener, yang memperkenalkan SB 1047 tahun lalu. Wiener mengatakan dalam siaran pers bahwa laporan itu dibangun di atas “percakapan mendesak di sekitar tata kelola AI yang kami mulai di legislatif [in 2024]. “
Laporan tersebut tampaknya menyelaraskan dengan beberapa komponen SB 1047 dan RUU tindak lanjut Wiener, SB 53, seperti mengharuskan pengembang model AI untuk melaporkan hasil tes keselamatan. Mengambil pandangan yang lebih luas, tampaknya merupakan kemenangan yang sangat dibutuhkan untuk AI Safety Folks, yang agendanya telah kehilangan tanah pada tahun lalu.