Penulis SB 1047 California, RUU Keselamatan AI paling kontroversial di negara tahun 2024, kembali dengan RUU AI baru yang bisa mengguncang Lembah Silikon.
Senator Negara Bagian California Scott Wiener memperkenalkan a tagihan baru Pada hari Jumat itu akan melindungi karyawan di laboratorium AI memimpin, yang memungkinkan mereka untuk berbicara jika mereka berpikir sistem AI perusahaan mereka bisa menjadi “risiko kritis” bagi masyarakat. RUU baru, SB 53, juga akan membuat kluster komputasi awan publik, yang disebut CalCompute, untuk memberikan peneliti dan startup sumber daya komputasi yang diperlukan untuk mengembangkan AI yang menguntungkan publik.
RUU AI terakhir Wiener, SB 1047 California, memicu perdebatan yang hidup di seluruh negeri di sekitar cara menangani sistem AI besar yang dapat menyebabkan bencana. SB 1047 bertujuan untuk mencegah kemungkinan model AI yang sangat besar menciptakan peristiwa bencana, seperti menyebabkan hilangnya nyawa atau serangan siber dengan biaya lebih dari $ 500 juta kerusakan. Namun, Gubernur Gavin Newsom akhirnya memveto RUU itu pada bulan September, mengatakan SB 1047 bukanlah pendekatan terbaik.
Tetapi perdebatan tentang SB 1047 dengan cepat berubah jelek. Beberapa pemimpin Silicon Valley mengatakan SB 1047 akan melukai keunggulan kompetitif Amerika dalam perlombaan AI global, dan mengklaim RUU itu terinspirasi oleh kekhawatiran yang tidak realistis bahwa sistem AI dapat menghasilkan skenario kiamat seperti fiksi ilmiah. Sementara itu, Senator Wiener menuduh bahwa beberapa kapitalis ventura terlibat dalam “kampanye propaganda” terhadap RUUnya, menunjuk sebagian klaim Y Combinator bahwa SB 1047 akan mengirim pendiri startup ke penjara, seorang ahli klaim berpendapat menyesatkan.
SB 53 pada dasarnya mengambil bagian paling tidak kontroversial dari SB 1047 – seperti perlindungan whistleblower dan pembentukan kluster calcompute – dan mengemasnya kembali menjadi RUU AI baru.
Khususnya, Wiener tidak menghindar dari risiko AI eksistensial di SB 53. RUU baru ini secara khusus melindungi whistleblower yang percaya bahwa majikan mereka menciptakan sistem AI yang menimbulkan “risiko kritis.” RUU tersebut mendefinisikan risiko kritis sebagai a “Risiko yang dapat diperkirakan atau material bahwa pengembangan pengembang, penyimpanan, atau penyebaran model yayasan, sebagaimana didefinisikan, akan mengakibatkan kematian, atau cedera serius pada, lebih dari 100 orang, atau lebih dari $ 1 miliar dalam kerusakan pada hak dalam uang atau properti. “
SB 53 membatasi pengembang model AI Frontier – kemungkinan termasuk Openai, Anthropic, dan Xai, antara lain – dari membalas dendam terhadap karyawan yang mengungkapkan tentang informasi kepada jaksa agung California, otoritas federal, atau karyawan lain. Di bawah RUU tersebut, pengembang ini akan diminta untuk melaporkan kembali ke whistleblower pada proses internal tertentu yang ditemukan oleh whistleblower tentang.
Adapun CalCompute, SB 53 akan membangun grup untuk membangun cluster komputasi awan publik. Kelompok ini akan terdiri dari perwakilan Universitas California, serta peneliti publik dan swasta lainnya. Ini akan membuat rekomendasi untuk bagaimana membangun CalCompute, seberapa besar cluster seharusnya, dan pengguna dan organisasi mana yang harus memiliki akses ke sana.
Tentu saja, ini sangat awal dalam proses legislatif untuk SB 53. RUU tersebut perlu ditinjau dan disahkan oleh badan -badan legislatif California sebelum mencapai meja Gubernur Newsom. Anggota parlemen negara bagian pasti akan menunggu reaksi Silicon Valley terhadap SB 53.
Namun, 2025 mungkin merupakan tahun yang lebih sulit untuk meloloskan tagihan keselamatan AI dibandingkan dengan 2024. California mengeluarkan 18 tagihan terkait AI pada tahun 2024, tetapi sekarang tampaknya seolah-olah gerakan AI Doom telah kehilangan tempat.
Wakil Presiden JD Vance mengisyaratkan KTT Aksi AI Paris bahwa Amerika tidak tertarik pada keselamatan AI, melainkan memprioritaskan inovasi AI. Sementara cluster CalCompute yang didirikan oleh SB 53 pasti dapat dilihat sebagai kemajuan AI, tidak jelas bagaimana upaya legislatif seputar risiko AI eksistensial akan berjalan pada tahun 2025.