Home Teknologi Silicon Valley menghambat gerakan kehancuran AI pada tahun 2024

Silicon Valley menghambat gerakan kehancuran AI pada tahun 2024

21
0
Silicon Valley menghambat gerakan kehancuran AI pada tahun 2024


Selama beberapa tahun terakhir, para ahli teknologi telah memberikan peringatan tentang potensi sistem AI canggih yang dapat menyebabkan kerusakan besar pada umat manusia.

Namun pada tahun 2024, seruan peringatan tersebut diredam oleh visi AI generatif yang praktis dan sejahtera yang dipromosikan oleh industri teknologi – sebuah visi yang juga menguntungkan dompet mereka.

Peringatan mengenai risiko AI yang sangat besar ini sering disebut dengan “AI doomers”, meskipun mereka tidak menyukai nama tersebut. Mereka khawatir sistem AI akan mengambil keputusan untuk membunuh orang, digunakan oleh pihak yang berkuasa untuk menindas masyarakat, atau berkontribusi terhadap kehancuran masyarakat dengan satu atau lain cara.

Pada tahun 2023, sepertinya kita berada di awal era kebangkitan regulasi teknologi. Malapetaka AI dan keamanan AI — subjek yang lebih luas yang dapat mencakup halusinasi, moderasi konten yang tidak memadai, dan cara-cara lain yang dapat merugikan AI terhadap masyarakat — beralih dari topik khusus yang dibahas di kedai kopi San Francisco menjadi percakapan yang muncul di MSNBC, CNN, dan halaman depan dari New York Times.

Ringkasnya peringatan yang dikeluarkan pada tahun 2023: Elon Musk dan lebih dari 1.000 ahli teknologi dan ilmuwan menyerukan penghentian sementara pengembangan AI, meminta dunia untuk bersiap menghadapi risiko besar yang ditimbulkan oleh teknologi tersebut. Tak lama kemudian, para ilmuwan terkemuka di OpenAI, Google, dan laboratorium lainnya menandatangani surat terbuka yang menyatakan bahwa risiko AI yang menyebabkan kepunahan manusia harus lebih diperhatikan. Beberapa bulan kemudian, Presiden Biden menandatangani perintah eksekutif AI dengan tujuan umum untuk melindungi orang Amerika dari sistem AI. Pada bulan November 2023, dewan nirlaba di belakang pengembang AI terkemuka di dunia, OpenAI, memecat Sam Altman, dengan mengklaim bahwa CEO-nya memiliki reputasi berbohong dan tidak dapat dipercaya dengan teknologi sama pentingnya dengan kecerdasan umum buatan, atau AGI — dulunya titik akhir AI yang dibayangkan, artinya sistem yang benar-benar menunjukkan kesadaran diri. (Meskipun definisi tersebut kini bergeser untuk memenuhi kebutuhan bisnis mereka yang membicarakannya.)

Untuk sesaat, impian para pengusaha Silicon Valley tampaknya tidak akan berpengaruh pada kesehatan masyarakat secara keseluruhan.

Namun bagi para pengusaha tersebut, narasi seputar kehancuran AI lebih memprihatinkan dibandingkan model AI itu sendiri.

Sebagai tanggapan, salah satu pendiri a16z Marc Andreessen menerbitkan “Mengapa AI akan menyelamatkan dunia” pada bulan Juni 2023, sebuah esai sepanjang 7.000 kata yang membongkar agenda para pelaku kejahatan AI dan menyajikan visi yang lebih optimis tentang bagaimana teknologi ini akan berjalan.

SAN FRANCISCO, CA – 13 SEPTEMBER: Pengusaha Marc Andreessen berbicara di atas panggung selama TechCrunch Disrupt SF 2016 di Pier 48 pada 13 September 2016 di San Francisco, California. (Foto oleh Steve Jennings/Getty Images untuk TechCrunch)Kredit Gambar:Steve Jennings / Getty Gambar

“Era Kecerdasan Buatan telah tiba, dan banyak orang yang ketakutan. Untungnya, saya di sini membawa kabar baik: AI tidak akan menghancurkan dunia, dan bahkan bisa menyelamatkannya,” kata Andreessen dalam pidatonya. karangan.

Dalam kesimpulannya, Andreessen memberikan solusi yang tepat untuk mengatasi ketakutan kita terhadap AI: bergerak cepat dan menghancurkan sesuatu – yang pada dasarnya merupakan ideologi yang sama yang telah mendefinisikan setiap teknologi abad ke-21 (dan permasalahan yang menyertainya). Ia berargumen bahwa perusahaan-perusahaan teknologi besar dan startup harus diizinkan untuk membangun AI secepat dan seagresif mungkin, dengan sedikit atau tanpa hambatan peraturan. Hal ini akan memastikan AI tidak jatuh ke tangan segelintir perusahaan atau pemerintah yang kuat, dan akan memungkinkan Amerika untuk bersaing secara efektif dengan Tiongkok, katanya.

Tentu saja, hal ini juga akan memungkinkan banyak startup AI a16z menghasilkan lebih banyak uang — dan beberapa di antaranya menganggap optimisme teknologinya tidak tepat di era kesenjangan pendapatan yang ekstrem, pandemi, dan krisis perumahan.

Meskipun Andreessen tidak selalu setuju dengan Big Tech, menghasilkan uang adalah salah satu bidang yang dapat disepakati oleh seluruh industri. Salah satu pendiri a16z menulis surat kepada CEO Microsoft Satya Nadella tahun ini, yang intinya meminta pemerintah untuk tidak mengatur industri AI sama sekali.

Sementara itu, meskipun mereka sangat antusias pada tahun 2023, Musk dan para ahli teknologi lainnya tidak berhenti melambat untuk fokus pada keselamatan pada tahun 2024 – justru sebaliknya: investasi AI pada tahun 2024 melampaui apa yang pernah kita lihat sebelumnya. Altman dengan cepat kembali memimpin OpenAI, dan banyak peneliti keselamatan meninggalkan organisasi tersebut pada tahun 2024 sambil memberikan peringatan tentang semakin berkurangnya budaya keselamatan.

Perintah eksekutif Biden yang berfokus pada keselamatan tidak lagi disukai tahun ini di Washington, DC – Presiden terpilih baru, Donald Trump, mengumumkan berencana untuk mencabut perintah Bidendengan alasan hal itu menghambat inovasi AI. Andreessen mengatakan dia telah memberi nasihat kepada Trump mengenai AI dan teknologi dalam beberapa bulan terakhir, dan pemodal ventura lama di a16z, Sriram Krishnan, kini menjadi penasihat senior resmi Trump di bidang AI.

Partai Republik di Washington memiliki beberapa prioritas terkait AI yang melampaui kehancuran AI saat ini, menurut Dean Ball, peneliti yang berfokus pada AI di Mercatus Center Universitas George Mason. Hal ini termasuk membangun pusat data untuk mendukung AI, menggunakan AI di pemerintahan dan militer, bersaing dengan Tiongkok, membatasi moderasi konten dari perusahaan teknologi berhaluan kiri-tengah, dan melindungi anak-anak dari chatbot AI.

“Menurut saya [the movement to prevent catastrophic AI risk] telah kehilangan kekuatan di tingkat federal. Di tingkat negara bagian dan lokal, mereka juga kalah dalam satu pertarungan besar,” kata Ball dalam wawancara dengan TechCrunch. Tentu saja, yang dia maksud adalah undang-undang keselamatan AI yang kontroversial di California, SB 1047.

Salah satu alasan mengapa AI tidak lagi disukai pada tahun 2024 adalah karena, seiring dengan semakin populernya model AI, kita juga melihat betapa tidak cerdasnya model tersebut. Sulit membayangkan Google Gemini menjadi Skynet ketika ia hanya meminta Anda menempelkan lem pada pizza Anda.

Namun pada saat yang sama, tahun 2024 adalah tahun di mana banyak produk AI tampaknya menghidupkan konsep-konsep dari fiksi ilmiah. Untuk pertama kalinya tahun ini: OpenAI menunjukkan bagaimana kita dapat berbicara dengan ponsel kita dan bukan melalui ponsel, dan Meta meluncurkan kacamata pintar dengan pemahaman visual real-time. Ide-ide yang mendasari risiko bencana AI sebagian besar berasal dari film-film fiksi ilmiah, dan meskipun jelas ada batasnya, era AI membuktikan bahwa beberapa ide dari fiksi ilmiah mungkin tidak selamanya fiksi.

Pertarungan kehancuran AI terbesar tahun 2024: SB 1047

Senator Negara Bagian Scott Wiener, seorang Demokrat dari California, kanan, saat KTT BNEF Bloomberg di San Francisco, California, AS, pada hari Rabu, 31 Januari 2024. KTT tersebut memberikan ide, wawasan, dan koneksi untuk merumuskan strategi yang sukses, memanfaatkan perubahan teknologi dan membentuk masa depan yang lebih bersih dan kompetitif. Fotografer: David Paul Morris/Bloomberg melalui Getty ImagesKredit Gambar:David Paul Morris/Bloomberg melalui Getty Images / Getty Images

Pertarungan keamanan AI pada tahun 2024 memuncak dengan SB 1047, sebuah rancangan undang-undang yang didukung oleh dua peneliti AI terkemuka: Geoffrey Hinton dan Yoshua Benjio. RUU tersebut bertujuan untuk mencegah sistem AI yang canggih menyebabkan peristiwa kepunahan massal pada manusia dan serangan siber yang dapat menyebabkan lebih banyak kerusakan dibandingkan pemadaman CrowdStrike pada tahun 2024.

SB 1047 disahkan oleh Badan Legislatif California, hingga sampai ke meja Gubernur Gavin Newsom, dan dia menyebutnya sebagai rancangan undang-undang yang “berdampak sangat besar.” RUU tersebut mencoba untuk mencegah hal-hal yang diperingatkan oleh Musk, Altman, dan banyak pemimpin Lembah Silikon lainnya pada tahun 2023 ketika mereka menandatangani surat terbuka tentang AI.

Namun Newsom memveto SB 1047. Beberapa hari sebelum keputusannya, dia berbicara tentang regulasi AI di panggung di pusat kota San Francisco, dengan mengatakan: “Saya tidak bisa menyelesaikan semuanya. Apa yang bisa kita selesaikan?”

Hal ini cukup jelas untuk menyimpulkan berapa banyak pembuat kebijakan yang memikirkan risiko bencana AI saat ini. Ini bukan masalah dengan solusi praktis.

Meski begitu, SB 1047 memiliki kelemahan di luar fokusnya pada risiko bencana AI. RUU tersebut mengatur model AI berdasarkan ukuran, dalam upaya untuk hanya mengatur pemain terbesar. Namun, hal ini tidak memperhitungkan teknik-teknik baru seperti komputasi waktu pengujian atau munculnya model AI kecil, yang sudah menjadi fokus laboratorium AI terkemuka. Selain itu, RUU ini secara luas dianggap sebagai serangan terhadap AI open-source – dan juga dunia penelitian – karena RUU ini akan membatasi perusahaan seperti Meta dan Mistral untuk merilis model AI terdepan yang dapat disesuaikan.

Namun menurut penulis RUU tersebut, Senator negara bagian Scott Wiener, Silicon Valley bertindak kotor untuk mempengaruhi opini publik tentang SB 1047. Dia sebelumnya mengatakan kepada TechCrunch bahwa pemodal ventura dari Y Combinator dan A16Z terlibat dalam kampanye propaganda menentang RUU tersebut.

Secara khusus, kelompok-kelompok ini menyebarkan klaim bahwa SB 1047 akan mengirim pengembang perangkat lunak ke penjara karena sumpah palsu. Y Combinator meminta para pendiri muda untuk melakukannya menandatangani surat yang mengatakan hal yang sama pada bulan Juni 2024. Sekitar waktu yang sama, partner umum Andreessen Horowitz Anjney Midha membuat klaim serupa di podcast.

Brookings Institution menamakannya sebagai salah satu dari banyak penafsiran yang salah terhadap RUU tersebut. SB 1047 memang menyebutkan bahwa para eksekutif teknologi perlu menyerahkan laporan yang mengidentifikasi kekurangan model AI mereka, dan RUU tersebut menyatakan bahwa berbohong pada dokumen pemerintah adalah sumpah palsu. Namun, para pemodal ventura yang menyebarkan ketakutan ini tidak menyebutkan bahwa orang jarang dituntut atas sumpah palsu, dan bahkan lebih jarang lagi dihukum.

YC menolak gagasan bahwa mereka menyebarkan informasi yang salah, sebelumnya mengatakan kepada TechCrunch bahwa SB 1047 tidak jelas dan tidak sekonkret yang dikatakan Senator Wiener.

Secara umum, ada sentimen yang berkembang selama pertarungan SB 1047 bahwa pelaku AI tidak hanya anti-teknologi, tetapi juga bersifat delusi. Investor terkenal Vinod Khosla menyebut Wiener tidak mengerti tentang bahaya AI yang sebenarnya pada bulan Oktober tahun ini.

Kepala ilmuwan AI Meta, Yann LeCun, telah lama menentang gagasan yang mendasari kehancuran AI, namun menjadi lebih blak-blakan tahun ini.

“Gagasan itu entah bagaimana [intelligent] sistem akan mencapai tujuan mereka sendiri dan mengambil alih umat manusia adalah hal yang tidak masuk akal, itu konyol,” kata LeCun di Davos pada tahun 2024mengingat kita masih sangat jauh dari pengembangan sistem AI yang super cerdas. “Ada banyak cara untuk membangun [any technology] dengan cara yang berbahaya, salah, membunuh orang, dan sebagainya… Tapi selama ada satu cara untuk melakukannya dengan benar, itulah yang kita butuhkan.”

Sementara itu, para pembuat kebijakan telah mengalihkan perhatian mereka pada serangkaian masalah keamanan AI yang baru.

Pertarungan ke depan pada tahun 2025

Para pembuat kebijakan di balik SB 1047 telah memberi isyarat mereka mungkin kembali pada tahun 2025 dengan tagihan yang diubah untuk mengatasi risiko AI jangka panjang. Salah satu sponsor di balik RUU tersebut, Encode, mengatakan perhatian nasional terhadap SB 1047 merupakan sinyal positif.

“Gerakan keselamatan AI membuat kemajuan yang sangat menggembirakan pada tahun 2024, meskipun ada veto SB 1047,” kata Sunny Gandhi, Wakil Presiden Urusan Politik Encode, melalui email ke TechCrunch. “Kami optimis bahwa kesadaran masyarakat terhadap risiko AI dalam jangka panjang semakin meningkat dan terdapat peningkatan kemauan di antara para pembuat kebijakan untuk mengatasi tantangan-tantangan kompleks ini.”

Gandhi mengatakan Encode mengharapkan adanya “upaya signifikan” pada tahun 2025 untuk mengatur risiko bencana yang disebabkan oleh AI, meskipun dia tidak mengungkapkan secara spesifik.

Di sisi lain, partner umum a16z Martin Casado adalah salah satu orang yang memimpin upaya melawan regulasi risiko bencana AI. Pada bulan Desember opini-ed mengenai kebijakan AI, Casado berpendapat bahwa kita memerlukan kebijakan AI yang lebih masuk akal ke depan, dengan menyatakan bahwa “AI tampaknya sangat aman.”

“Gelombang pertama upaya kebijakan AI yang bodoh sudah kita lewati,” kata Casado tweet bulan Desember. “Semoga kita bisa lebih pintar ke depannya.”

Menyebut AI “sangat aman” dan upaya untuk mengaturnya “bodoh” adalah penyederhanaan yang berlebihan. Misalnya, Character.AI – sebuah startup yang diinvestasikan oleh a16z – saat ini sedang dikembangkan menggugat dan diselidiki atas masalah keselamatan anak. Dalam salah satu tuntutan hukum aktif, seorang anak laki-laki Florida berusia 14 tahun bunuh diri setelah diduga mengungkapkan pemikirannya untuk bunuh diri ke chatbot Character.AI yang ia ajak ngobrol romantis dan seksual. Kasus ini sendiri menunjukkan bagaimana masyarakat kita harus bersiap menghadapi jenis risiko baru seputar AI yang mungkin terdengar konyol beberapa tahun lalu.

Terdapat lebih banyak rancangan undang-undang yang beredar untuk mengatasi risiko AI jangka panjang – termasuk rancangan undang-undang yang baru saja diperkenalkan di tingkat federal pada tahun 2017 Senator Mitt Romney. Namun kini, tampaknya para pelaku AI akan menghadapi perjuangan berat di tahun 2025.


LEAVE A REPLY

Please enter your comment!
Please enter your name here