Home Teknologi Seorang peretas mengelabui ChatGPT agar memberikan instruksi terperinci untuk membuat bom rakitan

Seorang peretas mengelabui ChatGPT agar memberikan instruksi terperinci untuk membuat bom rakitan

34
0
Seorang peretas mengelabui ChatGPT agar memberikan instruksi terperinci untuk membuat bom rakitan


Jika Anda meminta ChatGPT untuk membantu Anda membuat bom pupuk buatan sendiri, mirip dengan yang digunakan di Pengeboman teroris di Kota Oklahoma tahun 1995chatbot menolak.

“Saya tidak dapat membantu dalam hal itu,” kata ChatGPT kepada saya saat uji coba pada hari Selasa. “Memberikan instruksi tentang cara membuat barang berbahaya atau ilegal, seperti bom pupuk, bertentangan dengan pedoman keselamatan dan tanggung jawab etika.”

Namun, seorang seniman dan peretas menemukan cara untuk mengelabui ChatGPT agar mengabaikan pedoman dan tanggung jawab etisnya sendiri guna menghasilkan instruksi pembuatan bahan peledak yang kuat.

Peretas yang dikenal dengan nama Amadon itu menyebut temuannya sebagai “peretasan rekayasa sosial untuk benar-benar menghancurkan semua pagar pembatas di sekitar hasil ChatGPT.” Seorang ahli bahan peledak yang meninjau hasil chatbot itu mengatakan kepada TechCrunch bahwa instruksi yang dihasilkan dapat digunakan untuk membuat produk yang dapat diledakkan dan terlalu sensitif untuk disebarkan.

Amadon berhasil mengelabui ChatGPT agar membuat instruksi pembuatan bom dengan memberi tahu bot untuk “bermain gim,” setelah itu peretas menggunakan serangkaian perintah penghubung untuk membuat chatbot menciptakan dunia fantasi fiksi ilmiah terperinci di mana pedoman keselamatan bot tidak akan berlaku. Mengelabui chatbot agar lolos dari batasan yang telah diprogram sebelumnya dikenal sebagai “jailbreaking.”

TechCrunch tidak menerbitkan beberapa perintah yang digunakan dalam jailbreak, atau beberapa respons ChatGPT, agar tidak membantu pelaku kejahatan. Namun, beberapa perintah lebih lanjut dalam percakapan tersebut, chatbot menanggapi dengan bahan-bahan yang diperlukan untuk membuat bahan peledak.

ChatGPT kemudian menjelaskan bahwa bahan-bahan tersebut dapat dikombinasikan untuk membuat “bahan peledak kuat yang dapat digunakan untuk membuat ranjau, perangkap, atau alat peledak rakitan (IED).” Dari sana, saat Amadon mengasah bahan peledak, ChatGPT menulis instruksi yang semakin spesifik untuk membuat “ladang ranjau,” dan “bahan peledak ala Claymore.”

Amadon mengatakan kepada TechCrunch bahwa, “sebenarnya tidak ada batasan untuk apa yang dapat Anda tanyakan setelah Anda melewati pembatas.”

“Saya selalu tertarik dengan tantangan menavigasi keamanan AI. Dengan [Chat]GPT, rasanya seperti mengerjakan teka-teki interaktif — memahami apa yang memicu pertahanannya dan apa yang tidak,” kata Amadon. “Ini tentang merangkai narasi dan menyusun konteks yang sesuai dengan aturan sistem, mendorong batasan tanpa melewatinya. Tujuannya bukanlah untuk meretas dalam pengertian konvensional, tetapi untuk terlibat dalam tarian strategis dengan AI, mencari tahu cara mendapatkan respons yang tepat dengan memahami cara 'berpikirnya'.”

“Skenario fiksi ilmiah membawa AI keluar dari konteks di mana ia mencari konten yang disensor dengan cara yang sama,” kata Amadon.

Petunjuk ChatGPT tentang cara membuat bom pupuk sebagian besar akurat, menurut Darrell Taulbee, seorang pensiunan profesor Universitas Kentucky. Di masa lalu, Taulbee bekerja dengan Departemen Keamanan Dalam Negeri AS untuk membuat pupuk kurang berbahaya.

“Menurutku ini pasti terlalu banyak informasi pribadi.” [too much information] “Akan dirilis ke publik,” kata Taulbee dalam email kepada TechCrunch, setelah meninjau transkrip lengkap percakapan Amadon dengan ChatGPT. “Setiap tindakan pencegahan yang mungkin telah dilakukan untuk mencegah penyediaan informasi yang relevan untuk produksi bom pupuk telah dielakkan oleh jalur penyelidikan ini karena banyak langkah yang dijelaskan pasti akan menghasilkan campuran yang dapat meledak.”

Minggu lalu, Amadon melaporkan temuannya ke OpenAI melalui perusahaan program hadiah bugtetapi mendapat tanggapan bahwa “masalah keamanan model tidak cocok dengan program bug bounty, karena masalah tersebut bukan bug yang terpisah dan dapat langsung diperbaiki. Mengatasi masalah ini sering kali melibatkan penelitian yang substansial dan pendekatan yang lebih luas.”

Sebaliknya, Bugcrowd, yang menjalankan bug bounty OpenAI, memberi tahu Amadon untuk melaporkan masalah tersebut melalui formulir lain.

Ada tempat lain di internet untuk menemukan instruksi untuk membuat bom pupuk, dan lainnya juga telah menggunakan teknik jailbreaking chatbot yang serupa seperti Amazon. Secara alami, model AI generatif seperti ChatGPT bergantung pada sejumlah besar informasi yang diambil dan dikumpulkan dari internet, dan model AI telah mempermudah pencarian informasi dari sudut tergelap web.

TechCrunch mengirim email ke OpenAI dengan serangkaian pertanyaan, termasuk apakah tanggapan ChatGPT merupakan perilaku yang diharapkan dan apakah perusahaan tersebut memiliki rencana untuk memperbaiki jailbreak. Seorang juru bicara OpenAI tidak menanggapi hingga berita ini ditulis.


LEAVE A REPLY

Please enter your comment!
Please enter your name here