Pengembang AI terkemuka, seperti OpenAI dan Anthropic, sedang berupaya keras untuk menjual perangkat lunak ke militer Amerika Serikat: membuat Pentagon lebih efisien, tanpa membiarkan AI mereka membunuh orang.
Saat ini, peralatan mereka tidak digunakan sebagai senjata, namun AI memberi Departemen Pertahanan “keuntungan signifikan” dalam mengidentifikasi, melacak, dan menilai ancaman, kata Kepala Digital dan AI Pentagon, Dr. Radha Plumb, kepada TechCrunch dalam a wawancara telepon.
“Kami jelas meningkatkan cara-cara untuk mempercepat pelaksanaan rantai pembunuhan sehingga komandan kami dapat merespons pada waktu yang tepat untuk melindungi pasukan kami,” kata Plumb.
“Rantai pembunuhan” mengacu pada proses militer dalam mengidentifikasi, melacak, dan menghilangkan ancaman, yang melibatkan sistem sensor, platform, dan senjata yang kompleks. AI generatif terbukti membantu selama fase perencanaan dan penyusunan strategi rantai pembunuhan, menurut Plumb.
Hubungan antara Pentagon dan pengembang AI adalah hubungan yang relatif baru. OpenAI, Anthropic, dan Meta membatalkan kebijakan penggunaannya pada tahun 2024 agar badan intelijen dan pertahanan AS dapat menggunakan sistem AI mereka. Namun, mereka tetap tidak membiarkan AI mereka menyakiti manusia.
“Kami sudah sangat jelas mengenai tujuan penggunaan teknologi mereka dan apa yang tidak akan kami gunakan,” kata Plumb ketika ditanya bagaimana Pentagon bekerja dengan penyedia model AI.
Meskipun demikian, hal ini mengawali putaran kencan kilat bagi perusahaan AI dan kontraktor pertahanan.
Meta bermitra dengan Lockheed Martin dan Booz Allenantara lain, akan menghadirkan model AI Llama ke lembaga pertahanan pada bulan November. Pada bulan yang sama, Anthropic bekerja sama dengan Palantir. Pada bulan Desember, OpenAI membuat kesepakatan serupa dengan Anduril. Lebih tenangnya, Cohere juga telah menerapkan modelnya dengan Palantir.
Ketika AI generatif terbukti berguna di Pentagon, hal ini dapat mendorong Silicon Valley untuk melonggarkan kebijakan penggunaan AI dan mengizinkan lebih banyak penerapan militer.
“Bermain melalui skenario yang berbeda adalah sesuatu yang dapat dibantu oleh AI generatif,” kata Plumb. “Hal ini memungkinkan Anda untuk memanfaatkan seluruh alat yang dimiliki komandan kami, namun juga berpikir kreatif tentang berbagai opsi respons dan potensi trade-off dalam lingkungan di mana terdapat potensi ancaman, atau serangkaian ancaman, yang perlu dituntut. ”
Tidak jelas teknologi siapa yang digunakan Pentagon untuk pekerjaan ini; penggunaan AI generatif dalam rantai pemutusan (bahkan pada tahap perencanaan awal) tampaknya melanggar kebijakan penggunaan beberapa pengembang model terkemuka. kebijakan antropikmisalnya, melarang penggunaan model-modelnya untuk memproduksi atau memodifikasi “sistem yang dirancang untuk membahayakan atau menghilangkan nyawa manusia.”
Menanggapi pertanyaan kami, Anthropic mengarahkan TechCrunch ke CEO-nya Dario Amodei wawancara baru-baru ini dengan Financial Timesdi mana dia membela pekerjaan militernya:
Posisi bahwa kita tidak boleh menggunakan AI dalam bidang pertahanan dan intelijen tidak masuk akal bagi saya. Posisi bahwa kita harus menjadi gangbuster dan menggunakannya untuk membuat apa pun yang kita inginkan – hingga dan termasuk senjata kiamat – jelas sama gilanya. Kami mencoba mencari jalan tengah, melakukan segala sesuatunya secara bertanggung jawab.
OpenAI, Meta, dan Cohere tidak menanggapi permintaan komentar dari TechCrunch.
Hidup dan mati, dan senjata AI
Dalam beberapa bulan terakhir, perdebatan mengenai teknologi pertahanan muncul mengenai apakah senjata AI benar-benar boleh digunakan untuk menentukan keputusan hidup dan mati. Beberapa pihak berpendapat bahwa militer AS sudah memiliki senjata yang mampu melakukan hal tersebut.
CEO Anduril Palmer Luckey baru-baru ini dicatat pada X bahwa militer AS memiliki sejarah panjang dalam pembelian dan penggunaan sistem senjata otonom seperti a menara CIWS.
“Departemen Pertahanan telah membeli dan menggunakan sistem senjata otonom selama beberapa dekade. Penggunaannya (dan ekspornya!) dipahami dengan baik, didefinisikan secara ketat, dan secara eksplisit diatur oleh peraturan yang sama sekali tidak bersifat sukarela,” kata Luckey.
Namun ketika TechCrunch bertanya apakah Pentagon membeli dan mengoperasikan senjata yang sepenuhnya otonom – yang tidak melibatkan manusia – Plumb pada prinsipnya menolak gagasan tersebut.
“Tidak, itulah jawaban singkatnya,” kata Plumb. “Dalam hal keandalan dan etika, kita akan selalu melibatkan manusia dalam pengambilan keputusan untuk menggunakan kekuatan, dan itu termasuk dalam sistem senjata kita.”
Kata “otonomi” agak ambigu dan telah memicu perdebatan di seluruh industri teknologi tentang kapan sistem otomatis – seperti agen pengkodean AI, mobil yang dapat mengemudi sendiri, atau senjata yang dapat menembak sendiri – menjadi benar-benar mandiri.
Plumb mengatakan gagasan bahwa sistem otomatis secara independen membuat keputusan hidup dan mati adalah “terlalu biner,” dan kenyataannya kurang “fiksi ilmiah.” Sebaliknya, dia berpendapat bahwa penggunaan sistem AI oleh Pentagon sebenarnya merupakan kolaborasi antara manusia dan mesin, di mana para pemimpin senior membuat keputusan aktif di seluruh proses.
“Orang-orang cenderung menganggap hal ini seperti ada robot di suatu tempat, dan kemudian gonculator [a fictional autonomous machine] mengeluarkan selembar kertas, dan manusia tinggal mencentang kotaknya,” kata Plumb. “Itu bukan cara kerja tim manusia-mesin, dan itu bukan cara yang efektif untuk menggunakan sistem AI jenis ini.”
Keamanan AI di Pentagon
Kemitraan militer tidak selalu berjalan baik dengan karyawan Silicon Valley. Tahun lalu, puluhan karyawan Amazon dan Google terkena dampaknya dipecat dan ditangkap setelah memprotes kontrak militer perusahaan mereka dengan Israelkesepakatan cloud dengan nama kode “Project Nimbus.”
Sebagai perbandingan, respon yang diberikan oleh komunitas AI cukup bungkam. Beberapa peneliti AI, seperti Evan Hubinger dari Anthropic, mengatakan penggunaan AI di militer tidak bisa dihindari, dan sangat penting untuk bekerja sama secara langsung dengan militer untuk memastikan mereka melakukannya dengan benar.
“Jika Anda menganggap serius risiko bencana akibat AI, pemerintah AS adalah aktor yang sangat penting untuk dilibatkan, dan upaya untuk menghalangi pemerintah AS menggunakan AI bukanlah strategi yang tepat,” kata Hubinger pada bulan November. posting ke forum online LessWrong. “Tidak cukup hanya fokus pada risiko bencana saja, Anda juga harus mencegah kemungkinan pemerintah menyalahgunakan model yang Anda terapkan.”