Menjelang tenggat waktu Mei untuk mengunci panduan bagi penyedia model AI Tujuan Umum (GPAI) tentang mematuhi ketentuan Undang -Undang AI UE yang berlaku untuk Big AI, A draf ketiga Kode praktik diterbitkan pada hari Selasa. Kode ini telah dirumuskan sejak tahun lalu, dan rancangan ini diharapkan menjadi putaran revisi terakhir sebelum pedoman diselesaikan dalam beberapa bulan mendatang.
A situs web juga telah diluncurkan dengan tujuan meningkatkan aksesibilitas kode. Umpan balik tertulis pada draf terbaru harus diserahkan pada 30 Maret 2025.
Buku aturan berbasis risiko blok untuk AI mencakup sub-set kewajiban yang hanya berlaku untuk pembuat model AI yang paling kuat-yang mencakup bidang-bidang seperti transparansi, hak cipta, dan mitigasi risiko. Kode ini bertujuan membantu pembuat model GPAI memahami bagaimana memenuhi kewajiban hukum dan menghindari risiko sanksi untuk ketidakpatuhan. Hukuman AI ACT untuk pelanggaran persyaratan GPAI, khususnya, dapat mencapai hingga 3% dari omset tahunan global.
Efisien
Revisi kode terbaru ditagih sebagai memiliki “struktur yang lebih ramping dengan komitmen dan langkah -langkah yang disempurnakan” dibandingkan dengan iterasi sebelumnya, berdasarkan umpan balik pada draft kedua yang diterbitkan pada bulan Desember.
Umpan balik lebih lanjut, diskusi kelompok kerja dan lokakarya akan memberi makan ke dalam proses mengubah draf ketiga menjadi panduan akhir. Dan para ahli mengatakan mereka berharap untuk memperoleh “kejelasan dan koherensi” yang lebih besar dalam versi final kode yang diadopsi.
Draf ini dipecah menjadi beberapa bagian yang mencakup komitmen untuk GPAI, bersama dengan panduan terperinci untuk transparansi dan tindakan hak cipta. Ada juga bagian tentang kewajiban keselamatan dan keamanan yang berlaku untuk model yang paling kuat (dengan apa yang disebut risiko sistemik, atau GPAISR).
Pada transparansi, panduan ini mencakup contoh dari bentuk dokumentasi model GPAI mungkin diharapkan untuk diisi untuk memastikan bahwa penyebaran hilir teknologi mereka memiliki akses ke informasi utama untuk membantu dengan kepatuhan mereka sendiri.
Di tempat lain, bagian hak cipta kemungkinan tetap merupakan area yang paling kontroversial untuk AI besar.
Draf saat ini penuh dengan istilah-istilah seperti “upaya terbaik”, “langkah-langkah yang masuk akal” dan “langkah-langkah yang tepat” ketika datang untuk mematuhi komitmen seperti menghormati persyaratan hak ketika merangkak web untuk memperoleh data untuk pelatihan model, atau memitigasi risiko model output yang melanggar hak cipta.
Penggunaan bahasa yang dimediasi seperti itu menunjukkan raksasa penambangan data AI mungkin merasa mereka memiliki banyak ruang gerak untuk melanjutkan meraih informasi yang dilindungi untuk melatih model mereka dan meminta pengampunan nanti-tetapi masih harus dilihat apakah bahasa tersebut dikekang dalam draft akhir kode.
Bahasa yang digunakan dalam iterasi kode sebelumnya – mengatakan GPAI harus memberikan satu titik kontak dan penanganan keluhan untuk memudahkan para pemegang hak untuk mengomunikasikan keluhan “secara langsung dan cepat” – tampaknya telah hilang. Sekarang, hanya ada garis yang menyatakan: “Penandatangan akan menetapkan titik kontak untuk komunikasi dengan para pemegang hak yang terkena dampak dan memberikan informasi yang mudah diakses tentang hal itu.”
Teks saat ini juga menyarankan GPAI mungkin dapat menolak untuk bertindak berdasarkan keluhan hak cipta oleh para pemegang hak jika mereka “secara nyata tidak berdasar atau berlebihan, khususnya karena karakter yang berulang.” Ini menyarankan upaya oleh kreatif untuk membalikkan timbangan dengan memanfaatkan alat AI untuk mencoba mendeteksi masalah hak cipta dan mengotomatiskan pengaduan pengarsipan terhadap AI besar dapat menghasilkannya … hanya diabaikan.
Ketika datang ke keselamatan dan keamanan, persyaratan Undang -Undang AI UE untuk mengevaluasi dan mengurangi risiko sistemik yang sudah hanya berlaku untuk subset dari model yang paling kuat (mereka yang terlatih menggunakan Kekuatan komputasi total lebih dari 10^25 kegagalan) – tetapi draf terbaru ini melihat beberapa langkah yang direkomendasikan sebelumnya dipersempit lebih jauh sebagai respons terhadap umpan balik.
Tekanan AS
Tidak disebutkan di UE siaran pers Tentang rancangan terbaru adalah serangan terik terhadap pembuatan undang -undang Eropa secara umum, dan aturan blok untuk AI secara khusus, keluar dari pemerintahan AS yang dipimpin oleh Presiden Donald Trump.
Pada KTT Aksi AI Paris bulan lalu, wakil presiden AS JD Vance menolak perlunya mengatur untuk memastikan AI diterapkan keselamatan – pemerintahan Trump sebaliknya akan bersandar pada “peluang AI”. Dan dia memperingatkan Eropa bahwa overregulasi bisa membunuh angsa emas.
Sejak itu, blok telah bergerak untuk membunuh satu inisiatif keselamatan AI – menempatkan arahan kewajiban AI di blok memotong. Anggota parlemen UE juga telah membuntuti paket “omnibus” yang masuk untuk menyederhanakan reformasi ke aturan yang ada yang mereka katakan bertujuan mengurangi birokrasi dan birokrasi untuk bisnis, dengan fokus pada bidang -bidang seperti pelaporan keberlanjutan. Tetapi dengan Undang -Undang AI masih dalam proses diimplementasikan, jelas ada tekanan yang diterapkan pada persyaratan encer.
Di pameran dagang Mobile World Congress di Barcelona awal bulan ini, pembuat model GPAI Prancis Mistral – lawan yang sangat keras dari UU AI UE selama negosiasi untuk menyimpulkan undang -undang pada tahun 2023 – dengan pendiri Arthur Mensh mengklaim bahwa ia mengalami kesulitan menemukan solusi teknologi untuk mematuhi beberapa aturan. Dia menambahkan bahwa perusahaan “bekerja dengan regulator untuk memastikan bahwa ini diselesaikan.”
Sementara kode GPAI ini sedang disusun oleh para ahli independen, Komisi Eropa – melalui kantor AI yang mengawasi penegakan hukum dan kegiatan lain yang terkait dengan hukum – secara paralel, menghasilkan beberapa panduan “klarifikasi” yang juga akan membentuk bagaimana hukum berlaku. Termasuk definisi untuk GPAI dan tanggung jawab mereka.
Jadi perhatikan panduan lebih lanjut, “pada waktunya”, dari kantor AI-yang menurut komisi akan “mengklarifikasi … ruang lingkup aturan”-karena ini dapat menawarkan jalur bagi anggota parlemen yang kehilangan keberanian untuk menanggapi lobi AS untuk deregulasi AI.