Meta memiliki dikonfirmasi bahwa mereka memulai kembali upaya untuk melatih sistem AI-nya menggunakan kiriman publik Facebook dan Instagram dari basis pengguna di Inggris.
Perusahaan tersebut mengklaim bahwa mereka telah “memasukkan umpan balik regulasi” ke dalam pendekatan “opt-out” yang telah direvisi untuk memastikan bahwa pendekatan tersebut “lebih transparan,” karena postingan blog memutarnya. Perusahaan itu juga berusaha menggambarkan langkah tersebut sebagai upaya untuk memungkinkan model AI generatifnya “mencerminkan budaya, sejarah, dan idiom Inggris.” Namun, masih belum jelas apa yang sebenarnya berbeda dari perolehan data terbarunya.
Mulai minggu depan, Meta mengatakan pengguna di Inggris akan mulai melihat notifikasi dalam aplikasi yang menjelaskan apa yang sedang dilakukannya. Perusahaan kemudian berencana untuk mulai menggunakan konten publik untuk melatih AI-nya dalam beberapa bulan mendatang — atau setidaknya melakukan pelatihan pada data yang tidak secara aktif ditolak pengguna melalui proses yang disediakan Meta.
Pengumuman ini muncul tiga bulan setelah perusahaan induk Facebook menghentikan rencananya karena tekanan regulasi di Inggris, dengan Kantor Komisaris Informasi (ICO) pemeliharaan kekhawatiran mengenai bagaimana Meta dapat menggunakan data pengguna Inggris untuk melatih algoritme AI generatifnya — dan bagaimana cara mendapatkan persetujuan orang-orang. Komisi Perlindungan Data Irlandia, regulator privasi utama Meta di Uni Eropa (UE), juga menolak rencana Meta setelah menerima umpan balik dari beberapa otoritas perlindungan data di seluruh blok — belum ada kabar kapan, atau apakah, Meta akan memulai kembali upaya pelatihan AI-nya di UE.
Sebagai konteks, Meta telah meningkatkan AI-nya dari konten yang dibuat pengguna di pasar seperti AS selama beberapa waktu, tetapi peraturan privasi komprehensif Eropa telah menciptakan tantangan untuknya — dan untuk perusahaan teknologi lainnya — yang ingin memperluas kumpulan data pelatihan mereka dengan cara ini.
Meskipun adanya undang-undang privasi Uni Eropa, pada bulan Mei Meta mulai memberi tahu pengguna di wilayah tersebut perubahan kebijakan privasi yang akan datangmengatakan bahwa mereka akan mulai menggunakan konten dari komentar, interaksi dengan perusahaan, pembaruan status, dan foto serta keterangan terkait untuk pelatihan AI. Alasan untuk melakukannya, yaitu berdebatadalah bahwa hal itu perlu mencerminkan “keberagaman bahasa, geografi, dan referensi budaya masyarakat di Eropa.”
Perubahan tersebut akan mulai berlaku pada tanggal 26 Juni, namun pengumuman Meta terpacu hak privasi nirlaba malam (alias “bukan urusan Anda”) untuk mengajukan selusin keluhan kepada negara-negara konstituen Uni Eropa, dengan menyatakan bahwa Meta melanggar berbagai aspek Peraturan Perlindungan Data Umum (GDPR) blok tersebut — kerangka hukum yang mendukung undang-undang privasi nasional Negara Anggota Uni Eropa (dan juga, hingga kini, Undang-Undang Perlindungan Data Inggris).
Keluhan tersebut menargetkan penggunaan mekanisme opt-in oleh Meta untuk mengotorisasi pemrosesan dibandingkan dengan opt-out — dengan alasan bahwa pengguna harus dimintai izin terlebih dahulu, daripada harus mengambil tindakan untuk menolak penggunaan baru informasi mereka. Meta mengatakan bahwa mereka mengandalkan dasar hukum yang ditetapkan dalam GDPR yang disebut “kepentingan yang sah” (LI). Oleh karena itu, LI menyatakan tindakannya mematuhi peraturan meskipun para ahli privasi meragukan bahwa LI merupakan dasar yang tepat untuk penggunaan data orang-orang tersebut.
Meta telah berupaya mengandalkan dasar hukum ini sebelumnya untuk mencoba membenarkan pemrosesan informasi pengguna Eropa untuk iklan yang ditargetkan secara mikro. Namun, tahun lalu Pengadilan Keadilan Uni Eropa memutuskan bahwa hal itu tidak dapat digunakan dalam skenario tersebut, yang menimbulkan keraguan tentang upaya Meta untuk mendorong pelatihan AI melalui lubang kunci LI juga.
Namun, Meta telah memilih untuk memulai rencananya di Inggris, bukan di Uni Eropa, mengingat Inggris bukan lagi bagian dari Uni Eropa. Meskipun undang-undang perlindungan data Inggris tetap didasarkan pada GDPR, ICO sendiri tidak lagi menjadi bagian dari klub penegakan hukum yang sama dan sering kali bersikap hati-hati dalam penegakan hukum. Anggota parlemen Inggris juga baru-baru ini mempertimbangkan untuk mencabut regulasi rezim privasi domestik.
Keberatan untuk tidak ikut serta
Salah satu dari banyak hal yang diperdebatkan mengenai pendekatan Meta pada awalnya adalah proses yang disediakannya bagi pengguna Facebook dan Instagram untuk “memilih tidak ikut serta” dalam penggunaan informasi mereka untuk melatih AI-nya.
Daripada memberikan orang-orang kotak centang “opt-in/out” secara langsung, perusahaan tersebut membuat pengguna melewati rintangan untuk menemukan formulir keberatan yang tersembunyi di balik beberapa klik atau ketukan, di mana mereka dipaksa untuk menyatakan Mengapa mereka tidak ingin data mereka diproses. Mereka juga diberi tahu bahwa Meta sepenuhnya berhak memutuskan apakah permintaan ini akan dipenuhi. Meskipun perusahaan tersebut secara terbuka menyatakan bahwa mereka akan memenuhi setiap permintaan.
Kali ini, Meta tetap menggunakan pendekatan formulir keberatan, yang berarti pengguna tetap harus mengajukan permohonan resmi ke Meta untuk memberi tahu mereka bahwa mereka tidak ingin data mereka digunakan untuk meningkatkan sistem AI-nya. Mereka yang sebelumnya telah mengajukan keberatan tidak perlu mengajukan kembali keberatan mereka, menurut Meta. Namun, perusahaan tersebut mengatakan bahwa mereka telah membuat formulir keberatan lebih sederhana kali ini, dengan menyertakan umpan balik dari ICO. Meskipun belum menjelaskan bagaimana hal itu bisa disederhanakan. Jadi, untuk saat ini, yang kita ketahui hanyalah klaim Meta bahwa prosesnya lebih mudah.
Stephen Almond, direktur teknologi dan inovasi ICO, mengatakan bahwa pihaknya akan “memantau situasi” seiring Meta melanjutkan rencananya untuk menggunakan data Inggris untuk pelatihan model AI.
“Meta harus memastikan dan menunjukkan kepatuhan berkelanjutan terhadap hukum perlindungan data,” kata Almond dalam sebuah pernyataan. “Kami telah menjelaskan bahwa setiap organisasi yang menggunakan informasi penggunanya untuk melatih model AI generatif [needs] agar transparan tentang bagaimana data pribadi digunakan. Organisasi harus mengikuti panduan kami dan menerapkan perlindungan yang efektif sebelum mulai menggunakan data pribadi untuk pelatihan model, termasuk menyediakan jalur yang jelas dan sederhana bagi pengguna untuk menolak pemrosesan.”