Home Teknologi Perempuan dalam AI: Dr. Rebecca Portnoff melindungi anak-anak dari deepfake yang berbahaya

Perempuan dalam AI: Dr. Rebecca Portnoff melindungi anak-anak dari deepfake yang berbahaya

29
0
Perempuan dalam AI: Dr. Rebecca Portnoff melindungi anak-anak dari deepfake yang berbahaya


Sebagai bagian dari seri Women in AI yang sedang berlangsung dari TechCrunch, yang berupaya memberikan waktu yang layak bagi akademisi perempuan yang berfokus pada AI dan pihak lain untuk menjadi pusat perhatian, TechCrunch mewawancarai Dr. Rebecca Portnoff, yang merupakan wakil presiden ilmu data di organisasi nirlaba Duriyang membangun teknologi untuk melindungi anak-anak dari pelecehan seksual.

Dia kuliah di Universitas Princeton sebelum menerima gelar PhD di bidang ilmu komputer dari Universitas California, Berkeley. Dia telah menapaki jenjang kariernya di Thorn, tempat dia bekerja sejak tahun 2016. Dia memulai sebagai ilmuwan peneliti sukarela dan sekarang, delapan tahun kemudian, memimpin sebuah tim yang mungkin satu-satunya di dunia yang berdedikasi untuk membuat mesin. pembelajaran dan kecerdasan buatan untuk menghentikan, mencegah, dan membela anak-anak dari pelecehan seksual.

“Selama tahun terakhir saya di Princeton, ketika saya memikirkan apa yang harus saya lakukan setelah lulus, saudara perempuan saya menyarankan agar saya membaca 'Half the Sky' oleh Nicholas Kristof dan Sheryl WuDunn, yang memperkenalkan saya pada topik pelecehan seksual terhadap anak,” katanya kepada TechCrunch , mengatakan bahwa buku tersebut menginspirasinya untuk mempelajari cara membuat perbedaan di ruang ini. Dia kemudian menulis disertasi doktoralnya dengan fokus khusus pada penggunaan pembelajaran mesin dan AI di bidang ini.

Misi untuk melindungi anak-anak

Di Thorn, tim Portnoff membantu mengidentifikasi korban, menghentikan reviktimisasi, dan mencegah penyebaran virus materi pelecehan seksual. Dia memimpin inisiatif Keselamatan berdasarkan Desain bersama Thorn dan All Tech Is Human tahun lalu, yang berupaya mencegah orang menggunakan AI generatif untuk melakukan pelecehan seksual terhadap anak-anak.

“Ini adalah kemajuan yang luar biasa, dengan secara kolaboratif mendefinisikan prinsip-prinsip dan mitigasi untuk mencegah model generatif menghasilkan materi pelecehan, membuat materi tersebut lebih dapat dideteksi, dan mencegah distribusi model, layanan, dan aplikasi yang digunakan untuk menghasilkan materi pelecehan ini, lalu menyelaraskan para pemimpin industri untuk berkomitmen terhadap standar-standar tersebut,” kenangnya. Dia berkata bahwa dia bertemu banyak orang yang berdedikasi pada tujuan ini, “tetapi saya juga mempunyai lebih banyak uban daripada yang saya alami pada awal semuanya.”

Penggunaan AI untuk membuat gambar seksual nonkonsensual telah menjadi diskusi besar, terutama seiring dengan semakin canggihnya generasi pornografi AI, seperti yang dilaporkan TechCrunch sebelumnya. Saat ini tidak ada hukum federal yang komprehensif ada yang melindungi atau mencegah gambar AI generatif seksual yang dibuat oleh orang lain tanpa persetujuan mereka, meskipun masing-masing negara bagian, seperti Florida, Louisiana, dan New Mexico, telah mengeluarkan undang-undang mereka sendiri yang secara khusus menargetkan pelecehan anak oleh AI.

Faktanya, dia mengatakan ini adalah salah satu masalah paling mendesak yang dihadapi AI seiring dengan perkembangannya. “Satu dari 10 anak di bawah umur melaporkan bahwa mereka mengetahui kasus-kasus di mana teman-temannya membuat gambar telanjang anak-anak lain,” katanya.

“Kita tidak harus hidup dalam kenyataan ini dan tidak dapat diterima jika kita membiarkannya sampai pada titik ini.” Dia mengatakan ada mitigasi yang bisa dilakukan untuk mencegah dan mengurangi penyalahgunaan ini. Thorn, misalnya, menganjurkan agar perusahaan-perusahaan teknologi mengadopsi prinsip-prinsip dan mitigasi keselamatan sesuai desain mereka, dan secara terbuka membagikan bagaimana mereka mencegah penyalahgunaan teknologi dan produk AI generatif mereka dalam memperluas pelecehan seksual terhadap anak-anak, dengan berkolaborasi dengan organisasi-organisasi profesional seperti the Institute of Electrical and Electronics Engineers (IEEE) dan National Institute of Standards and Technology (NIST) untuk mendukung penetapan standar bagi perusahaan yang dapat digunakan untuk mengaudit kemajuan, serta melibatkan pembuat kebijakan untuk memberi tahu mereka betapa pentingnya hal ini.

“Perundang-undangan yang didasarkan pada dampak akan diperlukan untuk mengajak semua perusahaan dan pemangku kepentingan untuk ikut serta,” katanya.

Bekerja sebagai wanita di AI

Saat ia naik pangkat dalam membangun AI, Portnoff ingat orang-orang mengabaikan nasihatnya, dan malah meminta untuk berbicara dengan seseorang yang memiliki latar belakang teknis. “Tanggapan saya? 'Jangan khawatir, Anda sedang berbicara dengan seseorang yang memiliki latar belakang teknis,'” katanya.

Dia mengatakan beberapa hal telah membantunya menavigasi pekerjaan di bidang yang didominasi laki-laki: persiapan, bertindak dengan percaya diri, dan mengasumsikan niat baik. Kesiapan membantu dia memasuki ruangan dengan lebih percaya diri, sementara kepercayaan diri memungkinkan dia menghadapi tantangan dengan rasa ingin tahu dan keberanian, “berusaha terlebih dahulu untuk memahami dan kemudian untuk dipahami,” lanjutnya.

“Mengasumsikan niat baik membantu saya menghadapi tantangan dengan kebaikan, bukan sikap defensif,” katanya. “Jika niat baik itu benar-benar tidak ada, pada akhirnya akan terlihat.”

Nasihatnya kepada wanita yang ingin memasuki bidang AI adalah selalu percaya pada kemampuan dan makna diri sendiri. Dia mengatakan bahwa mudah untuk terjebak dalam membiarkan asumsi orang lain tentang Anda menentukan potensi Anda, namun suara semua orang akan dibutuhkan dalam revolusi AI saat ini.

“Seiring dengan semakin terintegrasinya ML/AI ke dalam sistem manusia, kita semua perlu bekerja sama untuk memastikan hal tersebut dilakukan dengan cara yang membangun kemajuan kolektif kita dan memprioritaskan kelompok yang paling rentan di antara kita.”

Membangun AI yang etis

Portnoff mengatakan ada banyak aspek dalam AI yang bertanggung jawab, termasuk perlunya transparansi, keadilan, keandalan, dan keamanan. “Tapi semuanya punya satu kesamaan,” lanjutnya. “Membangun ML/AI secara bertanggung jawab memerlukan keterlibatan lebih banyak pemangku kepentingan daripada sekadar sesama ahli teknologi.”

Ini berarti mendengarkan dan berkolaborasi secara lebih aktif. “Jika Anda mengikuti peta jalan untuk membangun AI yang bertanggung jawab, dan ternyata Anda belum berbicara dengan siapa pun di luar organisasi atau tim teknik Anda dalam prosesnya, Anda mungkin menuju ke arah yang salah.”

Dan, ketika investor terus menggelontorkan miliaran dolar ke startup AI, Portnoff menyarankan agar investor dapat mulai mempertimbangkan tanggung jawab sejak tahap uji tuntas, melihat komitmen perusahaan terhadap etika sebelum melakukan investasi, dan kemudian mewajibkan standar tertentu untuk diterapkan. bertemu. Hal ini dapat “mencegah bahaya dan memungkinkan pertumbuhan positif.”

“Ada banyak pekerjaan yang perlu diselesaikan,” katanya, berbicara secara umum. “Dan Andalah yang bisa mewujudkannya.”


LEAVE A REPLY

Please enter your comment!
Please enter your name here