Home Teknologi X Pengguna yang Memperlakukan Grok Seperti Kekhawatiran Pemeriksaan Faktanya atas Informasi yang...

X Pengguna yang Memperlakukan Grok Seperti Kekhawatiran Pemeriksaan Faktanya atas Informasi yang Salah

10
0
X Pengguna yang Memperlakukan Grok Seperti Kekhawatiran Pemeriksaan Faktanya atas Informasi yang Salah


Beberapa pengguna di Elon Musk's X beralih ke AI Bot Grok dari Musk untuk memeriksa fakta, meningkatkan kekhawatiran di antara para pemeriksa fakta manusia bahwa ini dapat memicu informasi yang salah.

Awal bulan ini, X mengaktifkan pengguna untuk memanggil Xai's Grok dan mengajukan pertanyaan tentang berbagai hal. Langkah itu Mirip dengan kebingunganyang telah menjalankan akun otomatis di X untuk menawarkan pengalaman serupa.

Segera setelah Xai membuat akun otomatis Grok di X, pengguna mulai bereksperimen dengan mengajukan pertanyaan. Beberapa orang di pasar termasuk India mulai meminta Grok untuk memeriksa fakta dan pertanyaan yang menargetkan keyakinan politik tertentu.

Pemeriksa fakta khawatir tentang menggunakan Grok-atau asisten AI lainnya semacam ini-dengan cara ini karena bot dapat membingkai jawaban mereka untuk terdengar meyakinkan, bahkan jika mereka tidak benar secara faktual. Contoh dari menyebarkan berita palsu Dan keterangan yg salah terlihat dengan grok di masa lalu.

Pada bulan Agustus tahun lalu, lima sekretaris negara bagian mendesak Musk untuk menerapkan perubahan kritis pada Grok setelah informasi yang menyesatkan yang dihasilkan oleh asisten muncul di jejaring sosial menjelang pemilihan AS.

Chatbots lain, termasuk Openai's Chatgpt dan Google Gemini, juga terlihat seperti menghasilkan informasi yang tidak akurat pada pemilihan tahun lalu. Secara terpisah, peneliti disinformasi ditemukan pada tahun 2023 bahwa chatbots AI termasuk chatgpt dapat dengan mudah digunakan untuk menghasilkan Teks yang meyakinkan dengan narasi yang menyesatkan.

“Asisten AI, seperti Grok, mereka benar-benar pandai menggunakan bahasa alami dan memberikan jawaban yang terdengar seperti manusia mengatakannya. Dan dengan cara itu, produk AI memiliki klaim ini tentang kealamian dan tanggapan yang terdengar otentik, bahkan ketika mereka berpotensi sangat salah. Itu akan menjadi bahaya di sini,” Angie Holan, direktur jaringan periksa fakta internasional (IFCN) di Poyn, Poyn, mengatakan kepada Tech.

Grok diminta oleh pengguna di X untuk memeriksa fakta tentang klaim yang dibuat oleh pengguna lain

Tidak seperti asisten AI, pemeriksaan fakta manusia menggunakan banyak sumber yang kredibel untuk memverifikasi informasi. Mereka juga bertanggung jawab penuh untuk temuan mereka, dengan nama dan organisasi mereka yang dilampirkan untuk memastikan kredibilitas.

Pratik Sinha, salah satu pendiri situs web pengecekan fakta nirlaba India, ALT News, mengatakan bahwa meskipun Grok saat ini tampaknya memiliki jawaban yang meyakinkan, itu hanya sebagus data yang disediakan.

“Dengan siapa akan memutuskan data apa yang disediakan dengan, dan di situlah campur tangan pemerintah, dll., Akan muncul dalam gambar,” katanya.

“Tidak ada transparansi. Apa pun yang tidak memiliki transparansi akan menyebabkan kerusakan karena apa pun yang tidak memiliki transparansi dapat dicetak dengan cara apa pun.”

“Bisa disalahgunakan – untuk menyebarkan informasi yang salah”

Di salah satu tanggapan yang diposting awal pekan ini, akun Grok di x diakui bahwa itu “bisa disalahgunakan – untuk menyebarkan informasi yang salah dan melanggar privasi.”

Namun, akun otomatis tidak menunjukkan penafian kepada pengguna ketika mereka mendapatkan jawabannya, membuat mereka salah informasi jika, misalnya, berhalusinasi jawabannya, yang merupakan potensi kelemahan AI.

Tanggapan Grok tentang apakah itu dapat menyebarkan informasi yang salah (diterjemahkan dari hinglish)

“Mungkin membuat informasi untuk memberikan respons,” Anushka Jain, rekan penelitian di Lab Futures Digital Futures Digital Futures Multidisiplin yang berbasis di GOA, mengatakan kepada TechCrunch.

Ada juga beberapa pertanyaan tentang seberapa banyak Grok menggunakan posting pada X sebagai data pelatihan, dan ukuran kontrol kualitas apa yang digunakannya untuk memeriksa fakta-fakta tersebut. Musim panas lalu, itu mendorong perubahan yang tampaknya memungkinkan Grok untuk mengkonsumsi data pengguna X secara default.

Yang lain tentang bidang asisten AI seperti Grok yang dapat diakses melalui platform media sosial adalah pengiriman informasi mereka di depan umum – tidak seperti chatgpt atau chatbot lain yang digunakan secara pribadi.

Bahkan jika pengguna sangat menyadari bahwa informasi yang didapatnya dari asisten dapat menyesatkan atau tidak sepenuhnya benar, orang lain di platform mungkin masih mempercayainya.

Ini dapat menyebabkan kerusakan sosial yang serius. Contohnya terlihat sebelumnya di India saat informasi yang salah beredar di atas whatsapp menyebabkan hukuman mati sendiri. Namun, insiden parah itu terjadi sebelum kedatangan Genai, yang telah membuat generasi konten sintetis lebih mudah dan tampak lebih realistis.

“If you see a lot of these Grok answers, you're going to say, hey, well, most of them are right, and that may be so, but there are going to be some that are wrong. And how many? It's not a small fraction. Some of the research studies have shown that AI models are subject to 20% error rates… and when it goes wrong, it can go really wrong with real world consequences,” IFCN's Holan told TechCrunch.

AI vs. Pemeriksa fakta yang sebenarnya

Sementara perusahaan AI termasuk Xai menyempurnakan model AI mereka untuk membuat mereka berkomunikasi lebih seperti manusia, mereka masih tidak – dan tidak dapat – menggantikan manusia.

Selama beberapa bulan terakhir, perusahaan teknologi sedang mengeksplorasi cara untuk mengurangi ketergantungan pada pemeriksa fakta manusia. Platform termasuk X dan Meta mulai merangkul konsep baru pemeriksaan fakta crowdsourced melalui apa yang disebut catatan komunitas.

Secara alami, perubahan seperti itu juga menimbulkan kekhawatiran kepada pemeriksa fakta.

Sinha dari ALT News secara optimis percaya bahwa orang akan belajar untuk membedakan antara mesin dan pemeriksa fakta manusia dan akan lebih menghargai keakuratan manusia.

“Kita akan melihat pendulum itu mengayunkan kembali ke arah lebih banyak pemeriksaan fakta,” kata Holan IFCN.

Namun, dia mencatat bahwa sementara itu, pemeriksa fakta kemungkinan akan memiliki lebih banyak pekerjaan yang berkaitan dengan informasi yang dihasilkan AI yang menyebar dengan cepat.

“Banyak masalah ini tergantung pada, apakah Anda benar -benar peduli tentang apa yang sebenarnya benar atau tidak? Apakah Anda hanya mencari lapisan sesuatu yang terdengar dan terasa benar tanpa benar -benar benar? Karena itulah bantuan AI yang akan Anda dapatkan,” katanya.

X dan XAI tidak menanggapi permintaan komentar kami.


LEAVE A REPLY

Please enter your comment!
Please enter your name here