Studi menemukan bahwa sebagian besar asisten AI menyebarkan berita palsu, dengan Google Gemini menduduki peringkat teratas dengan jumlah kesalahan terbanyak.
Taruhan bola – Studi ini mengevaluasi kinerja asisten kecerdasan buatan (AI) dalam menjawab pertanyaan terkait berita, dengan fokus pada akurasi, sumber informasi, dan kemampuan untuk membedakan antara fakta dan opini. Penelitian ini dilakukan dalam 14 bahasa, mengevaluasi asisten AI yang banyak digunakan seperti ChatGPT, Copilot, Gemini, dan Perplexity.
Secara total, 22 organisasi media layanan publik dari 18 negara, termasuk Prancis, Jerman, Spanyol, Ukraina, Inggris, dan Amerika Serikat, ikut serta.
Temuan menunjukkan bahwa 45 persen respons mengandung setidaknya satu masalah serius, sementara 81 persen mengandung bentuk masalah tertentu.
Studi mencantumkan asisten AI dengan masalah serius Kesalahan sumber menjadi perhatian khusus, dengan sepertiga dari semua respons asisten AI menunjukkan masalah serius seperti atribusi yang hilang, menyesatkan, atau salah. Asisten Gemini milik Google memiliki tingkat masalah sumber yang sangat tinggi, dengan 72 persen responsnya terpengaruh, dibandingkan dengan di bawah 25 persen untuk asisten terkemuka lainnya.
Masalah terkait akurasi ditemukan pada 20 persen dari semua tanggapan, termasuk informasi yang sudah usang dan kesalahan fakta. Contohnya termasuk Gemini yang salah melaporkan perubahan undang-undang mengenai vape sekali pakai dan ChatGPT yang menyatakan bahwa Paus Fransiskus masih menjabat sebagai Paus beberapa bulan setelah kematiannya.
Seiring dengan semakin populernya asisten AI sebagai alternatif mesin pencari tradisional untuk berita, ada kekhawatiran bahwa ketidakakuratan mereka dapat merusak kepercayaan publik.
EBU telah menyoroti risiko potensial yang ditimbulkan oleh kesalahan ini, menekankan pentingnya informasi yang dapat diandalkan bagi masyarakat demokratis. Dalam pernyataan, Direktur Media EBU Jean Philip De Tender mengatakan, “Ketika orang tidak tahu apa yang harus dipercaya, mereka akhirnya tidak percaya pada apa pun, dan hal itu dapat menghambat partisipasi demokratis.”
Laporan tersebut juga menemukan bahwa, selain masalah sumber, asisten AI kesulitan membedakan antara fakta dan opini.
Meskipun perusahaan telah disadarkan akan masalah ini, beberapa di antaranya mengakui. Menekankan pentingnya perbaikan berkelanjutan. “Gemini, asisten AI Google, telah menyatakan sebelumnya di situs webnya bahwa mereka menyambut masukan agar dapat terus meningkatkan platform dan membuatnya lebih bermanfaat bagi pengguna.”
Halusinasi merupakan masalah mendesak dalam AI Perusahaan teknologi terkemuka lainnya menyadari masalah yang disebut halusinasi, di mana model AI menghasilkan informasi yang salah atau menyesatkan. “OpenAI dan Microsoft sebelumnya telah menyatakan bahwa halusinasi, ketika model AI menghasilkan informasi yang salah atau menyesatkan, seringkali disebabkan oleh faktor seperti data yang tidak memadai, merupakan masalah yang mereka upayakan untuk selesaikan.” Perplexity menyoroti di situs webnya bahwa salah satu mode-nya berfokus pada peningkatan akurasi fakta, dengan menyatakan, “Perplexity mengatakan di situs webnya bahwa salah satu mode ‘Deep Research’-nya memiliki akurasi 93,9 persen dalam hal fakta.”
Seiring dengan semakin meningkatnya peran asisten AI dalam cara individu mengakses berita, para penulis laporan dan organisasi media yang berpartisipasi dalam penelitian ini. Berupaya untuk melakukan perbaikan guna memastikan informasi yang andal, transparan, dan akurat dapat disampaikan kepada pengguna di seluruh dunia.