Sebuah studi menemukan bahwa sebagian besar asisten AI menyebarkan berita palsu, dengan Google Gemini menempati peringkat teratas dalam hal jumlah kesalahan

Sebuah studi menemukan bahwa sebagian besar asisten AI menyebarkan berita palsu, dengan Google Gemini menempati peringkat teratas dalam hal jumlah kesalahan

Sebuah studi menemukan bahwa sebagian besar asisten AI menyebarkan berita palsu, dengan Google Gemini menempati peringkat teratas dalam hal jumlah kesalahan

Slot online terpercaya – Baca Selengkapnya
Studi ini mengevaluasi kinerja asisten AI dalam menjawab pertanyaan seputar berita, dengan fokus pada akurasi, sumber informasi, dan kemampuan membedakan antara fakta dan opini. Penelitian ini dilakukan dalam 14 bahasa, mengevaluasi asisten yang banyak digunakan seperti ChatGPT, Copilot, Gemini, dan Perplexity.
Secara total, 22 organisasi media layanan publik dari 18 negara, termasuk Prancis, Jerman, Spanyol, Ukraina, Inggris, dan Amerika Serikat, turut berpartisipasi.

Temuan menunjukkan bahwa 45 persen dari tanggapan mengandung setidaknya satu masalah signifikan, sementara 81 persen mencakup beberapa bentuk masalah.

Studi mencantumkan asisten AI dengan masalah serius

Kesalahan sumber menjadi perhatian khusus, dengan sepertiga dari semua respons asisten AI menunjukkan masalah serius seperti atribusi yang hilang, menyesatkan, atau salah. Asisten Gemini dari Google memiliki tingkat masalah sumber yang sangat tinggi, dengan 72 persen responsnya terpengaruh, dibandingkan dengan kurang dari 25 persen untuk asisten terkemuka lainnya asisten AI.
Masalah terkait akurasi ditemukan pada 20 persen dari seluruh tanggapan, termasuk informasi yang sudah usang dan kesalahan fakta.

Contohnya antara lain Gemini yang salah melaporkan perubahan undang-undang mengenai vape sekali pakai, serta ChatGPT yang menyatakan bahwa Paus Fransiskus masih menjabat sebagai Paus beberapa bulan setelah kematiannya.
Seiring asisten AI yang semakin populer sebagai alternatif mesin pencari berita tradisional, muncul kekhawatiran bahwa ketidakakuratan mereka dapat merusak kepercayaan publik. EBU telah menyoroti risiko potensial yang ditimbulkan oleh kesalahan-kesalahan ini, dengan menekankan pentingnya informasi yang dapat diandalkan bagi masyarakat demokratis.

Dalam sebuah pernyataan, Direktur Media EBU Jean Philip De Tender mengatakan, “Ketika orang tidak tahu apa yang harus dipercaya, mereka akhirnya tidak mempercayai apa pun, dan hal itu dapat menghambat partisipasi demokratis.”
Laporan tersebut juga menemukan bahwa, selain masalah sumber, asisten AI kesulitan membedakan antara fakta dan opini. Meskipun perusahaan telah diberi tahu mengenai masalah-masalah ini Namun, beberapa pihak mengakui perlunya perbaikan berkelanjutan.

“Gemini, asisten AI Google, sebelumnya telah menyatakan di situs webnya bahwa mereka menyambut masukan agar dapat terus meningkatkan platform dan menjadikannya lebih bermanfaat bagi pengguna.”

Halusinasi merupakan masalah mendesak dalam AI

Perusahaan teknologi terkemuka lainnya menyadari masalah yang disebut halusinasi, di mana model AI menghasilkan informasi yang salah atau menyesatkan. “OpenAI dan Microsoft sebelumnya telah menyatakan bahwa halusinasi, yaitu ketika model AI menghasilkan informasi yang salah atau menyesatkan, sering kali disebabkan oleh faktor-faktor seperti data yang tidak memadai, merupakan masalah yang sedang mereka upayakan untuk selesaikan.” Perplexity menyoroti di situs webnya bahwa salah satu mode-nya berfokus pada peningkatan akurasi fakta, dengan menyatakan, “Perplexity menyebutkan di situs webnya bahwa salah satu mode ‘Deep Research’-nya memiliki akurasi 93,9 persen dalam hal kebenaran fakta.”

Seiring asisten AI terus menjadi semakin penting dalam cara individu mengakses berita, penulis laporan dan organisasi media yang berpartisipasi Berbagai organisasi mendesak agar dilakukan perbaikan guna memastikan informasi yang andal, transparan, dan akurat dapat disampaikan kepada pengguna di seluruh dunia.

– Selesai

Leave a Reply

Your email address will not be published. Required fields are marked *