Kecerdasan buatan atau artificial intelligence (AI) semakin menjadi sumber mencari informasi bagi kebanyakan orang. Tindakan ini muncul lantaran perkembangan AI yang semakin pesat.

Namun, penelitian yang dilakukan oleh OpenAI menemukan model penalaran terbaru dan terkuatnya, o3 dan o4-mini bisa berhalusinasi. Mereka memiliki tingkat halusinasi masing-masing 33% dan 48%. Angka tersebut lebih dari dua kali lipat dari model o1 yang lama.

Hal ini menimbulkan kekhawatiran atas akurasi dan keandalan model bahasa besar (LLM) seperti chatbot AI, kata anggota Institute of Electrical and Electronics Engineers (IEEE) dan insinyur etika AI di Singularity University, Eleanor Watson.

“Ketika sistem mengeluarkan informasi yang dibuat-buat seperti fakta, kutipan, atau peristiwa yang dibuat-buat dengan kelancaran dan koherensi yang sama yang digunakannya untuk konten yang akurat, sistem tersebut berisiko menyesatkan pengguna dengan cara yang halus dan berdampak,” kata Watson dalam Live Science.

Seperti Apa Halusinasi pada AI?
Inti dari model penalaran AI adalah ia dapat menangani tugas-tugas kompleks dan menghasilkan solusi untuk mengatasinya.

Daripada berusaha mengeluarkan jawaban berdasarkan probabilitas statistik, model penalaran menghasilkan strategi untuk memecahkan masalah, seperti halnya cara manusia berpikir.

Untuk mengembangkan solusi yang kreatif, dan berpotensi baru, AI perlu berhalusinasi. Jika tidak, ia dibatasi oleh data kaku yang diserap oleh LLM.

“Penting untuk dicatat bahwa halusinasi adalah fitur, bukan bug, dari AI,” kata seorang peneliti AI di Vectra AI, Sohrob Kazerounian.

“Mengutip seorang kolega saya, ‘Semua yang dihasilkan LLM adalah halusinasi. Hanya saja beberapa dari halusinasi itu benar.’ Jika AI hanya menghasilkan keluaran kata demi kata yang telah dilihatnya selama pelatihan, semua AI akan berkurang menjadi masalah pencarian yang sangat besar,” sambungnya.

Sistem AI yang mereka gunakan perlu berhalusinasi untuk menciptakan, daripada sekadar menyajikan informasi yang ada. Secara konseptual, hal ini mirip dengan cara manusia bermimpi atau membayangkan skenario saat memunculkan ide-ide baru.

Sisi Negatif dari Halusinasi AI
Namun, halusinasi AI menghadirkan masalah saat menyampaikan informasi yang akurat dan benar, terutama jika pengguna menerima informasi tersebut apa adanya tanpa pemeriksaan lebih lanjut.

“Hal ini khususnya bermasalah dalam domain di mana keputusan bergantung pada ketepatan fakta, seperti kedokteran, hukum, atau keuangan,” kata Watson.

“Meskipun model yang lebih maju dapat mengurangi frekuensi kesalahan fakta yang jelas, masalah ini tetap ada dalam bentuk yang lebih halus. Seiring waktu, konfabulasi mengikis persepsi sistem AI sebagai instrumen yang dapat dipercaya dan dapat menghasilkan kerugian material saat konten yang tidak diverifikasi ditindaklanjuti,” imbuhnya.

Watson melihat jika masalah ini tampaknya semakin parah seiring kemajuan AI. Hal ini lantaran seiring peningkatan kemampuan model, kesalahan sering kali menjadi kurang kentara tetapi lebih sulit dideteksi.

“Pengguna mungkin tidak menyadari adanya kesalahan dan mungkin menganggap keluaran sebagai sesuatu yang pasti padahal sebenarnya tidak,” ujarnya.

Situasi semakin rumit karena sangat sulit untuk memastikan bagaimana LLM menghasilkan jawaban mereka. Dalam esainya, CEO perusahaan AI Anthropic, Dario Amodei menyoroti kurangnya pemahaman tentang bagaimana AI menghasilkan jawaban dan informasi.

“Ketika sistem AI generatif melakukan sesuatu, seperti meringkas dokumen keuangan, kita tidak memiliki ide, pada tingkat tertentu atau tepat, mengapa ia membuat pilihan tersebut,” tulisnya.

“Itulah sebabnya mengapa AI memilih kata-kata tertentu daripada kata-kata lain, atau mengapa AI terkadang membuat kesalahan meskipun biasanya akurat,” imbuhnya.

|Detik|