Today

Halusinasi AI Masih Jadi Masalah, Begini Cara OpenAI Mau Atasinya

Halo JBers, pernah dengar istilah Halusinasi AI? Jangan bayangin robot ngelantur kayak orang mimpi, ya. Ini soal gimana model bahasa kayak ChatGPT kadang bikin jawaban salah, tapi terdengar super meyakinkan. Nah, OpenAI baru aja ngerilis riset yang ngebahas masalah ini sekaligus ngasih ide cara ngatasinnya. Menarik, kan?

Apa Sih Maksudnya Halusinasi AI?

Menurut OpenAI, halusinasi itu adalah “pernyataan masuk akal namun salah yang dihasilkan oleh model bahasa”. Jadi, bukan sekadar typo atau salah tulis, tapi bener-bener info yang keliatan meyakinkan padahal keliru.

Contohnya, ketika chatbot ditanya judul disertasi Ph.D. salah satu peneliti, jawabannya ada tiga versi. Masalahnya? Semuanya salah, tapi diucapin dengan percaya diri seakan paling benar. Kebayang nggak kalau kamu beneran ngandelin jawaban itu?

Dari Mana Masalah Ini Datang?

Kalau ditelusuri, akar masalahnya ada di proses pra-pelatihan AI. Model dilatih buat nebak kata berikutnya dari miliaran contoh kalimat, tapi tanpa label benar-salah. Makanya, AI jadi jago bikin kalimat rapi, tapi sering kesandung waktu ditanya hal detail kayak tanggal lahir seseorang. Jadinya? Ya itu tadi, halusinasi AI muncul.

BACA JUGA:  Aku Baca Tren Loker di Era AI, dan Ternyata Nggak Seseram yang Kamu Pikir

Para peneliti juga bilang sistem evaluasi sekarang ibarat ujian pilihan ganda tanpa hukuman. Kalau salah? Ya udah, nggak ada efek. Akhirnya, model jadi terbiasa nebak-nebak ketimbang jujur bilang “saya nggak tahu”.

Seperti yang ditulis peneliti, “Dengan cara yang sama, ketika model dinilai hanya berdasarkan akurasi, mereka didorong untuk menebak daripada mengatakan ‘Saya tidak tahu’.”

OpenAI Punya Usulan Solusi

Biar masalah ini nggak makin kebablasan, OpenAI ngasih ide baru: bikin sistem evaluasi kayak ujian SAT. Jadi, ada penalti buat jawaban salah dan malah dapat kredit parsial kalau model milih diam alias nggak jawab. Tujuannya simpel, biar AI nggak asal tebak cuma demi kelihatan pinter.

Peneliti menegaskan, “Jika papan skor utama terus menghargai tebakan yang beruntung, model akan terus belajar untuk menebak.” Jadi, menurut mereka, perubahan insentif ini wajib diterapin biar model ke depan lebih jujur dan akurat.

Penutup

Nah JBers, jelas banget kalau halusinasi AI bukan sekadar salah ketik, tapi tantangan serius yang masih harus diberesin. OpenAI udah kasih usulan sistem evaluasi baru, tinggal gimana nanti industri AI mau nerima dan ngejalaninnya.

BACA JUGA:  Era Baru Google Translate: Terjemahan Lebih Natural Berkat Gemini AI

Kalau menurut kamu, mending AI sok tahu tapi sering salah, atau jujur bilang “nggak tahu”?

Jangan lupa share artikel ini ke temen kamu biar makin banyak yang paham soal halusinasi AI.

Share:

Related News