Ilustrasi.
Ilustrasi.

Kenapa Chatbot Bisa Ngaco? OpenAI Ungkap Penyebab Halusinasi

Cahyandaru Kuncorojati • 11 September 2025 16:25
Jakarta: OpenAI baru-baru ini menjelaskan fenomena yang sering membuat pengguna penasaran saat menggunakan chatbot seperti ChatGPT. Fenomena itu disebut “hallucination”, yakni ketika model bahasa memberikan jawaban yang terdengar meyakinkan tetapi ternyata salah. 
 
Dalam tulisannya berjudul ‘Why Language Models Hallucinate’ di blog resmi mereka, OpenAI menguraikan alasan kenapa hal ini bisa terjadi, sekaligus langkah yang bisa dilakukan untuk menguranginya.
 
Hallucination bukan berarti chatbot sengaja menipu, melainkan hasil dari cara model bahasa dilatih. Model seperti ChatGPT bekerja dengan memprediksi kata berikutnya dalam sebuah kalimat berdasarkan pola dari miliaran teks yang dipelajarinya. 

Metode ini membuat AI sangat fasih dalam menyusun kalimat, tetapi tidak selalu akurat saat menyebut detail spesifik seperti tanggal lahir tokoh publik atau judul karya ilmiah. Jika informasi tersebut jarang muncul dalam data latih, model cenderung “menebak” dengan percaya diri, sehingga menghasilkan jawaban yang salah.
 
OpenAI juga menyoroti bahwa cara evaluasi selama pelatihan turut memengaruhi hal ini. Model biasanya diberi nilai tinggi ketika jawabannya benar, namun jika menjawab “saya tidak tahu” malah dianggap tidak bernilai. 
 
Akibatnya, model lebih terdorong untuk menebak sesuatu ketimbang mengakui ketidaktahuannya. Sistem pelatihan semacam ini membuat model cenderung terlihat yakin meskipun jawabannya keliru.
 
Untuk mengatasi masalah ini, OpenAI menyarankan agar sistem evaluasi diubah sehingga jawaban “tidak tahu” tetap dihargai, terutama ketika model tidak memiliki cukup informasi untuk memastikan kebenaran. 
 
Selain itu, diperlukan cara baru dalam memberi penalti yang tegas pada jawaban yang salah tetapi disampaikan dengan penuh keyakinan. Dengan begitu, model dapat belajar untuk lebih jujur dalam mengekspresikan ketidakpastian.
 
Bagi pengguna sehari-hari, penjelasan ini penting karena menunjukkan bahwa meskipun chatbot sangat berguna, hasilnya tetap perlu diverifikasi, terutama untuk data faktual.
 
Hallucination mungkin tidak berbahaya dalam konteks kreatif seperti menulis cerita atau membuat skenario fiksi, namun bisa menimbulkan kebingungan bila digunakan untuk mencari fakta. 
 
OpenAI menegaskan bahwa mereka terus berupaya memperbaiki hal ini dalam pengembangan model terbaru agar chatbot semakin akurat dan transparan dalam memberikan jawaban.
 
 
Cek Berita dan Artikel yang lain di
Google News
(MMI)




TERKAIT

BERITA LAINNYA

social
FOLLOW US

Ikuti media sosial medcom.id dan dapatkan berbagai keuntungan