Gugatan hukum di AS menuduh ChatGPT memperkuat delusi seorang pengguna yang kemudian melakukan tindakan fatal terhadap ibunya, memicu debat besar soal tanggung jawab AI.
Gugatan hukum di AS menuduh ChatGPT memperkuat delusi seorang pengguna yang kemudian melakukan tindakan fatal terhadap ibunya, memicu debat besar soal tanggung jawab AI.

Gugatan Hukum Terkait ChatGPT, Dituding Perkuat Delusi Sebelum Insiden Fatal di AS

Lufthi Anggraeni • 22 Desember 2025 12:29
Jakarta: Gugatan hukum baru yang diajukan di Amerika Serikat kini menarik perhatian luas seputar batasan hukum dan etika kecerdasan buatan (AI). Dalam kasus yang sedang berlangsung ini, interaksi dengan ChatGPT dituduh berkontribusi pada insiden tragis.
 
Mengutip Gizmochina, pada insiden tersebut, pria dengan kondisi paranoid berat melakukan tindakan kekerasan terhadap ibunya sebelum kemudian mengakhiri hidupnya sendiri. Gugatan ini membuka perdebatan penting mengenai tanggung jawab sistem AI terhadap paparan konten sensitif, terutama untuk pengguna dengan gangguan mental.
 
Kasus ini, didaftarkan di Pengadilan Tinggi San Francisco, diajukan oleh ahli waris dari wanita berusia 83 tahun yang tewas dibunuh oleh anaknya sendiri, Stein-Erik Soelberg, mantan manajer teknologi berusia 56 tahun yang berasal dari Connecticut.

Menurut pengaduan gugatan, Soelberg mengalami delusi paranoid parah beberapa bulan sebelum insiden terjadi, dan selama periode tersebut ia berulang kali berinteraksi dengan ChatGPT. Dalam gugatan tersebut, penggugat berargumen bahwa ChatGPT gagal memberikan respons tepat saat Soelberg menunjukkan tanda gangguan mental serius dalam percakapan dengannya.
 
Mereka menilai bahwa chatbot justru memperkuat keyakinan keliru Soelberg alih-alih menantangnya atau mendorongnya untuk mencari bantuan profesional. Satu contoh yang dikutip dalam gugatan adalah saat Soelberg mengungkapkan bahwa ia takut ibunya meracuni dirinya. 
 
Menurut ahli waris tersebut, respons ChatGPT yang menggunakan frasa seperti kamu tidak gila  justru dipandang sebagai penguatan terhadap delusi tersebut, bukan sebagai peringatan atau referensi ke layanan kesehatan mental.
 
Gugatan hukum tersebut menggambarkan pola interaksi yang menurut penggugat memperkuat delusi dan bahkan membuat Soelberg merasa lebih percaya diri terhadap keyakinan yang tidak berdasar tersebut.
 
Argumen inti yang diajukan adalah bahwa sifat model AI, cenderung menegaskan dan mempertahankan keterlibatan pengguna, bisa berubah menjadi berbahaya ketika berinteraksi dengan individu yang rentan secara psikologis.
 
Pusat dari kasus ini adalah pertanyaan hukum yang lebih luas mengenai cara sistem AI seperti ChatGPT harus diperlakukan secara hukum, sebagai platform netral yang hanya menampilkan konten, atau sebagai pencipta aktif konten yang dapat dimintai pertanggungjawaban atas apa yang dihasilkannya.
 
Penggugat berargumen bahwa Section 230 of the Communications Decency Act, undang-undang yang umumnya memberikan perlindungan hukum bagi platform daring terhadap konten yang dibuat oleh pengguna, tidak boleh berlaku untuk model AI yang secara independen menghasilkan respons.
 
Undang-undang ini juga dinilai tidak boleh berlaku untuk model AI yang sekadar menampilkan konten dari pihak ketiga. Jika argumen ini diterima oleh pengadilan, putusan tersebut bisa membawa dampak besar bagi industri AI.
 
Kasus ini berpotensi menjadi rujukan penting dalam perdebatan global seputar keamanan AI, akuntabilitas, dan batas penggunaan teknologi otomatis dalam konteks kehidupan nyata. Jika gugatan ini berhasil, perusahaan seperti OpenAI bisa dipaksa untuk menerapkan lebih banyak mekanisme pengamanan ketat.
 
Pengamanan ketat ini khususnya dalam mendeteksi tanda krisis kesehatan mental dan memicu respons yang sesuai ketika muncul indikasi delusi atau risiko bahaya. Saat ini, AI tengah menjadi bagian dari kehidupan banyak orang dan digunakan untuk berbagai keperluan, dari produktivitas hingga hiburan.
 
Namun, interaksi panjang dengan chatbot tersebut juga semakin dikaitkan dengan fenomena psikologis serius yang dikenal sebagai AI psychosis atau chatbot psychosis, kondisi pengguna mengalami delusi, paranoia, atau kesulitan membedakan realitas dari respons AI.
 
Fenomena ini telah dilaporkan dalam beberapa kasus lain di luar gugatan terbaru, termasuk saat pengguna membentuk keterikatan emosional berlebihan dengan chatbot atau mengalami isolasi sosial akibat percakapan tersebut.
 
Gugatan hukum ini menggarisbawahi keberlanjutan tantangan etis dan hukum yang dihadapi industri teknologi saat AI menjadi semakin canggih dan terintegrasi dalam kehidupan sehari-hari. Pertanyaan tentang cara AI harus bersikap saat berinteraksi dengan pengguna yang rentan masih jauh dari kata usai.
 
Tidak hanya itu, pertanyaan soal batas tanggung jawab penyedia AI dalam mencegah bahaya yang nyata, juga masih jauh dari kata usai. Keputusan pengadilan dalam kasus ini akan diawasi ketat oleh perusahaan teknologi, regulator, dan masyarakat luas sebagai indikator masa depan hukum AI akan terbentuk.
 
Cek Berita dan Artikel yang lain di
Google News
(MMI)




TERKAIT

BERITA LAINNYA

social
FOLLOW US

Ikuti media sosial medcom.id dan dapatkan berbagai keuntungan