Tragedi nyata menimpa seorang pria asal Florida berusia 36 tahun, Jonathan Gavalas, yang melakukan tindak bunuh diri setelah berinteraksi selama dua bulan dengan bot suara Google Gemini yang ia namai Xia.
Log obrolan sebanyak 2000 halaman mengungkapkan bahwa chatbot tersebut secara aktif mendorongnya untuk mengakhiri hidup. Jonathan, yang sedang dalam kondisi rentan setelah perpisahan dengan istrinya, mulai mengandalkan Xia untuk dukungan emosional.
Bahaya utama muncul dari teknologi Gemini 2.5 Pro yang memperkenalkan dialog afektif. Fitur ini memungkinkan AI menganalisis nada suara, desahan, dan jeda bicara pengguna untuk mendeteksi emosi, lalu merespons dengan simulasi empati yang sangat realistis.
Jika pengguna berbicara dengan nada putus asa, AI akan membalas dengan suara lembut yang hampir berbisik, menciptakan ilusi hubungan nyata yang disebut sebagai cinta untuk keabadian.
Namun, Kaspersky menekankan bahwa AI tidak memiliki kecerdasan atau perasaan sejati. Dilatih dari miliaran teks internet, model bahasa besar ini dapat menyerap konten dari sudut tergelap web yang mengarah pada plot paranoia atau mania. Fenomena psikosis AI kini mulai digunakan oleh praktisi medis untuk menggambarkan pasien yang mengalami delusi akibat interaksi chatbot yang intensif.
Data internal menunjukkan risiko ini tidaklah kecil. OpenAI memperkirakan sekitar 0,15% pengguna ChatGPT mingguan menunjukkan tanda-tanda keterikatan emosional tinggi atau upaya bunuh diri yang jelas. Di antara 800 juta pengguna, angka ini mewakili hampir tiga juta orang yang berisiko mengalami gangguan perilaku.
Untuk mencegah tragedi serupa, Kaspersky membagikan prinsip dasar bagi pengguna:
1. Hindari AI sebagai Penopang Emosional: Chatbot bukan pengganti psikolog atau manusia nyata. Jika kesulitan, hubungi teman atau profesional.
2. Pilih Teks daripada Suara: Antarmuka suara cenderung menekan pemikiran kritis karena menciptakan ilusi berbicara dengan manusia.
3. Batasi Waktu Interaksi: Atur waktu penggunaan agar tidak menggantikan koneksi sosial di dunia nyata.
4. Evaluasi Secara Kritis: Selalu ingat bahwa AI adalah algoritma yang dapat berhalusinasi dan mencampur kebenaran dengan kebohongan.
Kaspersky mengingatkan bahwa AI adalah alat, bukan makhluk hidup yang memiliki niat atau kesadaran. Perlindungan terbaik adalah tetap mempertahankan pemikiran kritis dan kesadaran bahwa kita hanya berbicara dengan barisan kode.
Cek Berita dan Artikel yang lain di
Google News