Masyarakat diimbau untuk juga meningkatkan kehati-hatian untuk menghindari modus penipuan dengan memalsukan suara via AI.
Masyarakat diimbau untuk juga meningkatkan kehati-hatian untuk menghindari modus penipuan dengan memalsukan suara via AI.

Hati-Hati! Pakai AI, Jawaban Telepon Bisa Jadi Alat Penipuan

Lufthi Anggraeni • 20 Oktober 2025 09:58
Jakarta: Sejak sekitar satu tahun terakhir, teknologi AI tidak hanya digunakan untuk melakukan rekayasa pada gambar, kini juga menawarkan kemampuan untuk melakukan rekayasa pada audio atau suara.
 
Peningkatan kemampuan AI dalam merekayasa audio dan suara juga kian canggih, sehingga terdengar semakin alami. Hal ini dimanfaatkan pelaku kejahatan untuk melancarkan modus penipuan menggunakan suara.
 
Salah satu modus penipuan yang tengah mencuri perhatian masyarakat adalah modus perekaman suara saat calon korban mengucapkan Halo saat menjawab telepon dari nomor yang tidak dikenal. Rekaman tersebut kemudian diedit menggunakan AI dan dimanfaatkan untuk melakukan penipuan kepada orang terdekat calon korban.

Hal ini turut mendapatkan perhatian dari Pengamat teknologi informasi (IT) dan keamanan siber Alfons Tanujaya. Alfons menyebut kemajuan teknologi AI yang kini bisa dimanfaatkan untuk melakukan rekayasa suara tidak hanya memerlukan sampel suara dari hasil perekaman telepon.
 
“Secara teori memang semua sampel suara bisa digunakan untuk memalsukan suara. Tetapi tidak hanya dari suara telepon saja," ujar Alfons saat dihubungi Medcom.id.
 
Kendati masyarakat berhak untuk berhati-hati saat menerima telepon guna menghindari menjadi korban kejahatan rekayasa suara, Alfons menyebut ketakutan berlebih dengan tidak berani bersuara setiap kali menerima telepon sebagai hal yang kurang ia sarankan.
 
Lebih lanjut Alfons menyebut masyarakat perlu meningkatkan kewaspadaan dan kehati-hatian mereka khusus saat menerima telepon dari semua nomor baru yang tidak dikenal. Namun, Alfons menyebut masyarakat tidak hanya perlu berhati-hati soal telepon.
 
Alfons mengimbau masyarakat untuk juga berhati-hati saat melakukan komunikasi melalui platform lain seperti WhatsApp, email, atau komunikasi digital lainnya. Sebagai informasi, modus ini juga sempat menghebohkan masyarakat pada tahun 2024 lalu.
 
Serupa tahun lalu, informasi imbauan masyarakat juga mengingatkan bahwa modus ini membutuhkan satu kata sapaan selama kurang lebih 3 detik yang dilakukan penerima saat menjawab telepon, untuk bisa dimanfaatkan sebagai bahan modus penipuan yang memanfaatkan AI.
 
Modus penipuan ini sempat ramai terjadi di Korea Selatan pada tahun 2024 lalu, memanfaatkan teknologi Deep Voice untuk merekayasa kata sapaan menjadi kalimat utuh untuk menipu orang terdekat korban atau orang lain.
 
Cek Berita dan Artikel yang lain di
Google News

Viral! 18 Kampus ternama memberikan beasiswa full sampai lulus untuk S1 dan S2 di Beasiswa OSC. Info lebih lengkap klik : osc.medcom.id
(MMI)




TERKAIT

BERITA LAINNYA

social
FOLLOW US

Ikuti media sosial medcom.id dan dapatkan berbagai keuntungan