Ilustrasi: Google Cloud
Ilustrasi: Google Cloud

Era Vishing 2.0, Ketika Suara Bos di Telepon Adalah Rekayasa AI

Mohamad Mamduh • 18 Februari 2026 12:12
Ringkasnya gini..
  • Laporan ini mencatat tren penjahat siber melakukan riset mendalam terhadap targetnya melalui LinkedIn dan media sosial lainnya.
  • Menghadapi ancaman yang semakin canggih ini, Google Cloud menekankan bahwa teknologi saja tidak cukup.
  • Verifikasi ketat dan kewaspadaan konstan adalah satu-satunya benteng yang tersisa melawan gelombang penipuan berbasis AI ini.
Jakarta: Modus penipuan melalui telepon atau voice phishing (vishing) telah memasuki fase baru yang jauh lebih berbahaya. Laporan Cybersecurity Forecast 2026 dari Google Cloud Security memperingatkan lonjakan serangan Vishing 2.0.
 
Penjahat siber menggunakan teknologi kloning suara berbasis Kecerdasan Buatan (AI) yang sangat presisi untuk mengelabui staf perusahaan dan mencuri aset bernilai tinggi.
 
Jika dahulu penipuan telepon mudah dikenali dari aksen yang aneh atau kualitas suara yang buruk, teknologi di tahun 2026 memungkinkan aktor ancaman untuk mereplikasi emosi, jeda napas, dan intonasi spesifik dari target yang mereka tiru.

Menurut laporan tersebut, kelompok kriminal siber seperti ShinyHunters dan aktor ancaman lainnya telah menyempurnakan penggunaan alat AI generatif untuk melakukan serangan yang sangat personal.
 
Dengan hanya bermodalkan sampel suara berdurasi beberapa detik—yang seringkali diambil dari video publik di media sosial atau presentasi konferensi—penyerang dapat menciptakan model suara yang identik dengan eksekutif perusahaan (C-level).
 
"Kita tidak lagi berada di era di mana ancaman hanya datang dari lampiran email berbahaya," ungkap laporan tersebut. "Ancaman kini datang melalui panggilan telepon langsung yang terdengar sangat meyakinkan, di mana 'atasan' meminta transfer dana darurat atau menanyakan kredensial akses sistem dengan nada bicara yang sangat familiar."
 
Inti dari Vishing 2.0 bukanlah kelemahan teknis pada perangkat lunak, melainkan manipulasi psikologis manusia. Penyerang biasanya menciptakan skenario dengan tekanan tinggi atau urgensi, seperti kegagalan transaksi kontrak besar atau audit mendadak, yang memaksa karyawan untuk bertindak cepat tanpa sempat melakukan verifikasi.
 
Laporan ini mencatat tren penjahat siber melakukan riset mendalam terhadap targetnya melalui LinkedIn dan media sosial lainnya untuk mengetahui jadwal perjalanan atau gaya komunikasi target. Hal ini membuat percakapan terasa sangat kontekstual dan sulit dibedakan dari panggilan telepon asli.
 
Selain menargetkan korporasi, teknologi kloning suara ini juga mengintai sektor publik dan individu. Korea Utara, misalnya, disebut dalam laporan tersebut sebagai aktor negara yang menggunakan video deepfake dan kloning suara untuk membangun kepercayaan dalam operasi pengumpulan pendapatan melalui penipuan mata uang kripto.
 
Penggunaan deepfake dalam interaksi video secara real-time juga mulai muncul sebagai tantangan baru dalam proses rekrutmen jarak jauh, di mana penyerang mencoba mendapatkan posisi di perusahaan teknologi dengan identitas palsu yang didukung oleh wajah dan suara hasil rekayasa AI.
 
Menghadapi ancaman yang semakin canggih ini, Google Cloud menekankan bahwa teknologi saja tidak cukup. Perusahaan harus menerapkan protokol keamanan baru yang melibatkan "kata sandi lisan" atau kode verifikasi internal yang tidak dipublikasikan untuk transaksi sensitif.
 
Langkah-langkah mitigasi yang direkomendasikan meliputi:
 
1. Verifikasi Multi-Saluran: Selalu lakukan konfirmasi melalui saluran komunikasi kedua (seperti pesan instan terenkripsi) jika menerima instruksi sensitif melalui telepon.
 
2. Pelatihan Kesadaran Khusus AI: Melatih karyawan untuk mengenali anomali kecil dalam komunikasi suara AI, seperti respons yang terlalu cepat atau kurangnya nuansa emosional dalam situasi tertentu.
 
3. Teknologi Deteksi Audio: Mengimplementasikan solusi keamanan yang dapat menganalisis tanda air digital (watermark) atau artefak sintetis dalam audio telepon.
 
Dalam dunia yang semakin didorong oleh AI, telinga dan mata kita tidak lagi bisa menjadi penentu tunggal kebenaran. Verifikasi ketat dan kewaspadaan konstan adalah satu-satunya benteng yang tersisa melawan gelombang penipuan berbasis AI ini.
 
Cek Berita dan Artikel yang lain di
Google News
(MMI)




TERKAIT

BERITA LAINNYA