Dalam pemaparannya, Kaspersky menyoroti bagaimana para penyerang kini memanfaatkan teknologi AI untuk melancarkan berbagai ancaman digital di seluruh dunia, mulai dari serangan phishing sederhana hingga spionase siber yang didukung oleh negara-bangsa.
Sergey Lozhkin, Kepala Tim Riset & Analisis Global (GReAT) untuk META dan APAC di Kaspersky, menjelaskan bahwa sejak ChatGPT mendapatkan popularitas global pada tahun 2023, pihaknya telah mengamati adopsi AI yang bermanfaat untuk berbagai tugas, mulai dari pembuatan video hingga deteksi dan analisis ancaman teknis.
Namun, di sisi lain, pelaku kejahatan siber juga menggunakan AI untuk meningkatkan kemampuan serangan mereka. "Kita memasuki era keamanan siber dan masyarakat di mana AI adalah perisai dan Dark AI adalah pedangnya," kata Lozhkin.
Dark AI merujuk pada penerapan model bahasa besar (LLM) lokal atau jarak jauh yang tidak dibatasi dalam kerangka kerja penuh, atau sistem chatbot yang digunakan untuk tujuan berbahaya, tidak etis, atau tidak sah.
Sistem ini beroperasi di luar kendali keamanan, kepatuhan, atau tata kelola standar, sehingga memungkinkan kemampuan seperti penipuan, manipulasi, serangan siber, atau penyalahgunaan data tanpa pengawasan.
Penggunaan AI berbahaya yang paling umum dan terkenal saat ini adalah dalam bentuk Black Hat GPT, yang muncul sejak pertengahan tahun 2023. Ini adalah model AI yang sengaja dibuat, dimodifikasi, atau digunakan untuk melakukan aktivitas tidak etis, ilegal, atau berbahaya.
Contohnya termasuk menghasilkan kode berbahaya, merancang email phishing yang lancar dan persuasif untuk serangan massal maupun tertarget, membuat deepfake suara dan video, dan bahkan mendukung operasi Red Team. Black Hat GPT dapat berupa model AI privat atau semi-privat, dengan contoh yang dikenal seperti WormGPT, DarkBard, FraudGPT, dan Xanthorox.
Selain penggunaan Dark AI yang umum, Lozhkin mengungkapkan bahwa para ahli Kaspersky kini mengamati tren yang lebih gelap: aktor negara-bangsa yang memanfaatkan LLM dalam kampanye mereka. OpenAI, misalnya, baru-baru ini telah menggagalkan lebih dari 20 operasi siber terselubung yang mencoba menyalahgunakan perangkat AI-nya.
Laporan OpenAI juga mengungkapkan bahwa pelaku kejahatan siber telah menggunakan LLM untuk menciptakan persona palsu yang meyakinkan, merespons target secara real-time, dan menghasilkan konten multibahasa yang dirancang untuk menipu korban serta menerobos filter keamanan tradisional.
"AI tidak secara inheren dapat membedakan yang benar dan yang salah, melainkan alat yang mengikuti perintah," tambah Lozhkin. Ia menekankan pentingnya bagi organisasi dan individu di Asia Pasifik untuk memperkuat kebersihan keamanan siber, berinvestasi dalam deteksi ancaman yang didukung oleh AI itu sendiri, dan terus mempelajari bagaimana teknologi ini dapat dieksploitasi.
Untuk membantu organisasi mempertahankan diri terhadap Dark AI dan ancaman siber yang didukung AI, para ahli Kaspersky menyarankan penggunaan solusi keamanan generasi mendatang, pemanfaatan alat intelijen ancaman waktu nyata, pembatasan kontrol akses dan edukasi karyawan, serta pendirian Pusat Operasi Keamanan (SOC) untuk pemantauan ancaman waktu nyata dan respons cepat.
Cek Berita dan Artikel yang lain di
Google News
Viral! 18 Kampus ternama memberikan beasiswa full sampai lulus untuk S1 dan S2 di Beasiswa OSC. Info lebih lengkap klik : osc.medcom.id