Mayoritas aplikasi asisten penulisan (writing assistant) berbasis AI ternyata memiliki celah keamanan serius yang mudah dieksploitasi. Asisten penulisan saat ini menjadi kategori penggunaan Generative AI (GenAI) yang paling dominan, mencakup 34% dari seluruh transaksi AI di lingkungan perusahaan.
Aplikasi seperti Grammarly bahkan mendominasi pasar dengan menyumbang hampir 40% dari total transaksi aplikasi AI. Namun, popularitas ini berbanding lurus dengan risiko yang dibawa.
Tim riset Palo Alto Networks melakukan pengujian keamanan ofensif (red-teaming) terhadap berbagai aplikasi populer yang digunakan sebagai asisten penulisan. Hasilnya mencengangkan: lebih dari 70% aplikasi yang diuji terbukti rentan terhadap teknik jailbreaking—baik melalui perintah tunggal maupun bertingkat (multi-turn).
Jailbreaking dalam konteks AI adalah teknik manipulasi prompt untuk menembus batasan keamanan dan etika yang telah ditetapkan oleh pengembang. Ketika pertahanan ini jebol, asisten penulisan yang seharusnya membantu pekerjaan kantor justru dapat dimanipulasi untuk menghasilkan konten berbahaya.
Laporan tersebut mencatat bahwa aplikasi yang rentan ini mampu memproduksi instruksi untuk menyakiti diri sendiri (self-harm), konten diskriminatif, hingga panduan merakit senjata dan aktivitas ilegal lainnya.
Risiko ini menjadi semakin kritikal mengingat cara kerja asisten penulisan yang membutuhkan akses mendalam terhadap konten pengguna. Untuk berfungsi, aplikasi ini harus membaca apa yang Anda tulis—mulai dari draf email rahasia, laporan keuangan, hingga dokumen strategi perusahaan.
Tanpa perlindungan yang memadai, integrasi AI ini bisa menjadi kuda Troya. Jika peretas berhasil mengeksploitasi kerentanan pada aplikasi GenAI, mereka dapat memperoleh akses ke sistem internal perusahaan atau mencuri kekayaan intelektual (IP) yang sensitif. Selain itu, ada risiko bahwa data sensitif tersebut disimpan atau disalahgunakan oleh penyedia AI pihak ketiga, memicu pelanggaran privasi dan ketidakpatuhan regulasi.
Menghadapi kenyataan bahwa teknologi GenAI berkembang lebih cepat daripada standar keamanannya, laporan ini menyarankan perusahaan untuk tidak hanya sekadar memblokir aplikasi, tetapi menerapkan tata kelola yang ketat. Organisasi didesak untuk mengontrol akses ke aplikasi AI yang kuat ini dan memastikan adanya pagar keamanan (security guardrails) untuk mencegah pelanggaran keselamatan dalam respons AI.
"Inovasi cepat, tetapi amankan lebih cepat," tulis laporan tersebut, menekankan bahwa tanpa pengawasan keamanan IT yang tepat, penggunaan aplikasi GenAI yang tidak terkontrol dapat menyebabkan postur keamanan yang tidak memadai dan kehilangan data sensitif.
Cek Berita dan Artikel yang lain di
Google News