Pakar teknologi informasi Onno W. Purbo menegaskan bahwa apakah AI menjadi berkah atau ancaman itu tergantung penggunaannya. “AI sangat bisa dijadikan berkah tergantung kita memanfaatkannya. Yang penting kita punya otak, sumber utama tetap manusia, bukan AI,” tegas Onno dalam Workshop Wartawan UT Group 2025.
Sementara itu pakar digital forensik, Ruby Alamsyah menyoroti tentang bahaya ketergantungan dengan AI. “Kalau kita ketergantungan dengan AI, sangat mungkin kita tergantikan. Tapi kalau AI hanya jadi alat bantu, kita tetap bisa unggul dengan karakter, gaya, dan analisis kita sendiri,” ungkapnya.
AI Lokal untuk Keamanan Data
Onno menekankan pentingnya membangun kemandirian teknologi dengan mengembangkan AI lokal. Menurutnya, ketergantungan pada layanan AI publik berisiko tinggi terhadap keamanan data.“Ini bukan ChatGPT, ini AI lokal. Servernya ada di meja. Kita bisa bikin sendiri tanpa sambungan internet, jalan dengan perangkat biasa. Software open source, gratis. Jadi sekolah atau kantor bisa pakai tanpa takut data bocor,” kata Onno dalam Workshop Wartawan UT Group 2025.
Onno menambahkan, penggunaan AI lokal bisa menjadi solusi bagi lembaga pendidikan dan perusahaan di daerah yang terbatas akses internetnya. “Kalau sekolah-sekolah tidak punya internet, tinggal colok hardisk ke server, AI bisa langsung dipakai,” ujarnya.
Sementara itu, Ruby menyoroti risiko keamanan dan forensik digital yang muncul dari penggunaan AI publik. Ia mengingatkan, semua data yang dimasukkan ke AI publik tidak bisa dianggap privat.
“Semua input yang kita ketik ke AI publik direkam. Data interaksi dipakai melatih model, dan data sensitif bisa terekspos. Ada risiko penyalahgunaan untuk iklan, profiling, atau rekayasa sosial,” papar Ruby.
Baca juga: Remaja Lebih Nyaman Curhat ke AI? Hati-Hati Ini Risikonya |
Ancaman Utama AI
Ruby memaparkan tiga ancaman utama AI, pertama kebocoran data dan privasi. Data investigasi atau informasi rahasia bisa disalahgunakan.
Kemudian kedua Weaponized AI, menggunakan AI untuk memalsukan wawancara atau membuat deepfake sehingga kebenaran sulit diverifikasi. Lalu ketiga Poisoning The Well, penyebaran informasi palsu secara masif di internet berpotensi merusak data pelatihan AI sehingga output AI menjadi bias atau menyesatkan.
Tips Menghadapi Risiko AI
Ruby juga memberikan sejumlah teknik penanganan agar jurnalis tidak terjebak risiko penggunaan AI:- Jangan sembarang membagikan informasi sensitif ke AI publik.
- Perlakukan AI layaknya media sosial, di mana semua yang ditulis bisa saja bocor.
- Lakukan data sanitization sebelum menganalisis dokumen dengan AI.
- Selalu perlakukan output AI sebagai sumber awal, bukan fakta final.
(Sheva Asyraful Fali)
Cek Berita dan Artikel yang lain di
Google News
Viral! 18 Kampus ternama memberikan beasiswa full sampai lulus untuk S1 dan S2 di Beasiswa OSC. Info lebih lengkap klik : osc.medcom.id