Ilustrasi
Ilustrasi

Risiko dan Manfaat AI dalam Perencanaan Keuangan

Mohamad Mamduh • 31 Agustus 2024 12:30
Jakarta: Kecerdasan buatan (AI) menyebar ke hampir setiap industri karena perusahaan dan konsumen sama-sama ingin memanfaatkan efisiensi skalanya. Tugas-tugas seperti analisis data, transkripsi, dukungan pelanggan, dan segala sesuatu di antaranya dapat dilakukan menggunakan AI untuk mengurangi waktu hingga mencapai hasil yang besarnya.
 
Perencanaan keuangan tidak terkecuali. Menurut survei dari F2 Strategy, lebih dari separuh perusahaan manajemen kekayaan sudah menjalankan proyek AI. Mereka tertarik pada analisis prediktif mengenai kondisi pasar dan perubahan sekuritas dari waktu ke waktu, pengenalan karakter optik untuk menganalisis dokumen, otomatisasi alur kerja, chatbot, dan banyak lagi.
 
Potensinya jelas – AI dapat mengurangi waktu yang dihabiskan manusia untuk melakukan tugas-tugas ini sebanyak 90%. Pada saat yang sama, lebih dari 60% perusahaan mengatakan mereka memerlukan lebih banyak pendidikan tentang AI. Jadi meskipun keuntungannya tidak dapat disangkal, rasio nilai terhadap risiko masih kurang jelas.

Dinamika ini sangat penting dalam perencanaan keuangan, karena taruhannya lebih besar – uang keluarga dan individu secara langsung berada dalam risiko, menurut CHeck Point Software. Meskipun layanan pengelolaan kekayaan yang dipesan lebih dahulu biasanya diperuntukkan bagi individu dengan kekayaan bersih lebih tinggi, AI memungkinkan untuk menawarkan layanan ini kepada kelompok orang yang lebih luas.
 
Penasihat dapat mengembangkan profil pelanggan dan memberikan rencana yang dipersonalisasi berdasarkan usia, aset, risiko, tujuan, dan kebutuhan dalam waktu singkat, yang berarti perusahaan dapat menawarkannya kepada lebih banyak orang. Hal ini mewakili pasar baru bagi para manajer kekayaan, namun juga merupakan kumpulan risiko yang lebih besar. Kita harus selalu ingat bahwa pelaku ancaman juga menggunakan AI.
 
Teknologi ini menawarkan manfaat yang sama persis kepada penyerang – yaitu pengganda kekuatan yang memungkinkan mereka meningkatkan skala dan efektivitas kampanye mereka. Mereka bahkan dapat meracuni model AI itu sendiri untuk mengungkapkan informasi sensitif atau memberikan hasil yang berbahaya.
 
Selain itu, karyawan yang tidak cukup terlatih dapat secara tidak sengaja mengungkap informasi sensitif melalui informasi yang mereka masukkan ke dalam alat AI, yang kemudian memasukkannya ke dalam aktivitas pembelajaran mesin mereka. Kita telah melihat contoh-contoh dari klaim kekayaan intelektual yang tidak valid.
 
Oleh karena itu, kontrol keamanan harus diintegrasikan ke dalam seluruh siklus hidup AI, termasuk pelatihan karyawan. Sebelum menggunakan alat AI apa pun, organisasi harus memahami klasifikasi privasi semua data yang mungkin dimasukkan, sumber data yang digunakan untuk melatih alat AI, dan protokol keamanan spesifik yang diterapkan untuk melindungi informasi sensitif. Ini harus menjadi bagian dari peluncuran AI sejak hari pertama.
 
Sistem AI terbuka memiliki risiko yang lebih besar karena dirancang agar dapat diakses oleh publik, sehingga memungkinkan mereka untuk belajar dari kumpulan data yang jauh lebih besar, namun juga memungkinkan manipulasi oleh pihak yang tidak bertanggung jawab. Sistem tertutup lebih aman, namun memerlukan lebih banyak manajemen praktik dan pelatihan model.
 
Karyawan harus diberikan pelatihan mendalam tentang alat ini dan cara kerjanya, serta cara menggunakannya dengan aman – dengan menekankan data mana yang dapat digunakan dan mana yang tidak boleh terpapar pada model bahasa besar (LLM) seperti yang mendukung AI generatif aplikasi.
 
Saat menerapkan solusi berbasis AI, penting untuk mengidentifikasi cakupan alat dan membatasi akses data hanya pada hal-hal yang benar-benar diperlukan untuk melatihnya. Kembangkan pemahaman komprehensif tentang privasi informasi, sumber data model, dan mekanisme keamanan asli yang ada di dalamnya. Banyak alat AI yang memiliki pertahanan bawaan untuk melindungi dari penggunaan yang tidak etis – contoh yang baik adalah aturan ChatGPT yang berupaya untuk melindungi informasi dari penggunaan yang tidak etis. mencegah orang menggunakannya untuk tujuan jahat, seperti membuat malware.
 
Namun, jelas juga bahwa aturan ini dapat dilewati melalui perintah cerdas yang mengaburkan maksud pengguna. Ini adalah salah satu jenis serangan injeksi cepat, yang merupakan kategori ancaman unik pada sistem berbasis AI. Pengendalian yang kuat harus diterapkan untuk mencegah serangan ini sebelum terjadi. Secara umum, pengendalian ini termasuk dalam cakupan strategi keamanan siber zero trust.
 
Alat AI, khususnya LLM yang memungkinkan AI generatif, tidak boleh diperlakukan sebagai alat perangkat lunak biasa. Mereka lebih seperti gabungan antara alat dan pengguna. Program zero trust membatasi akses terhadap sumber daya berdasarkan fungsi, ruang lingkup, dan kebutuhan pekerjaan individu. Hal ini membatasi kerusakan yang dapat dilakukan penyerang dengan membahayakan satu karyawan, karena membatasi jangkauan pergerakan lateral. Kita harus ingat bahwa menambahkan perangkat lunak apa pun juga meningkatkan permukaan serangan dengan menawarkan lebih banyak titik masuk bagi penyerang.
 
Mengkompromikan alat – seperti alat AI – yang memiliki akses tak terbatas terhadap informasi identitas pribadi, rahasia perusahaan, alat kepemilikan, perkiraan strategis, analisis persaingan, dan masih banyak lagi bisa menjadi bencana besar. Mencegah pelanggaran semacam ini harus menjadi yang terdepan dalam diskusi tingkat strategi untuk menerapkan alat AI sejak awal. Setelah insiden keamanan siber, sering kali sudah terlambat.
 
Meskipun sebagian besar alat AI dilengkapi dengan keamanan bawaan, organisasi harus berhati-hati dalam menyesuaikannya dengan kebutuhan spesifik mereka. Mereka juga harus melampauinya. Meskipun terdapat kesamaan, setiap organisasi akan memiliki kasus penggunaan yang unik, dan mengkalibrasi pertahanan agar sesuai dengan dinamika ini merupakan taruhan besar bagi keamanan siber pada tahun 2024.
 
Kerugian akibat kejahatan siber mencapai USD8 triliun pada tahun 2023, menurut laporan dari Cybersecurity Ventures. Jelas, ini bukanlah ancaman khusus. Hal ini dapat dianggap sebagai salah satu ancaman utama yang dihadapi setiap bisnis saat ini, dan oleh karena itu keamanan proaktif merupakan landasan dalam menjalankan bisnis.
 
Ketika kita berbicara tentang AI, keamanan menjadi lebih penting. AI tidak akan menggantikan penasihat keuangan, namun akan membawa industri ini ke tahap evolusi berikutnya, dan itu berarti ancaman baru.
 
Skala model dan data yang mereka gunakan memperluas permukaan serangan secara eksponensial, dan hanya satu pelanggaran saja dapat meniadakan semua keuntungan yang diperoleh perusahaan dengan memanfaatkan AI. Analisis dan pengendalian keamanan siber, dalam model zero trust, sangat diperlukan untuk membuka potensi penuh dari setiap alat berbasis AI.
 
Cek Berita dan Artikel yang lain di
Google News
(MMI)




TERKAIT

BERITA LAINNYA