Untuk menciptakan fenomena ini, yang dikenal sebagai "halusinasi", mereka membuat tugas pengambilan teks yang akan membuat sebagian besar manusia sakit kepala dan kemudian melacak dan meningkatkan respons model. Studi ini mengarah pada cara baru untuk mengurangi penyimpangan ketika model bahasa besar (LLM) mengolah data yang diberikan.
"Microsoft ingin memastikan bahwa setiap sistem AI yang dibangunnya adalah sesuatu yang Anda percayai dan dapat digunakan secara efektif," kata Sarah Bird, Chief Product Officer untuk Responsible AI Microsoft.
"Kami berada dalam posisi memiliki banyak ahli dan sumber daya untuk berinvestasi di ruang ini, jadi kami membantu menerangi jalan untuk mencari tahu cara menggunakan teknologi AI baru secara bertanggung jawab — dan kemudian memungkinkan orang lain untuk melakukannya juga."
Secara teknis, halusinasi adalah konten yang "tidak berdasar", yang berarti model telah mengubah data yang diberikan atau menambahkan informasi tambahan yang tidak terkandung di dalamnya.
Ada kalanya halusinasi bermanfaat, seperti ketika pengguna ingin AI membuat cerita fiksi ilmiah atau memberikan ide-ide yang tidak konvensional tentang segala hal mulai dari arsitektur hingga pengkodean. Tetapi banyak organisasi yang membangun asisten AI membutuhkannya untuk memberikan informasi yang andal dan membumi dalam skenario seperti ringkasan medis dan pendidikan, di mana akurasi sangat penting.
Insinyur perusahaan menghabiskan waktu berbulan-bulan untuk membumikan model Copilot dengan data pencarian Bing melalui pengambilan augmented generation, sebuah teknik yang menambahkan pengetahuan tambahan ke model tanpa harus melatihnya kembali. Jawaban, indeks, dan data peringkat Bing membantu Copilot memberikan respons yang lebih akurat dan relevan, bersama dengan kutipan yang memungkinkan pengguna untuk mencari dan memverifikasi informasi.
"Model ini luar biasa dalam menalar informasi, tetapi kami tidak berpikir itu harus menjadi sumber jawabannya," kata Bird. "Kami pikir data harus menjadi sumber jawaban, jadi langkah pertama bagi kami dalam memecahkan masalah adalah membawa data yang segar, berkualitas tinggi, dan akurat ke model."
Microsoft sekarang membantu pelanggan melakukan hal yang sama. Fitur On Your Data di Azure OpenAI Service membantu organisasi mengintegrasikan aplikasi AI generatif mereka dengan data mereka sendiri di lingkungan aman tingkat perusahaan. Alat lain yang tersedia di Azure AI membantu pelanggan melindungi aplikasi mereka di seluruh siklus hidup AI generatif.
Layanan evaluasi membantu pelanggan mengukur pembumian dalam aplikasi dalam produksi dan terhadap metrik pembumian yang telah dibuat sebelumnya. Templat pesan sistem keselamatan memudahkan teknisi untuk menginstruksikan model agar tetap fokus pada sumber data.
Perusahaan juga mengumumkan alat real-time untuk mendeteksi pembumian dalam skala besar dalam aplikasi yang mengakses data perusahaan, seperti asisten obrolan layanan pelanggan dan alat peringkasan dokumen. Alat Azure AI Studio didukung oleh model bahasa yang disesuaikan untuk mengevaluasi respons terhadap sumber dokumen.
Microsoft juga sedang mengembangkan fitur mitigasi baru untuk memblokir dan memperbaiki instance yang tidak berdasar secara real time. Ketika kesalahan pentanahan terdeteksi, fitur akan secara otomatis menulis ulang informasi berdasarkan data.
"Berada di ujung tombak AI generatif berarti kami memiliki tanggung jawab dan peluang untuk membuat produk kami sendiri lebih aman dan lebih andal, dan untuk membuat alat kami tersedia bagi pelanggan," kata Ken Archer, manajer produk utama AI yang bertanggung jawab di Microsoft.
Teknologi ini didukung oleh penelitian dari para ahli seperti Ece Kamar, direktur pelaksana di laboratorium AI Frontiers Microsoft Research. Dipandu oleh prinsip-prinsip etika AI perusahaan, timnya menerbitkan studi yang meningkatkan respons model dan menemukan cara baru untuk memprediksi halusinasi dalam studi lain yang melihat bagaimana model memperhatikan input pengguna.
"Ada pertanyaan mendasar: Mengapa mereka berhalusinasi? Apakah ada cara kita dapat membuka model dan melihat kapan itu terjadi?" katanya. "Kami melihat ini dari lensa ilmiah, karena jika Anda memahami mengapa hal itu terjadi, Anda dapat memikirkan arsitektur baru yang memungkinkan generasi model masa depan di mana halusinasi mungkin tidak terjadi."
Kamar mengatakan LLM cenderung berhalusinasi lebih banyak seputar fakta yang kurang tersedia dalam data pelatihan internet, menjadikan studi perhatian sebagai langkah penting dalam memahami mekanisme dan dampak konten yang tidak berdasar.
"Karena sistem AI mendukung orang-orang dengan tugas penting dan berbagi informasi, kami harus mengambil setiap risiko yang dihasilkan sistem ini dengan sangat serius, karena kami mencoba membangun sistem AI masa depan yang akan melakukan hal-hal baik di dunia," katanya.
Cek Berita dan Artikel yang lain di
Google News