Selama beberapa tahun, mereka telah mengimplementasikan LLM di belakang layar untuk mengembangkan produk-produk kami, seperti melengkapi kalimat secara otomatis di Gmail, mengembangkan Google Translate, dan membantu kami memahami kueri dengan lebih baik di Google Search.
"Kini kami menggunakan LLM untuk menjalankan Bard, sebuah eksperimen yang memungkinkan pengguna untuk berkolaborasi dengan AI generatif," ungkap James Manyika, SVP, Technology and Society Google.
Bard dirancang sebagai antarmuka LLM yang memungkinkan pengguna untuk berkolaborasi dengan AI generatif. "Kami meyakini bahwa salah satu potensi dari inovasi berbasis LLM sepe i Bard adalah untuk membantu pengguna menggali potensi mereka. Bard adalah eksperimen yang luncurkan dengan penuh pertimbangan dan sesuai dengan Prinsip AI kami."
"Kami akan bekerja sama dengan pakar industri, pengajar, pembuat kebijakan, tokoh pejuang gerakan hak sipil dan hak asasi manusia, kreator konten, dan lainnya untuk mempelajari banyaknya peluang manfaat (se a risiko dan batasan) dari teknologi baru ini, dan bagaimana kami bisa menjadikannya lebih baik."
Menurut Google, pengguna akan dapat mengoptimalkan waktu mereka jika berkolaborasi dengan Bard. "Contohnya, seorang pengguna sedang merencanakan pesta; Bard bisa membantu mereka untuk membuat da ar tugas dan draf kasar undangan — sehingga membantu melowongkan waktu dan pikiran pengguna agar dapat difokuskan untuk pekerjaan yang lebih sulit."
Bard juga bisa membantu mewujudkan ide pengguna atau memicu kreativitas dengan cara baru. Contohnya, jika pengguna sedang menulis postingan blog, Bard bisa membuatkan outline sebagai titik awal agar pengguna tidak harus mulai dari lembar kosong. Bard bisa menjadi inspirasi kreativitas melalui puisi, cerpen, tagline, dan karya imajinatif lainnya yang Bard hasilkan.
Bard bisa menjadi titik awal untuk memicu rasa ingin tahu pengguna selagi mereka mengeksplorasi ide dan topik yang diminati. Contohnya, Bard akan menjelaskan konsep rumit secara sederhana atau mengemukakan wawasan yang relevan dengan suatu topik, yang mungkin dapat menginspirasi pengguna untuk mengeksplorasi dan mempelajarinya lebih jauh.
Latihan awalBard dirancang berdasarkan versi ringan dan optimal dari LaMDA (singkatan dari "Language Models for Dialogue Applications"), dan, seperti sebagian besar LLM yang ada saat ini, diberikan latihan awal dengan beragam data dari sumber yang tersedia untuk umum.
Saat LLM belajar, LLM bisa memprediksi bahwa kata yang lebih tepat setelah “selai kacang dan ___” adalah “cokelat” ketimbang “tali sepatu”. Namun, jika LLM hanya memilih kata yang paling mungkin untuk muncul berikutnya, maka akan menyebabkan respons yang kurang kreatif.
Oleh sebab itu, LLM sering kali diberikan eksibilitas untuk bisa memilih dari opsi yang masuk akal, meskipun situasinya terkadang kurang memungkinkan, agar dapat menghasilkan respons yang lebih menarik.
Namun, penting untuk diperhatikan bahwa — meskipun terkadang LLM bisa be ungsi dengan baik terhadap perintah faktual dan membuat kesan seakan sedang mengambil informasi — LLM bukanlah database informasi maupun sistem pengambilan informasi.
Maka, meski pengguna bisa mengharapkan respons yang sama persis dan konsisten dari kueri database (yang berupa pengambilan ha iah terhadap informasi yang disimpan di dalamnya), respons LLM terhadap perintah yang sama belum tentu selalu sama (belum tentu juga berupa pengambilan ha iah terhadap informasi yang ada di latihannya); semua ini disebabkan oleh mekanisme di balik LLM yang memprediksi kata berikutnya.
Hal tersebut juga menjadi faktor penting yang membuat LLM dapat menghasilkan respons yang kelihatannya masuk akal tetapi sebenarnya memiliki kesalahan faktual — sebuah kondisi yang tidak ideal jika faktualitas dianggap lebih bernilai dan harus diutamakan, tetapi itu bisa berguna untuk menghasilkan output yang kreatif atau tidak terduga.
Begitu pengguna memberikan perintah, Bard menggunakan konteks dari perintah dan interaksi dengan pengguna untuk menyusun beberapa versi respons. Bard kemudian mengklasi kasi dan mengecek respons terhadap parameter keamanan yang sudah ditetapkan sebelumnya.
Respons yang berhasil melewati pagar pengaman teknis ini kemudian disusun ulang berdasarkan tingkat kualitasnya, dan respons yang kualitasnya lebih baik, disajikan kembali ke pengguna.
Bard terkadang bisa menghasilkan respons yang seakan menunjukkan bahwa ia memiliki pendapat atau perasaan, seperti rasa sayang atau kesedihan, karena sudah berlatih dengan bahasa yang digunakan pengguna untuk mencerminkan pengalaman manusia.
Serangkaian pedoman terkait bagaimana Bard mungkin akan merepresentasikan dirinya (dengan kata lain, persona) dan terus menyempurnakan model tersebut untuk memberikan respons netral yang objektif.
Untuk mencegah agar Bard tidak merespons perintah yang belum Bard pelajari dalam latihan, atau memberi output yang memiliki dampak buruk atau konten yang dapat menyinggung, kami telah memasang sejumlah pagar pengaman teknis.
Tujuannya adalah untuk mencegah respons yang bermasalah, tetapi Bard terkadang bisa salah menga ikan pagar pengaman ini, sehingga menghasilkan “positif palsu” dan “negatif palsu”.
Dalam “positif palsu”, Bard mungkin tidak akan memberikan respons untuk perintah yang masuk akal karena salah mengartikannya sebagai perintah yang tidak pantas; sementara dalam “negatif palsu”, Bard mungkin akan menghasilkan respons yang tidak pantas meskipun pagar pengaman ini telah dipasang.
"Kami akan terus memperbaiki model ini agar lebih mampu dalam memahami dan mengklasifikasikan input dan output yang aman, dan ini akan terus berjalan seiring pesatnya perkembangan bahasa, peristiwa, dan masyarakat," lanjut James.
Google mengaku sudah memperkirakan bahwa pengguna akan menguji batas kemampuan Bard dan mencoba untuk merusak perlindungan Bard, termasuk berusaha membuatnya membocorkan data latihan atau informasi lain, atau berusaha melewati sistem keamanannya.
"Kami telah melakukan pengujian dan terus menguji Bard dengan ketat, tetapi kami yakin bahwa pengguna akan mencari cara unik yang rumit untuk menguji batas kemampuannya lebih jauh lagi."
"Ini adalah bagian penting dari peningkatan model Bard, terutama pada tahap awal ini, dan kami tidak sabar untuk mempelajari perintah baru yang dibuat pengguna, dan kemudian, mencari metode untuk mencegah Bard memberi output yang bermasalah atau mengandung informasi sensitif."
"Meskipun kami sudah berusaha untuk mengatasi dan mengurangi risiko secara proaktif, seperti semua pengalaman berbasis LLM, Bard tetap akan membuat kesalahan, dan untuk saat ini, Bard hanya boleh dicoba oleh pengguna berumur 18 tahun ke atas."
Cek Berita dan Artikel yang lain di
Google News