Penjelasan Liang Hui, Solutions Architect Nvidia menggambarkan bahwa solusi ini menggunakan Nemo Framework sebagai backend. "Ada tiga komponen dasar dari Framework: Data Curation, Distributed Training, dan Accelerated Inference.
Ketiganya merupakan tahapan atau proses penghimpunan data, yang kemudian diolah dan disaring. Setelah itu dilengkapi atau disempurnakan sampai diterjemahkan menjadi kecerdasan artifisial yang diimplementasikan.
Dalam tahap Data Curation, perusahaan bisa menentukan parameter yang dipilih, sebagai contoh informasi yang diperlukan adalah berkaitan dengan olahraga. "Ketika raw data dikumpulkan, ada banyak sekali bias. Bisa saja ada data yang diambil berkaitan dengan politik," ungkap Liang.
Pada tahap ini, NeMo menggunakan fitur bernama Guardrail yang belum lama ini diumumkan. Fungsinya adalah memperketat parameter dari informasi yang dipilih. Setelah dikumpulkan, AI akan dilatih untuk mengolah informasi ini pada tahap Distributed Training, dan kemudian penerapannya dipercepat di tahap terakhir.
Menggunakan Large Language Model, Nvidia NeMo akan mencoba lebih relevan untuk bisnis dengan menentukan area fokus, menambahkan pengetahuan khusus domain, dan mengajarkan keterampilan fungsional.
Dalam skenario penggunaan, perusahaan bisa menciptakan AI terkustomisasi untuk chatbot layanan pelanggan secara spesifik, atau pencarian informasi yang lebih kompleks dari Google Bard atau ChatGPT. Akurasinya juga dapat ditingkatkan secara realtime.
Model dengan berbagai ukuran — dari 8 miliar hingga 530 miliar parameter — tersedia pada layanan yang diperbarui secara rutin dengan data pelatihan tambahan, memberi perusahaan opsi luas untuk membuat aplikasi yang selaras dengan persyaratan bisnis untuk kecepatan, akurasi, dan kompleksitas tugas.
Dengan menggunakan kemampuan pencarian informasi yang disertakan dalam layanan NeMo, pelanggan akan dapat menambah LLM dengan data kepemilikan real-time mereka. Hal ini memungkinkan perusahaan menyesuaikan model untuk mendukung aplikasi AI generatif yang akurat untuk intelijen pasar, pencarian perusahaan, chatbot dan layanan pelanggan, dan banyak lagi.
Ujicoba Nvidia NeMo untuk perusahaan bisa memanfaatkan cloud, yang berujung pada infrastruktur Nvidia. Pengolahan NeMo memanfaatkan GPU Nvidia generasi terkini yang dirancang khusus untuk server.
Liang memastikan transmisi data perusahaan yang ingin mencobanya 100 persen aman. "Bergantung pada thoughput dan latency, mereka juga bisa menggunakan GPU on premise," pungkas Liang.
Cek Berita dan Artikel yang lain di
Google News