Ketika India, negara terpadat di dunia, maju dengan upaya digitalisasi yang cepat, perusahaan dan perusahaan rintisan lokalnya mengembangkan model AI multibahasa yang memungkinkan lebih banyak orang India berinteraksi dengan teknologi dalam bahasa utama mereka. Ini adalah studi kasus dalam AI berdaulat — pengembangan infrastruktur AI domestik yang dibangun di atas kumpulan data lokal dan mencerminkan dialek, budaya, dan praktik spesifik suatu wilayah.
Proyek-proyek ini membangun model bahasa untuk bahasa India dan bahasa Inggris yang dapat mendukung agen AI layanan pelanggan untuk bisnis, menerjemahkan konten dengan cepat untuk memperluas akses ke informasi, dan memungkinkan layanan untuk lebih mudah menjangkau populasi yang beragam lebih dari 1,4 miliar individu.
Untuk mendukung inisiatif seperti ini, NVIDIA telah merilis model bahasa kecil untuk Hindi, bahasa paling umum di India dengan lebih dari setengah miliar penutur. Sekarang tersedia sebagai layanan mikro NIM, model, yang dijuluki Nemotron-4-Mini-Hindi-4B, dapat dengan mudah digunakan pada sistem yang dipercepat GPU NVIDIA untuk kinerja yang dioptimalkan.
Tech Mahindra, sebuah perusahaan layanan dan konsultasi TI India, adalah yang pertama menggunakan layanan mikro Nemotron Hindi NIM untuk mengembangkan model AI yang disebut Indus 2.0, yang berfokus pada bahasa Hindi dan lusinan dialeknya.
Indus 2.0 memanfaatkan data penyempurnaan berkualitas tinggi Tech Mahindra untuk lebih meningkatkan akurasi model, membuka peluang bagi klien di perbankan, pendidikan, perawatan kesehatan, dan industri lainnya untuk memberikan layanan lokal.
Tech Mahindra akan memamerkan Indus 2.0 di NVIDIA AI Summit, yang berlangsung pada 23-25 Oktober di Mumbai. Perusahaan juga menggunakan NVIDIA NeMo untuk mengembangkan platform model bahasa besar (LLM) yang berdaulat, TeNo.
Model Nemotron Hindi memiliki 4 miliar parameter dan berasal dari Nemotron-4 15B, model bahasa multibahasa 15 miliar parameter yang dikembangkan oleh NVIDIA. Model ini dipangkas, disaring, dan dilatih dengan kombinasi data Hindi dunia nyata, data Hindi sintetis, dan data bahasa Inggris dalam jumlah yang sama menggunakan NeMo, kerangka kerja cloud-native end-to-end dan rangkaian layanan mikro untuk mengembangkan AI generatif.
Kumpulan data dibuat dengan NeMo Curator, yang meningkatkan akurasi model AI generatif dengan memproses data multimodal berkualitas tinggi dalam skala besar untuk pelatihan dan penyesuaian. NeMo Curator menggunakan pustaka RAPIDS untuk mempercepat alur pemrosesan data pada sistem GPU multi-node, menurunkan waktu pemrosesan dan total biaya kepemilikan. Ini juga menyediakan alur dan blok bangunan yang dibuat sebelumnya untuk pembuatan data sintetis, pemfilteran data, klasifikasi, dan deduplikasi untuk memproses data berkualitas tinggi.
Setelah menyempurnakan dengan NeMo, model akhir memimpin beberapa tolok ukur akurasi untuk model AI dengan hingga 8 miliar parameter. Dikemas sebagai layanan mikro NIM, ini dapat dengan mudah dimanfaatkan untuk mendukung kasus penggunaan di seluruh industri seperti pendidikan, ritel, dan perawatan kesehatan.
Ini tersedia sebagai bagian dari platform perangkat lunak NVIDIA AI Enterprise, yang memberi bisnis akses ke sumber daya tambahan, termasuk dukungan teknis dan keamanan tingkat perusahaan, untuk merampingkan pengembangan AI untuk lingkungan produksi.
Inovator, perusahaan besar, dan integrator sistem global di seluruh India sedang membangun model bahasa yang disesuaikan menggunakan NeMo.
Perusahaan dalam program Inception untuk startup mutakhir menggunakan NeMo untuk mengembangkan model AI untuk beberapa bahasa India.
Sarvam AI menawarkan model ucapan-ke-teks, teks-ke-ucapan, terjemahan, dan penguraian data kepada pelanggan perusahaan. Perusahaan mengembangkan Sarvam 1, LLM multibahasa buatan sendiri pertama di India, yang dilatih dari awal pada infrastruktur AI domestik yang didukung oleh GPU NVIDIA H100 Tensor Core.
Sarvam 1 — dikembangkan menggunakan perangkat lunak NVIDIA AI Enterprise termasuk NeMo Curator dan NeMo Framework — mendukung bahasa Inggris dan 10 bahasa utama India, termasuk Bengali, Marathi, Tamil, dan Telugu.
Sarvam AI juga menggunakan layanan mikro NIM, Riva untuk AI percakapan, perangkat lunak TensorRT-LLM, dan Triton Inference Server untuk mengoptimalkan dan menerapkan agen AI percakapan dengan latensi sub-detik.
Startup Inception lainnya, Gnani.ai, membangun LLM ucapan multibahasa yang mendukung asisten layanan pelanggan AI yang menangani sekitar 10 juta interaksi suara real-time setiap hari untuk lebih dari 150 perusahaan perbankan, asuransi, dan jasa keuangan di seluruh India dan AS. Model ini mendukung 14 bahasa dan dilatih pada lebih dari 14 juta jam data ucapan percakapan menggunakan GPU NVIDIA Hopper dan NeMo Framework.
Gnani.ai menggunakan layanan mikro TensorRT-LLM, Triton Inference Server, dan Riva NIM untuk mengoptimalkan AI-nya untuk asisten layanan pelanggan virtual dan analitik ucapan.
Cek Berita dan Artikel yang lain di
Google News
Viral! 18 Kampus ternama memberikan beasiswa full sampai lulus untuk S1 dan S2 di Beasiswa OSC. Info lebih lengkap klik : osc.medcom.id