Kendaraan otonom dituntut beroperasi aman dalam beragam kondisi jalan. Namun, skenario langka dan kompleks – dikenal sebagai long tail – masih menjadi hambatan besar. Arsitektur tradisional yang memisahkan persepsi dan perencanaan sering kali kesulitan menghadapi situasi tak terduga.
Alpamayo hadir dengan pendekatan Vision-Language-Action (VLA) reasoning-based, memungkinkan sistem berpikir langkah demi langkah, menilai sebab-akibat, dan menjelaskan keputusan berkendara.
Fitur utama:
1. Model reasoning VLA pertama dengan 10 miliar parameter. Menggunakan input video untuk menghasilkan lintasan sekaligus jejak penalaran. Model ini tersedia di Hugging Face dengan bobot terbuka dan skrip inferensi open-source.
2. Kerangka simulasi end-to-end berbasis open-source di GitHub. Menyediakan pemodelan sensor realistis, dinamika lalu lintas yang dapat dikonfigurasi, serta lingkungan pengujian tertutup berskala besar.
3. Dataset mengandung lebih dari 1.700 jam data berkendara dari berbagai geografi dan kondisi, termasuk kasus langka dunia nyata. Tersedia di Hugging Face untuk mendukung pengembangan arsitektur reasoning.
Sejumlah pemain besar seperti Lucid Motors, JLR, Uber, serta komunitas riset Berkeley DeepDrive menyambut Alpamayo sebagai fondasi menuju otonomi level 4. Mereka menilai keterbukaan model dan simulasi akan mempercepat inovasi sekaligus meningkatkan transparansi dalam menghadapi skenario tak terduga.
Selain menjadi model runtime, NVIDIA juga menekankan bahwa Alpamayo merupakan guru model yang dapat didistilasi menjadi sistem lebih ringan untuk kendaraan. Ekosistem ini juga dapat diintegrasikan dengan platform lain seperti Cosmos, Omniverse, dan Drive Hyperion.
Tujuannya demi menciptakan kendaraan otonom yang aman, skalabel, dan mampu menjelaskan keputusan mereka kepada pengguna.
Cek Berita dan Artikel yang lain di
Google News