Inovasi ini menandai pergeseran penting dalam pemanfaatan model AI yang telah sepenuhnya terlatih untuk menganalisis data yang belum pernah dilihat sebelumnya dan mengambil keputusan secara instan di lingkungan dunia nyata.
Tahap inferensi ini sangat penting karena mengubah investasi modal besar dalam AI menjadi hasil bisnis yang nyata serta keunggulan kompetitif bernilai tinggi. Menurut estimasi Futurum, pasar global infrastruktur AI Inferencing diproyeksikan akan mengalami pertumbuhan pesat, dari USD5,0 miliar pada tahun 2024 menjadi USD48,8 miliar pada tahun 2030, mencerminkan tingkat pertumbuhan tahunan gabungan (CAGR) sebesar 46,3% selama enam tahun.
Ashley Gorakhpurwalla, Executive Vice President Lenovo sekaligus President Lenovo Infrastructure Solutions Group, menyatakan bahwa melalui infrastruktur Lenovo terbaru yang dioptimalkan untuk inferensi, perusahaan memberikan keunggulan real-time kepada pelanggan, mengubah volume data yang sangat besar menjadi intelijen instan yang dapat ditindaklanjuti, sehingga mendorong pengambilan keputusan yang lebih baik, keamanan yang lebih kuat, serta inovasi yang lebih cepat.
Portofolio server inferencing baru dari Lenovo menghadirkan beragam pilihan dengan kapabilitas GPU, memori, dan jaringan tercanggih untuk memenuhi kebutuhan beban kerja bisnis dari berbagai skala. Ini mencakup Lenovo ThinkSystem SR675i, sebuah server inferencing berperforma tinggi yang dirancang untuk menjalankan Large Language Models (LLM) secara penuh di mana saja dengan skalabilitas masif, ideal untuk simulasi terakselerasi di sektor manufaktur, layanan kesehatan darurat, dan jasa keuangan.
Kemudian, ada Lenovo ThinkSystem SR650i yang menawarkan kekuatan inferensi AI terakselerasi dengan komputasi GPU berdensitas tinggi yang mudah diimplementasikan di pusat data yang sudah ada.
Untuk lingkungan edge seperti ritel, telekomunikasi, dan industri, Lenovo memperkenalkan Lenovo ThinkEdge SE455i, server super ringkas yang menghadirkan kapabilitas inferensi AI langsung di lokasi data berada, dengan latensi ultra-rendah, keandalan tangguh, serta fleksibilitas operasional dalam rentang suhu -5°C hingga 55°C. Server ini didukung oleh kapabilitas pendinginan udara dan cairan Lenovo Neptune untuk mengatasi kendala energi, serta model harga Lenovo TruScale pay-as-you-go.
Perangkat keras AI enterprise Lenovo menjadi fondasi bagi Lenovo Hybrid AI Factory, sebuah kerangka kerja modular yang tervalidasi untuk membangun dan mengoperasikan solusi AI dalam skala besar.
Platform terbaru ini mencakup tiga solusi utama: Lenovo Hybrid AI Inferencing dengan Lenovo ThinkAgile HX dan Nutanix AI yang memaksimalkan pemanfaatan GPU, Lenovo Hybrid AI Inferencing dengan Red Hat AI yang menawarkan platform berskala enterprise yang fleksibel dan aman untuk agentic AI, serta Lenovo Hybrid AI Inferencing dengan Canonical Ubuntu Pro yang merupakan solusi efisien secara biaya dan terintegrasi untuk deployment cepat dan eksperimen.
Lebih lanjut, Lenovo Hybrid AI Factory Services kini menawarkan keahlian dalam layanan konsultasi, penerapan, dan pengelolaan sistem AI, didukung oleh Lenovo Premier Support dan skema pembiayaan fleksibel TruScale Infrastructure-as-a-Service, untuk mempercepat realisasi ROI dan mempermudah perusahaan melakukan penskalaan operasional AI.
Cek Berita dan Artikel yang lain di
Google News