Advertisement

Ad space available

Berita AI

Sarvam AI Rilis Model Open-Source 105B, Tantang Dominasi AI AS dan China

Sarvam AI meluncurkan model bahasa besar open-source hingga 105 miliar parameter dengan arsitektur Mixture-of-Experts. Langkah ini bertujuan meningkatkan efisiensi komputasi dan memperkuat kedaulatan teknologi di tingkat lokal.

Tim Rekayasa AI
Penulis
18 Februari 2026
4 min read
#Sarvam AI#Open-Source AI#LLM#Mixture-of-Experts#Kedaulatan Digital
Sarvam AI Rilis Model Open-Source 105B, Tantang Dominasi AI AS dan China

Sarvam AI Rilis Model Open-Source 105B, Tantang Dominasi AI AS dan China

NEW DELHI, (18 FEBRUARI 2026)

Key Takeaway
  • Sarvam AI meluncurkan model open-source 30B dan 105B menggunakan arsitektur Mixture-of-Experts (MoE).
  • Model ini dirancang untuk efisiensi biaya tinggi dengan hanya mengaktifkan sebagian parameter saat pemrosesan.
  • Peluncuran ini didukung oleh infrastruktur nasional India untuk mengurangi ketergantungan pada teknologi asing.

Lab AI asal India, Sarvam, resmi memperkenalkan generasi terbaru Large Language Models (LLM) yang bersifat open-source. Mengutip data dari ajang India AI Impact Summit, perusahaan ini bertaruh pada model AI yang efisien untuk merebut pangsa pasar dari sistem besar milik raksasa teknologi asal Amerika Serikat dan China.

Peluncuran ini sejalan dengan dorongan global untuk mengurangi ketergantungan pada platform AI asing. Rangkaian produk baru Sarvam mencakup model dengan 30 miliar (30B) dan 105 miliar (105B) parameter. Model-model ini dilatih menggunakan sekitar 16 triliun token yang mencakup berbagai bahasa lokal, menjadikannya salah satu LLM paling inklusif di kawasan Asia Selatan.

Efisiensi Arsitektur Mixture-of-Experts

Model 105B milik Sarvam menggunakan arsitektur Mixture-of-Experts (MoE). Teknologi ini bekerja dengan hanya mengaktifkan sebagian kecil dari total parameter pada satu waktu untuk setiap input, yang secara drastis menekan biaya Cloud Computing dan beban kerja GPU.

Model 105B menawarkan context window hingga 128.000 token, yang memungkinkannya menangani tugas penalaran (reasoning) multi-langkah yang kompleks. Dalam proses pelatihannya, Sarvam memanfaatkan sumber daya komputasi dari inisiatif IndiaAI Mission dengan dukungan infrastruktur dari operator data center Yotta dan bantuan teknis dari Nvidia.

Dampak bagi Ekosistem Digital Indonesia

Langkah Sarvam AI memberikan preseden penting bagi ekosistem teknologi di Indonesia. Dengan populasi dan keragaman bahasa yang besar, Indonesia menghadapi tantangan serupa dalam hal kedaulatan data dan teknologi. Keberhasilan model India melatih LLM dalam bahasa lokal dapat memicu pengembang di Indonesia untuk lebih agresif mengembangkan LLM khusus Bahasa Indonesia guna menghindari bias budaya pada model buatan luar negeri.

Selain itu, penggunaan arsitektur MoE yang diadopsi Sarvam dapat menjadi standar bagi startup lokal di Indonesia untuk mengimplementasikan AI dengan biaya operasional yang lebih terjangkau dibandingkan menggunakan API berbayar yang mahal.


Artikel ini akan diperbarui seiring tersedianya informasi baru. Join Komunitas Rekayasa AI di Discord untuk diskusi lebih lanjut.

Advertisement

Ad space available

✍️

Ditulis oleh

Tim Rekayasa AI

Kontributor Rekayasa AI yang passionate tentang teknologi AI dan dampaknya di Indonesia.

Bagikan:𝕏fin