Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
Poin-poin penting dari ZDNET
- Nemotron 3 dari Nvidia mengklaim kemajuan dalam akurasi dan efisiensi biaya.
- Laporan menunjukkan Meta menjauh dari teknologi sumber terbuka.
- Nvidia berpendapat ini lebih terbuka dibandingkan Meta dengan transparansi data.
Memanfaatkan pergeseran dalam bidang kecerdasan buatan sumber terbuka, raksasa chip Nvidia, yang prosesornya mendominasi AI, telah meluncurkan generasi ketiga dari keluarga model bahasa besar sumber terbuka Nemotron.
Keluarga Nemotron 3 yang baru menskalakan teknologi dari model satu miliar parameter dan 340 miliar parameter, jumlah bobot saraf, hingga tiga model baru, mulai dari 30 miliar untuk Nano, 100 miliar untuk Super, dan 500 miliar untuk Ultra.
Juga: Kontroversi ‘kawanan’ Llama 4 Meta dan kontaminasi AI, dijelaskan
Model Nano, yang kini tersedia di platform hosting kode HuggingFace, meningkatkan throughput token per detik sebanyak empat kali lipat dan memperluas jendela konteks — jumlah data yang dapat dimanipulasi dalam memori model — menjadi satu juta token, tujuh kali lebih besar dari pendahulunya.
Nvidia menekankan bahwa model tersebut bertujuan untuk mengatasi beberapa kekhawatiran bagi pengguna AI generatif di perusahaan, yang mengkhawatirkan akurasi, serta meningkatnya biaya pemrosesan token yang semakin banyak setiap kali AI membuat prediksi.
“Dengan Nemotron 3, kami bertujuan untuk memecahkan masalah keterbukaan, efisiensi, dan kecerdasan,” kata Kari Briski, wakil presiden perangkat lunak AI generatif di Nvidia, dalam sebuah wawancara dengan ZDNET sebelum peluncurannya.
Juga: Kudeta terbaru Nvidia: Seluruh Taiwan pada perangkat lunaknya
Model versi Super diharapkan tiba pada bulan Januari, dan Ultra akan dirilis pada bulan Maret atau April.
Pengaruh Llama memudar
Nvidia, tegas Briski, semakin menonjol di bidang open source. “Tahun ini saja, kami memiliki kontribusi dan repositori terbanyak di HuggingFace,” katanya kepada saya.
Jelas bagi saya dari percakapan kami bahwa Nvidia melihat peluang untuk tidak hanya meningkatkan penggunaan perusahaan, sehingga mendorong penjualan chip, tetapi juga untuk meraih kepemimpinan dalam pengembangan AI sumber terbuka.
Bagaimanapun, bidang ini sepertinya akan kehilangan salah satu bintang terbesarnya dalam beberapa tahun terakhir, Meta Platforms.
Juga: 3 cara Meta Llama 3.1 adalah kemajuan untuk Gen AI
Ketika Meta, pemilik Facebook, Instagram, dan WhatsApp, pertama kali meluncurkan teknologi sumber terbuka Llama gen AI pada bulan Februari 2023, hal ini merupakan peristiwa penting: model yang cepat dan mumpuni dengan beberapa kode yang tersedia bagi para peneliti, dibandingkan dengan model “sumber tertutup” milik OpenAI, Google, dan lainnya.
Llama dengan cepat mendominasi perhatian pengembang dalam teknologi sumber terbuka ketika Meta meluncurkan inovasi baru pada tahun 2024 dan meningkatkan teknologi untuk bersaing dengan model batas kepemilikan terbaik dari OpenAI dan lainnya.
Namun tahun 2025 berbeda. Peluncuran Llama generasi keempat oleh perusahaan, pada bulan April, disambut dengan ulasan biasa-biasa saja dan bahkan kontroversi tentang bagaimana Meta mengembangkan program tersebut.
Saat ini, model Llama tidak muncul dalam 100 model teratas di LMSYS yang populer Papan Peringkat LMArenayang didominasi oleh model berpemilik Gemini dari Google, Grok xAI, Claude Anthropic, GPT-5.2 OpenAI, dan model sumber terbuka seperti DeepSeek AI, model Qwen Alibaba, dan model Kimi K2 yang dikembangkan oleh Moonshot AI yang berbasis di Singapura.
Juga: Saat Google dan OpenAI berjuang untuk mendominasi model, Anthropic diam-diam memenangkan perlombaan AI perusahaan
Grafik dari perusahaan pihak ketiga Analisis Buatan menunjukkan peringkat serupa. Sementara itu, laporan “State of Generative AI” baru-baru ini dari pemodal ventura Menlo Ventures menyalahkan Llama karena membantu mengurangi penggunaan sumber terbuka di perusahaan.
“Stagnasi model ini – termasuk tidak adanya rilis besar baru sejak rilis Llama 4 pada bulan April – telah berkontribusi pada penurunan pangsa sumber terbuka perusahaan secara keseluruhan dari 19% tahun lalu menjadi 11% saat ini,” tulis mereka.
Apakah Meta tutup?
Skor di papan peringkat bisa datang dan pergi, namun setelah perombakan besar-besaran pada tim AI-nya tahun ini, Meta tampaknya tidak lagi terlalu menekankan pada open source.
Sebuah proyek Meta yang akan datang diberi nama kode Avocado, tulis Bloomberg reporter Kurt Wagner dan Riley Griffin minggu lalu“dapat diluncurkan sebagai model ‘tertutup’ — model yang dapat dikontrol secara ketat dan Meta dapat menjual aksesnya,” menurut sumber mereka yang tidak disebutkan namanya.
Peralihan ke model tertutup “akan menandai perubahan terbesar hingga saat ini dari strategi sumber terbuka yang telah digembar-gemborkan Meta selama bertahun-tahun,” tulis mereka.
Selain itu: Saya menguji GPT-5.2 dan hasil model AI yang beragam menimbulkan pertanyaan sulit
Chief AI Officer Meta, Alexandr Wang, dilantik tahun ini setelah Meta berinvestasi di perusahaan sebelumnya, Scale AI, “adalah pendukung model tertutup,” kata Wagner dan Griffin. (Sebuah artikel di akhir pekan oleh Eli Tan dari Waktu New York menyarankan bahwa ada ketegangan antara Wang dan berbagai pemimpin produk untuk Instagram dan iklan di dalam Meta.)
Ketika saya bertanya kepada Briski tentang klaim Menlo Ventures bahwa open source sedang mengalami kesulitan, dia menjawab, “Saya setuju dengan penurunan Llama, namun saya tidak setuju dengan penurunan open source.”
Briski menambahkan, “Model Qwen dari Alibaba sangat populer, DeepSeek sangat populer — Saya tahu banyak sekali perusahaan yang menyempurnakan dan menerapkan DeepSeek.”
Berfokus pada tantangan perusahaan
Meskipun Llama mungkin telah memudar, memang benar bahwa keluarga Nemotron milik Nvidia sendiri belum mencapai puncak papan peringkat. Faktanya, rangkaian model tertinggal dari DeepSeek, Kimi, dan Qwen, serta penawaran lainnya yang semakin populer.
Juga: Gemini vs. Copilot: Saya menguji alat AI pada 7 tugas sehari-hari, dan hasilnya bahkan tidak mendekati
Namun Nvidia yakin hal ini dapat mengatasi banyak masalah yang khususnya mengganggu penerapan di perusahaan.
Salah satu fokus perusahaan adalah “mengoptimalkan biaya,” dengan memadukan model sumber tertutup dan sumber terbuka, kata Briski. “Satu model tidak membuat aplikasi AI, jadi ada kombinasi model frontier dan kemudian dapat mengoptimalkan biaya dengan model terbuka, dan bagaimana cara mengarahkan ke model yang tepat.”
Fokus pada pemilihan model, dari Nano hingga Ultra, diharapkan dapat memenuhi kebutuhan akan cakupan kebutuhan tugas yang luas.
Tantangan kedua adalah “mengkhususkan” model AI untuk berbagai tugas di perusahaan, mulai dari keamanan siber hingga otomatisasi desain elektronik dan layanan kesehatan, kata Briski.
“Saat kita melintasi semua vertikal ini, model frontier benar-benar hebat, dan Anda dapat mengirimkan beberapa data ke mereka, namun Anda tidak ingin mengirimkan semua data Anda ke mereka,” pengamatannya. Teknologi sumber terbuka, yang dijalankan “on-premise,” sangat penting, katanya, “untuk benar-benar membantu para ahli di bidangnya untuk mengkhususkan mereka pada tahap terakhir.”
Juga: Dapatkan berita Anda dari AI? Hati-hati – itu salah hampir separuh waktu
Tantangan ketiga adalah melonjaknya biaya token, keluaran teks, gambar, suara, dan bentuk data lainnya, yang dihasilkan sepotong demi sepotong ketika model langsung membuat prediksi.
“Permintaan token dari semua model yang digunakan sedang meningkat,” kata Briski, terutama dengan model “berpikir panjang” atau “bernalar” yang menghasilkan keluaran yang panjang.
“Saat ini tahun lalu, setiap permintaan mungkin memerlukan 10 panggilan LLM,” kata Briski. “Pada bulan Januari, kami melihat setiap kueri menghasilkan sekitar 50 panggilan LLM, dan sekarang, ketika orang-orang mengajukan pertanyaan yang lebih kompleks, ada 100 panggilan LLM untuk setiap kueri.”
Keuntungan ‘terpendam’
Untuk menyeimbangkan tuntutan, seperti akurasi, efisiensi, dan biaya, model Nemotron 3 menyempurnakan pendekatan populer yang digunakan untuk mengontrol biaya model yang disebut “campuran ahli (MOE),” di mana model dapat menghidupkan dan mematikan kelompok bobot jaringan saraf agar berjalan dengan upaya komputasi yang lebih sedikit.
Pendekatan baru, yang disebut “campuran ahli laten”, yang digunakan dalam model Super dan Ultra, memampatkan memori yang digunakan untuk menyimpan data dalam bobot model, sementara beberapa jaringan saraf “ahli” menggunakan data tersebut.
Juga: Muak dengan AI dalam hasil pencarian Anda? Coba 8 alternatif Google ini
“Kami mendapatkan penggunaan memori empat kali lebih baik dengan mengurangi cache KV,” dibandingkan dengan Nemotron sebelumnya, kata Briski, mengacu pada bagian dari model bahasa besar yang menyimpan hasil pencarian terkini yang paling relevan sebagai respons terhadap permintaan.
MOE laten yang lebih efisien harus memberikan akurasi yang lebih besar dengan biaya lebih rendah sambil menjaga latensi, seberapa cepat token pertama kembali ke pengguna, dan bandwidth, jumlah token yang dikirimkan per detik.
Dalam data yang disediakan oleh Analisis Buatan, kata Briski, Nemotron 3 Nano melampaui model teratas, GPT-OSS OpenAI, dalam hal akurasi keluaran dan jumlah token yang dihasilkan setiap detik.
Sumber datanya bersifat terbuka
Kekhawatiran besar lainnya bagi perusahaan adalah data yang dimasukkan ke dalam model, dan Briski mengatakan perusahaannya bertujuan untuk lebih transparan dengan pendekatan sumber terbukanya.
“Banyak pelanggan perusahaan kami tidak dapat menerapkan beberapa model, atau mereka tidak dapat membangun bisnis mereka berdasarkan model yang mereka tidak tahu apa kode sumbernya,” katanya, termasuk data pelatihan.
Rilis Nemotron 3 di HuggingFace tidak hanya mencakup bobot model tetapi juga triliunan token data pelatihan yang digunakan oleh Nvidia untuk pra-pelatihan, pasca-pelatihan, dan pembelajaran penguatan. Terdapat kumpulan data terpisah untuk “keamanan agen”, yang menurut perusahaan akan menyediakan “telemetri dunia nyata untuk membantu tim mengevaluasi dan memperkuat keamanan sistem agen yang kompleks.”
“Jika Anda mempertimbangkan kumpulan data, kode sumber, semua yang kami gunakan untuk melatih adalah terbuka,” kata Briski. “Secara harfiah, setiap bagian data yang kami gunakan untuk melatih model, akan kami rilis.”
Juga: Meta inci menuju AI open source dengan Llama 3.1 baru
Tim Meta belum begitu terbuka, katanya. “Llama tidak merilis kumpulan datanya sama sekali; mereka merilis bobotnya,” kata Briski kepada saya. Ketika Nvidia bermitra dengan Meta tahun lalu, katanya, untuk mengubah model Llama 3.1 menjadi model Nemotron yang lebih kecil, melalui pendekatan populer yang dikenal sebagai “distilasi”, Meta menahan sumber daya dari Nvidia.
“Bahkan dengan kami sebagai mitra yang hebat, mereka bahkan tidak akan merilis sedikit pun kumpulan data untuk membantu menyaring model tersebut,” katanya. “Itu adalah resep yang harus kami buat sendiri.”
Penekanan Nvidia pada transparansi data dapat membantu membalikkan tren yang mengkhawatirkan menuju berkurangnya transparansi. Para sarjana di MIT baru-baru ini melakukan studi luas tentang repositori kode di HuggingFace. Mereka menceritakan bahwa postingan yang benar-benar bersumber terbuka sedang mengalami penurunan, dengan alasan “penurunan yang jelas dalam ketersediaan dan pengungkapan data pelatihan model.”
Seperti yang diungkapkan oleh penulis utama Shayne Longpr dan timnya, “Inisiatif Open Source mendefinisikan model AI open source sebagai model yang memiliki bobot model terbuka, namun juga ‘informasi yang cukup mendetail tentang model tersebut. [training] data’,” menambahkan, “Tanpa pengungkapan data pelatihan, model yang dirilis dianggap ‘bobot terbuka’ dan bukan ‘sumber terbuka’.”
Apa yang dipertaruhkan untuk Nvidia, Meta
Jelas Nvidia dan Meta memiliki prioritas berbeda. Meta perlu mendapatkan keuntungan dari AI untuk meyakinkan Wall Street tentang rencana pengeluaran ratusan miliar dolar untuk membangun pusat data AI.
Nvidia, perusahaan terbesar di dunia, perlu memastikan para pengembang tetap terhubung dengan platform chipnya, yang menghasilkan sebagian besar pendapatannya.
Juga: Instansi pemerintah AS sekarang dapat menggunakan Llama Meta – inilah maksudnya
CEO Meta Mark Zuckerberg berpendapat bahwa Llama masih penting, dan mengatakan kepada analis Wall Street pada bulan Oktober, “Seiring dengan peningkatan kualitas model, terutama untuk Llama 4 pasca-pelatihan, pada titik ini, kami terus melihat peningkatan dalam penggunaan.”
Namun, dia juga menekankan untuk bergerak lebih dari sekedar memiliki LLM yang populer dengan arah baru yang akan diambil oleh Meta Superintelligence Labs (MSL) yang baru dibentuknya.
“Jadi, pandangan kami adalah ketika kami mendapatkan model-model baru yang kami buat di MSL di sana, dan mendapatkan, seperti, model-model yang benar-benar terdepan dengan kemampuan baru yang tidak Anda miliki di tempat lain, maka saya pikir ini hanyalah peluang laten yang sangat besar.”
Sedangkan untuk Nvidia, “Model bahasa besar dan AI generatif adalah cara Anda merancang perangkat lunak masa depan,” kata Briski kepada saya. “Ini adalah platform pengembangan baru.”
Dukungan adalah kuncinya, katanya, dan, dalam hal yang bisa dianggap sebagai sebuah cercaan atas sikap keras kepala Zuckerberg, yang meskipun tidak dimaksudkan seperti itu, Briski mengutip kata-kata pendiri dan CEO Nvidia Jensen Huang: “Seperti yang dikatakan Jensen, kami akan mendukungnya selama kami masih hidup.”












