Nvidia, AI ajanları için beş kat hız artışı sağlayan açık bir LLM olan Nemotron 3 Super 120B’yi tanıttı
Yeni Nvidia modeli – Nemotron 3 Super
Nvidia, Mixture‑of‑Experts (MoE) tipi açık yapay zeka modelini tanıttı: Nemotron 3 Super.
* 120 milyar genel parametre, bunlardan 12 milyar aktif.
* Birden fazla “ajan”ın birbirleriyle ve dış dünya ile etkileşime girdiği ajanslı AI sistemleri için tasarlanmıştır.
Mimari
Model, Mamba‑Transformer (Mamba katmanları ve Transformer öğelerinin birleşimi) hibrit yaklaşımını kullanır.
Nemotron 3 Super’de ilk kez LatentMoE paradigması, Multi‑Token Prediction katmanları ve NVFP4 protokolüne göre ön eğitim uygulanmıştır. Nvidia’ya göre bu yığın doğruluğu artırır ve çıkarımı hızlandırır.
Performans
* İşlem hızı – önceki Nemotron Super sürümünden 5× daha hızlı.
* Doğruluk – 2× daha yüksek.
* 1 milyon tokenlik bağlam penceresi desteği, ajanın çalışma sürecinin tam durumunu saklamasını sağlar ve hedeften sapma riskini azaltır.
Pratik uygulama
Nemotron 3 Super, çok ajanlı sistemler içinde karmaşık görevler için uygundur:
| Görev | Kullanım Örneği |
|---|---|
| Kod üretimi ve hata ayıklaması | Belgeleri bölmeden kod üretme ve hata ayıklama |
| Büyük programların otomatik yazımı ve kontrolü | Otomatik büyük program yazma ve doğrulama |
| Finansal analiz | Binlerce sayfalık raporları modelin belleğine dahil etme |
Eğitim
Model, mantıksal düşünce modelleriyle oluşturulan sentetik verilerle eğitildi. Nvidia tam metodolojiyi açıklıyor:
* Eğitim öncesi ve sonrası 10 trilyon tokenden fazla;
* Ödüllü öğrenme için 15 ortam;
* Değerlendirme tarifleri.
Araştırmacılar, kendi modellerini ayarlamak veya oluşturmak için Nvidia NeMo platformunu kullanabilirler.
Teknik detaylar
* NVFP4 desteği, Nvidia Blackwell mimarisinde.
* Bellek gereksinimlerini azaltır ve FP8’e göre dört kat daha hızlı çıkarım sağlar; Nvidia Hopper’da doğruluk kaybı yoktur.
Erişilebilirlik
Model şu anda mevcuttur:
* build.nvidia.com, Hugging Face, OpenRouter ve Perplexity üzerinden.
* Bulut ortakları: Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI, Modal.
* Nvidia NIM mikroservisi olarak, modeli yerel veya bulutta dağıtma imkanı sunar.
Nemotron 3 Super, yüksek doğruluk, ölçeklenebilirlik ve özelleştirilebilir esneklikle ajanslı AI için yeni olanaklar açıyor.
Yorumlar (0)
Düşüncenizi paylaşın — lütfen kibar olun ve konu dışına çıkmayın.
Yorum yapmak için giriş yapın