Nvidia, AI ajanları için beş kat hız artışı sağlayan açık bir LLM olan Nemotron 3 Super 120B’yi tanıttı

Nvidia, AI ajanları için beş kat hız artışı sağlayan açık bir LLM olan Nemotron 3 Super 120B’yi tanıttı

11 hardware

Yeni Nvidia modeli – Nemotron 3 Super

Nvidia, Mixture‑of‑Experts (MoE) tipi açık yapay zeka modelini tanıttı: Nemotron 3 Super.

* 120 milyar genel parametre, bunlardan 12 milyar aktif.
* Birden fazla “ajan”ın birbirleriyle ve dış dünya ile etkileşime girdiği ajanslı AI sistemleri için tasarlanmıştır.

Mimari
Model, Mamba‑Transformer (Mamba katmanları ve Transformer öğelerinin birleşimi) hibrit yaklaşımını kullanır.

Nemotron 3 Super’de ilk kez LatentMoE paradigması, Multi‑Token Prediction katmanları ve NVFP4 protokolüne göre ön eğitim uygulanmıştır. Nvidia’ya göre bu yığın doğruluğu artırır ve çıkarımı hızlandırır.

Performans
* İşlem hızı – önceki Nemotron Super sürümünden 5× daha hızlı.
* Doğruluk – 2× daha yüksek.
* 1 milyon tokenlik bağlam penceresi desteği, ajanın çalışma sürecinin tam durumunu saklamasını sağlar ve hedeften sapma riskini azaltır.

Pratik uygulama
Nemotron 3 Super, çok ajanlı sistemler içinde karmaşık görevler için uygundur:

GörevKullanım Örneği
Kod üretimi ve hata ayıklamasıBelgeleri bölmeden kod üretme ve hata ayıklama
Büyük programların otomatik yazımı ve kontrolüOtomatik büyük program yazma ve doğrulama
Finansal analizBinlerce sayfalık raporları modelin belleğine dahil etme

Eğitim
Model, mantıksal düşünce modelleriyle oluşturulan sentetik verilerle eğitildi. Nvidia tam metodolojiyi açıklıyor:

* Eğitim öncesi ve sonrası 10 trilyon tokenden fazla;
* Ödüllü öğrenme için 15 ortam;
* Değerlendirme tarifleri.

Araştırmacılar, kendi modellerini ayarlamak veya oluşturmak için Nvidia NeMo platformunu kullanabilirler.

Teknik detaylar
* NVFP4 desteği, Nvidia Blackwell mimarisinde.
* Bellek gereksinimlerini azaltır ve FP8’e göre dört kat daha hızlı çıkarım sağlar; Nvidia Hopper’da doğruluk kaybı yoktur.

Erişilebilirlik
Model şu anda mevcuttur:

* build.nvidia.com, Hugging Face, OpenRouter ve Perplexity üzerinden.
* Bulut ortakları: Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI, Modal.
* Nvidia NIM mikroservisi olarak, modeli yerel veya bulutta dağıtma imkanı sunar.

Nemotron 3 Super, yüksek doğruluk, ölçeklenebilirlik ve özelleştirilebilir esneklikle ajanslı AI için yeni olanaklar açıyor.

Yorumlar (0)

Düşüncenizi paylaşın — lütfen kibar olun ve konu dışına çıkmayın.

Henüz yorum yok. Yorum bırakın ve düşüncenizi paylaşın!

Yorum bırakmak için lütfen giriş yapın.

Yorum yapmak için giriş yapın