Ollama artık Apple M5 çiplerinde donanım hızlandırmayı destekliyor, eğer 32 GB RAM kuruluysa
Ollama — yerel olarak AI modellerini çalıştırma uygulaması artık Mac M5 çiplerinde daha hızlı
Görünüşe göre yeni sürüm Ollama 0.19
Desteklenen OS'ler: Windows, macOS, Linux
Donanım hızlandırması: Sadece Apple M5 çipleri (M5 Pro, M5 Max)
Bellek gereksinimleri: Minimum 32 GB birleşik RAM
Ne değişti
Ollama, kullanıcıların AI modellerini doğrudan bilgisayarlarında yüklemelerine ve çalıştırmalarına olanak tanır. ChatGPT gibi bulut hizmetlerinin aksine sürekli internet bağlantısı gerekmez.
Sürüm 0.19’dan itibaren geliştiriciler Apple MLX – bir makine öğrenimi çerçevesi, ayrıca birleşik bellek mimarisi (Unified Memory Architecture) desteği ekledi. Bu, yeni Apple M5 çiplerinde modelin çalışma hızını artırır, ilk token süresini kısaltır ve genel üretim hızı yükseltir.
Nasıl çalışır
* Nöral hızlandırıcılar: Ollama, M5 çiplerindeki özel nöral ağ bloklarına erişerek token çıktısını daha hızlı yapar.
* Modeller: Hem kişisel AI ajanları (örneğin OpenClaw) hem de daha büyük sistemler – OpenCode, Anthropic Claude Code, OpenAI Codex vb. daha hızlı çalışır.
Kısıtlamalar
1. Hızlandırma yalnızca Apple M5 çiplerinde (M5 Pro/Max) mevcuttur.
2. Bilgisayarda en az 32 GB birleşik bellek bulunmalıdır; aksi takdirde hızlandırma çalışmaz.
Dolayısıyla, M5 çipi ve yeterli RAM’e sahip bir Mac’iniz varsa, Ollama yerel AI uygulamasının performansını önemli ölçüde artırabilirsiniz.
Yorumlar (0)
Düşüncenizi paylaşın — lütfen kibar olun ve konu dışına çıkmayın.
Yorum yapmak için giriş yapın