Pentagon, Anthropic ile çalışmayı durdurdu ve Microsoft müşterilere erişim sağlamaya devam edecek.
Kısa haber özetleri:
Olayın ardından ABD Savunma Bakanlığı (Ministry of War) – “konuya geçti”
Bu hafta, Anthropic artık güvenilir bir yapay zeka tedarikçisi sayılmadığını açıkladı ve tüm müteahhitlerin bu girişimle çalışma hakkını ortadan kaldırdı.
Microsoft ve müşterileri
Microsoft hukukçuları yasaları inceledi ve şu sonuca vardılar: kendi kullanıcıları Anthropic modellerini şirket yazılımıyla kullanmaya devam edebilirler.
ABD Savunma sektörü
Bazı firmalar, çalışanlarını Anthropic çözümlerinden vazgeçip alternatif yapay zeka platformlarına yönelmeye zorladı. Yasal olarak bu süre altı ay olabilirdi, ancak kamu görevlileri için iptal hemen geçerli olmalıydı.
Microsoft’un tutumu
1) Savunma Bakanlığı çalışanları, Microsoft çözümleriyle (Claude sohbet botu dahil) Anthropic ürünlerini kullanamazlar.
2) Microsoft müşterilerinin savunmayla ilgili olmayan işleri varsa, Microsoft 365, GitHub ve AI Foundry’de Anthropic’i özgürce kullanabilirler.
Uygulamada nasıl işliyor
- Geçen sonbahar entegrasyonu
Microsoft, Anthropic çözümlerini servislerine entegre etmeye başladı ancak OpenAI ile ilişkisini sürdürdü – uzun süredir şirkette önemli sermaye tutan yatırımcı.
- GitHub Copilot AI
Geliştiriciler Claude’u GitHub Copilot AI üzerinden kullanabilir ve aynı zamanda OpenAI’nin Codex’ine erişebilirler. Bu sayede platformlar arasında diledikleri gibi geçiş yapabilirler.
- Microsoft 365 Copilot (Ekim’den itibaren)
Microsoft 365 müşterileri, Ekim ayının başından beri savunma ile ilgili olmayan faaliyetleri için Copilot içinde Anthropic ve OpenAI çözümleri arasında sınırsız seçim yapabiliyorlar.
Sonuç: ABD Savunma Bakanlığı Anthropic’i güvenilir yapay zeka tedarikçileri listesinden çıkardı, ancak Microsoft müşterilerine bu modelleri kendi servisleri aracılığıyla sunmaya devam ediyor; yalnızca askeri görevlerle ilgili olmadıkça geçerlidir. Aynı zamanda bakanlık çalışanları Anthropic ürünlerini derhal kullanmaktan vazgeçmek zorundadır.
Yorumlar (0)
Düşüncenizi paylaşın — lütfen kibar olun ve konu dışına çıkmayın.
Yorum yapmak için giriş yapın