Microsoft, internet üzerindeki deepfake yayılmasını durdurmak için bir çözüm sunuyor
Microsoft, çevrimiçi içeriğin doğruluğunu test etmek için yeni bir standart seti başlatıyor
Microsoft, internette ortaya çıkan materyallerin gerçekliğini değerlendirmek için “tekniği standartlar” oluşturduğunu duyurdu. Amaç, AI geliştiricilerine ve sosyal platformlara görüntülerin veya videoların dijital araçlarla (örneğin deepfake) değiştirilip değiştirilmediğini ve bunları belgeleme yöntemlerinin ne kadar güvenilir olduğunu belirlemelerine yardımcı olmaktır.
Doğrulama sistemi nasıl çalışır
* Rembrandt tablosu örneği
- Ayrıntılı bir köken günlüğü oluşturulur: depolama yerleri, önceki sahipler.
- Tablo taranır ve fırça darbelerinden matematiksel bir imza – “dijital parmak izi” üretilir.
- Müze ziyaretçisi bu verilere erişebilir ve orijinalliği doğrulayabilir.
* Yöntemler zaten uygulanıyor
Microsoft, mevcut tekniklerin (metadatanın silinmesi, küçük değişiklikler, hedefli manipülasyon) 60 kombinasyonunu araştırdı. Her model için farklı senaryolarda davranış simüle edildi.
Araştırmacılar buldu:
- Güvenilir kombinasyonlar – geniş kitlelere gösterilebilir.
- Güvensiz kombinasyonlar – durumu yalnızca karmaşıklaştırarak daha fazla karışıklığa yol açabilir.
Neden önemli
* Yasal düzenlemeler AI şeffaflığını talep ediyor (örneğin Kaliforniya’da “AI Şeffaflık Yasası”).
* Microsoft henüz bu standartları Copilot, Azure, OpenAI ve LinkedIn gibi hizmetlerinde kullanıp kullanmayacağını açıklamadı.
Standartlar içeriğin doğruluğunu belirlemez; yalnızca materyalin manipüle edilip edilmediğini ve nereden geldiğini gösterir. Sektör bunları benimserse, yanıltıcı içerik üretimi önemli ölçüde zorlaşır.
Sektör durumu
ŞirketİşlemDurumMicrosoftC2PA (2021) – köken takibi Yeni araçların geliştirilmesiGoogle AI‑üretimli içeriğe su işareti (2023’den beri) Aktif olarak uygulanıyor
Ancak Microsoft’un tam aracı seti, pazar katılımcıları iş modellerine tehdit gördüğünde yalnızca “proje” kalabilir.
Mevcut çözümlerin etkinliği
* Araştırma, Instagram, LinkedIn, Pinterest, TikTok ve YouTube’da sadece %30’luk bir payın AI tarafından oluşturulduğunu doğru şekilde etiketlediğini gösterdi.
* Hızlı doğrulama araçlarının dağıtımı risklidir: hatalar kullanıcı güvenini sarsabilir.
Kapsamlı doğrulama mekanizmaları tercih edilir. Örneğin, güvenilir bir görüntü üzerinde küçük bir AI düzenlemesi yapıldığında platform yanlışlıkla tamamen oluşturulmuş olarak sınıflandırabilir. Entegre yaklaşım, sahte pozitif sonuçların olasılığını azaltır.
Sonuç
Microsoft, dijital manipülasyonu tespit etmek için yapılandırılmış standartlar sunuyor. Bu araçlar çevrimiçi materyallerin şeffaflığını ve güvenini artırmayı hedefler, ancak başarısı sektörün benimsemesine ve entegre doğrulamaların güvenilirliğine bağlıdır.
Yorumlar (0)
Düşüncenizi paylaşın — lütfen kibar olun ve konu dışına çıkmayın.
Yorum yapmak için giriş yapın