Yapay zeka botları, araştırmada ortaya çıktığı gibi tanılamada yaklaşık %80 hata yapıyor.
Kısa bir araştırma sonucu
Yeni yapılan ve *Jama Network Open*’da yayımlanan, *Financial Times* tarafından atıfta bulunulan bir araştırma, popüler sohbet botlarının sınırlı veri seti verildiğinde tıbbi tanıları doğru şekilde koyamadığını gösterdi. 80 %’den fazla durumda hatalı tanı verdiler ve sadece tam semptom açıklamasıyla doğruluk %90’a yükseldi.
Araştırmanın nasıl yapıldığı
Adım Ne yaptılar Örnek seçimi 29 klinik senaryo kılavuz literatürden. Veri aktarımı Hasta bilgileri sohbet botlarına adım adım aktarıldı: hasta öyküsü → muayene sonuçları → laboratuvar analizleri. AI’ye sorular Tanı hakkında soruldu; yanıtların doğruluğu ve kapsamı ölçüldü.
Deney katılımcıları
* OpenAI, Anthropic, Google, xAI, DeepSeek’in 20 popüler modeli.
* Eksik verilerle %80’den fazla yanlış tanı koydular.
* Bilgi miktarı arttıkça doğruluk yükseldi: en iyi durumlarda >90 %, ortalama hatalar <40 %.
Geliştiricilerin tepkisi
Şirket Yorum Google & Anthropic Sohbet botları tıbbi tavsiye isterken uzmanla görüşmeyi şiddetle öneriyor. OpenAI Kullanım Şartlarında hizmetlerinin lisanslı tıbbi tavsiye için tasarlanmamış olduğunu belirtiyor. xAI & DeepSeek Yorum yapmadı.
Bazıları özel modeller geliştiriyor: Google AMIE adlı modeli oluşturdu, iyi sonuçlar gösteriyor ancak çıktılar yine de canlı bir doktorun onayını gerektiriyor, özellikle görsel değerlendirme önem taşıdığı için.
Sonuç
Sohbet botları yardımcı araç olarak faydalı olabilir, fakat sınırlı bilgiyle sıklıkla hatalıdır. Kalifiye tıbbi uzman yerine geçmeleri şu anda kabul edilemez; ancak geleneksel tıp erişiminin kısıtlı olduğu bölgelerde yararlı olabilir.
Yorumlar (0)
Düşüncenizi paylaşın — lütfen kibar olun ve konu dışına çıkmayın.
Yorum yapmak için giriş yapın