Popüler yapay zeka araçlarının sağlık alanındaki güvenilirliği yeniden tartışma konusu oldu. BMJ Open dergisinde yayımlanan yeni bir araştırma, yaygın kullanılan sohbet botlarının tıbbi sorulara verdiği yanıtların önemli bir bölümünde hata, eksiklik ve tutarsızlık bulunduğunu ortaya koydu.
Yanıtların Büyük Bölümü Sorunlu
Yedi araştırmacı tarafından yürütülen çalışmada; ChatGPT, Gemini, Grok, Meta AI ve DeepSeek gibi önde gelen yapay zeka sohbet botları test edildi.
Kanser, aşılar, kök hücreler, beslenme ve atletik performans gibi konuları kapsayan toplam 250 soruya verilen yanıtlar iki uzman tarafından değerlendirildi. Bulgulara göre:
- Yanıtların yaklaşık %20’si ciddi derecede sorunlu
- Yaklaşık %50’si sorunlu
- %30’u ise kısmen sorunlu
olarak sınıflandırıldı. Ayrıca hiçbir sohbet botu, tamamen güvenilir ve eksiksiz bir kaynakça sunamadı.
Referanslar Güvenilir Değil
Araştırmada, yapay zekalardan bilimsel referans göstermeleri istendiğinde kaynakların doğruluk oranının oldukça düşük olduğu görüldü. Eksik bilgiler, hatalı yazar isimleri, bozuk bağlantılar ve hatta tamamen uydurulmuş makaleler dikkat çekti.
Uzmanlara göre bu durum özellikle riskli, çünkü düzenli görünen kaynakçalar kullanıcıda yanlış bir güven hissi oluşturabiliyor.
En Çok Hata Açık Uçlu Sorularda
Çalışma, hata oranlarının soru tipine göre değiştiğini de ortaya koydu. Açık uçlu sorularda ciddi hata oranı %32’ye kadar çıkarken, kapalı uçlu sorularda bu oran %7 seviyesinde kaldı.
Bu bulgu önemli; çünkü kullanıcılar gerçek hayatta genellikle “En iyi takviyeler hangileri?” gibi açık uçlu sorular yöneltiyor.
Sorunun Temeli: Yapay Zeka “Bilmez”
Araştırmacılara göre sohbet botlarının hata yapmasının temel nedeni, bu sistemlerin bilgi “bilmemesi”. Büyük dil modelleri, doğruluğu teyit etmek yerine en olası kelime dizisini üretir.
Eğitim verileri; bilimsel makalelerin yanı sıra forumlar, bloglar ve sosyal medya içeriklerini de içerdiği için, yanlış veya çelişkili bilgiler de yanıtların içine karışabiliyor.
Diğer Araştırmalar da Benzer Sonuçlar Veriyor
Nature Medicine dergisinde yayımlanan bir çalışma, yapay zekaların doğru yanıt verme oranının yüksek olmasına rağmen kullanıcıların bu bilgiyi doğru yorumlama oranının %35’in altında kaldığını ortaya koydu.
JAMA Network Open ise yapay zekaların sınırlı veriyle doğru tanı üretmede zorlandığını, detaylı klinik veriler eklendiğinde performansın ciddi şekilde arttığını gösterdi.
Ayrıca Nature Communications Medicine’da yayımlanan bir araştırma, sohbet botlarının uydurma tıbbi terimleri bile sorgulamadan kabul edebildiğini ortaya koydu.
Uzmanlardan Uyarı: Tek Başına Güvenilir Kaynak Değil
Uzmanlar, yapay zeka araçlarının tamamen göz ardı edilmemesi gerektiğini, ancak tek başına bir “tıbbi otorite” olarak görülmesinin riskli olduğunu vurguluyor.
Sohbet botlarının; bilgiye hızlı erişim, konuları özetleme ve doktora yöneltilecek soruları hazırlama gibi alanlarda faydalı olabileceği belirtilirken, sağlıkla ilgili kritik kararların mutlaka uzman görüşüyle desteklenmesi gerektiği ifade ediliyor.
Haber Kaynak-Fotoğraf Kaynak: https://gazeteoksijen.com/bilim-ve-teknoloji/yeni-arastirma-populer-yapay-zeka-araclari-tehlikeli-ve-hatali-tibbi-tavsiyeler-veriyor-272935
Haber Giriş: 21.04.2026 16:58
