Bilimsel Çalışma Ortaya Koydu: Yapay Zeka Sağlıkta Güvenilir mi?

Popüler yapay zeka araçlarının sağlık alanındaki güvenilirliği yeniden tartışma konusu oldu. BMJ Open dergisinde yayımlanan yeni bir araştırma, yaygın kullanılan sohbet botlarının tıbbi sorulara verdiği yanıtların önemli bir bölümünde hata, eksiklik ve tutarsızlık bulunduğunu ortaya koydu.

Yanıtların Büyük Bölümü Sorunlu

Yedi araştırmacı tarafından yürütülen çalışmada; ChatGPT, Gemini, Grok, Meta AI ve DeepSeek gibi önde gelen yapay zeka sohbet botları test edildi.

Kanser, aşılar, kök hücreler, beslenme ve atletik performans gibi konuları kapsayan toplam 250 soruya verilen yanıtlar iki uzman tarafından değerlendirildi. Bulgulara göre:

  • Yanıtların yaklaşık %20’si ciddi derecede sorunlu
  • Yaklaşık %50’si sorunlu
  • %30’u ise kısmen sorunlu

olarak sınıflandırıldı. Ayrıca hiçbir sohbet botu, tamamen güvenilir ve eksiksiz bir kaynakça sunamadı.

Referanslar Güvenilir Değil

Araştırmada, yapay zekalardan bilimsel referans göstermeleri istendiğinde kaynakların doğruluk oranının oldukça düşük olduğu görüldü. Eksik bilgiler, hatalı yazar isimleri, bozuk bağlantılar ve hatta tamamen uydurulmuş makaleler dikkat çekti.

Uzmanlara göre bu durum özellikle riskli, çünkü düzenli görünen kaynakçalar kullanıcıda yanlış bir güven hissi oluşturabiliyor.

En Çok Hata Açık Uçlu Sorularda

Çalışma, hata oranlarının soru tipine göre değiştiğini de ortaya koydu. Açık uçlu sorularda ciddi hata oranı %32’ye kadar çıkarken, kapalı uçlu sorularda bu oran %7 seviyesinde kaldı.

Bu bulgu önemli; çünkü kullanıcılar gerçek hayatta genellikle “En iyi takviyeler hangileri?” gibi açık uçlu sorular yöneltiyor.

Sorunun Temeli: Yapay Zeka “Bilmez”

Araştırmacılara göre sohbet botlarının hata yapmasının temel nedeni, bu sistemlerin bilgi “bilmemesi”. Büyük dil modelleri, doğruluğu teyit etmek yerine en olası kelime dizisini üretir.

Eğitim verileri; bilimsel makalelerin yanı sıra forumlar, bloglar ve sosyal medya içeriklerini de içerdiği için, yanlış veya çelişkili bilgiler de yanıtların içine karışabiliyor.

Diğer Araştırmalar da Benzer Sonuçlar Veriyor

Nature Medicine dergisinde yayımlanan bir çalışma, yapay zekaların doğru yanıt verme oranının yüksek olmasına rağmen kullanıcıların bu bilgiyi doğru yorumlama oranının %35’in altında kaldığını ortaya koydu.

JAMA Network Open ise yapay zekaların sınırlı veriyle doğru tanı üretmede zorlandığını, detaylı klinik veriler eklendiğinde performansın ciddi şekilde arttığını gösterdi.

Ayrıca Nature Communications Medicine’da yayımlanan bir araştırma, sohbet botlarının uydurma tıbbi terimleri bile sorgulamadan kabul edebildiğini ortaya koydu.

Uzmanlardan Uyarı: Tek Başına Güvenilir Kaynak Değil

Uzmanlar, yapay zeka araçlarının tamamen göz ardı edilmemesi gerektiğini, ancak tek başına bir “tıbbi otorite” olarak görülmesinin riskli olduğunu vurguluyor.

Sohbet botlarının; bilgiye hızlı erişim, konuları özetleme ve doktora yöneltilecek soruları hazırlama gibi alanlarda faydalı olabileceği belirtilirken, sağlıkla ilgili kritik kararların mutlaka uzman görüşüyle desteklenmesi gerektiği ifade ediliyor.

Haber Kaynak-Fotoğraf Kaynakhttps://gazeteoksijen.com/bilim-ve-teknoloji/yeni-arastirma-populer-yapay-zeka-araclari-tehlikeli-ve-hatali-tibbi-tavsiyeler-veriyor-272935

Haber Giriş: 21.04.2026 16:58

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir