Araştırma: Yapay Zeka, Sosyal Medyadaki Tıbbi Yanlış Bilgileri Ayırt Etmekte Zorlanıyor
Sağlıkla ilgili paylaşımların büyük ölçüde sosyal medyaya taşındığı bu dönemde yeni bir araştırma yapay zeka sistemlerinin tıbbi yanlış bilgileri ayırt etmekte zorlanabildiğini ortaya koydu. Bulgular özellikle ikna edici bir dille sunulan hatalı bilgilerin yapay zeka tarafından sorgulanmadan kabul edilebildiğine dikkat çekiyor.
Sağlıkla ilgili soruların ve deneyim paylaşımlarının büyük ölçüde sosyal medyaya taşındığı bir dönemde, yapay zeka sistemlerinin bu alandaki güvenilirliği yeniden tartışma konusu oldu.

Yeni bir akademik çalışma, büyük dil modellerinin (LLM) tıbbi yanlış bilgileri, yeterince “ikna edici” bir dille sunulduğunda gerçek sanabildiğini ortaya koyuyor.
The Lancet Digital Health dergisinde yayımlanan araştırmada, aralarında OpenAI’nin ChatGPT’si, Meta’nın Llama modeli ve Google’ın Gemma’sının da bulunduğu 20 farklı büyük dil modeli test edildi. Çalışma, Mount Sinai Health System bünyesindeki araştırmacılar tarafından yürütüldü.
Araştırmacılar modellere gerçek hastane notlarını andıran metinlere gizlenmiş yanlış bilgiler, sosyal medya kökenli sağlık mitleri ve simüle edilmiş hasta senaryoları sundu.
Modeller, uydurulmuş tıbbi iddiaların ortalama yüzde 32’sini doğru kabul etti. Daha küçük ve az gelişmiş modellerde bu oran yüzde 60’ların üzerine çıkarken, daha güçlü sistemlerde hata oranı belirgin biçimde düşse de tamamen ortadan kalkmadı.
Çalışmanın dikkat çeken bir diğer bulgusu ise, “tıbbi olarak ince ayarlanmış” modellerin, genel amaçlı modellere kıyasla her zaman daha iyi performans göstermemesi oldu. Araştırmacılara göre sorun, bilginin doğruluğundan çok nasıl ifade edildiği ile ilgili. Kendinden emin, teknik ve otoriter bir dil kullanıldığında yanlış bir iddia bile model tarafından sorgulanmadan kabul edilebiliyor.
Bu durumun pratikte ciddi riskler doğurabileceği vurgulanıyor.

Çalışmada; bazı modellerin, hamilelikte yaygın bir ağrı kesicinin otizme yol açtığı, belirli gıdaların reçeteli ilaçlar kadar etkili olduğu ya da masum görünen ev içi “çözümlerin” tedavi yerine geçebileceği gibi bilimsel dayanağı olmayan iddiaları sorunlu görmeden yanıtlarına yansıttığı örnekler yer aldı.
Araştırmacılar, yapay zekanın sağlık alanında tamamen dışlanması gerektiğini savunmuyor. Aksine, bu sistemlerin klinisyenler ve hastalar için hızlı bilgiye erişim ve destek açısından büyük potansiyel taşıdığı belirtiliyor. Ancak bunun için, modellerin sağlık alanına entegre edilmeden önce yoğun stres testlerinden geçirilmesi, yanlış bilgiyi ne sıklıkla aktardıklarının ölçülmesi ve bağımsız doğrulama mekanizmalarıyla desteklenmesi gerektiği vurgulanıyor.
Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!





Yorum Yazın