onedio
article/comments
article/share
Haberler
ChatGPT Neden Hiç "Bilmiyorum" Demiyor? OpenAI Sebebini Açıkladı

ChatGPT Neden Hiç "Bilmiyorum" Demiyor? OpenAI Sebebini Açıkladı

Yapay zeka sohbet botları, özellikle ChatGPT, zaman zaman “halüsinasyon” olarak adlandırılan yanlış bilgiler üretebiliyor. Yeni araştırmalar, bunun temel sebebinin, sistemlerin bilmediklerinde sessiz kalmak yerine tahmin yapmaya yönlendirilmesi olduğunu gösteriyor.

Independent’ın haberine göre, yapay zekada “halüsinasyon” giderek büyüyen bir endişe haline geldi. Modeller akıcı konuşsa da yanlış bilgileri yüksek bir güvenle sunabiliyor. Teknoloji ne kadar ilerlese de, bu sorun en yeni sistemlerde de sürüyor. Uzmanlar, özellikle tıp ve hukuk gibi kritik alanlarda yapay zekanın kullanımının artmasıyla, halüsinasyon sorununa karşı daha kapsamlı araştırma ve önlem çağrısı yapıyor.

Kaynak - Oksijen

İçeriğin Devamı Aşağıda chevron-right-grey
Reklam

ChatGPT neden halüsinasyon görüyor?

ChatGPT neden halüsinasyon görüyor?

OpenAI’ye göre, yapay zekada halüsinasyonların temel nedeni algoritmaların yanlış yönlendirilmesi. Araştırmacılar, “Çoğu değerlendirme, modelin belirsizlik karşısında dürüst olmasını değil, tahmin yapmasını teşvik ediyor” diyor.

Bunu bir sınav örneğiyle açıklayan araştırmacılar, “Bir öğrenci, boş bırakırsa puan kaybedeceği bir testte bilmediği sorularda rastgele tahmin yapar. Benzer şekilde, modeller yalnızca doğru cevap sayısına göre değerlendirildiğinde, ‘bilmiyorum’ demek yerine tahmin etmeyi öğreniyor” ifadelerini kullanıyor.

Halüsinasyon olasılığı hayli yüksek.

Halüsinasyon olasılığı hayli yüksek.

ChatGPT, Gemini ve Meta AI gibi yapay zeka modelleri, büyük metin bloklarında bir sonraki kelimeyi tahmin ederek öğreniyor. Ancak kullanılan metinler bazen rastgele veya tutarsız örüntüler içerebiliyor. Halüsinasyonlar, özellikle bilgi eksikliği, çelişki veya belirsizlik içeren sorularda daha sık ortaya çıkıyor; modeller bu durumlarda cevabı bilmeseler bile stratejik tahminler yapıyor. Araştırmaya göre, “Bu stratejik tahminler zamanla doğruluğu artırabilir, ancak aynı zamanda hata ve halüsinasyon oranlarını da yükseltir.”

Bunun bir çözümü var mı?

Bunun bir çözümü var mı?

OpenAI ekibi, halüsinasyon sorununu azaltmak için doğru teşvik sistemlerinin geliştirilmesinin kritik olduğunu vurguluyor. Araştırmacılar, modellerin “emin olduğu yanlış cevapları” daha fazla cezalandırırken, belirsizlik içeren yanıtlar için kısmi puan verilmesini öneriyor. Bu yöntem, yanlış yanıtlara eksi puan verilen veya boş bırakılan sorular için kısmi kredi tanıyan standart sınav sistemlerine benzetiliyor.

Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!

category/test-white Test
category/gundem-white Gündem
category/magazin-white Magazin
category/video-white Video
Yorumlar ve Emojiler Aşağıda chevron-right-grey
Reklam
Sosyoloji bölümünden mezun olarak uzun yıllar medya alanında çalıştım. 11 yıl spor kulüplerinde medya yöneticiliği yaptım. Ankara' da yerel gazetelerdeki editörlük deneyiminin ardından Onedio'da Gündem, Spor ve Ekonomi alanında içerikler üretiyorum. Aynı zamanda Ankara Üniversitesi Dil ve Tarih, Coğrafya Fakültesi Tiyatro bölümünde Yazarlık eğitimi alıyorum.
Tüm içerikleri
right-dark
category/eglence BU İÇERİĞE EMOJİYLE TEPKİ VER!
2
1
1
1
0
0
0
Yorumlar Aşağıda chevron-right-grey
Reklam
ONEDİO ÜYELERİ NE DİYOR?
Yorum Yazın