Uzmanlar Tehlike Çanlarını Çalıyor: Yapay Zeka Geliştikçe Bencilleşiyor!
ABD’deki Carnegie Mellon Üniversitesi bilim insanlarının yaptığı bir araştırma, yapay zeka sistemlerinin geliştikçe daha bencil davranışlar sergilediğini ortaya koydu. Scitech Daily'de yer alan bulgulara göre, özellikle karar verme ve ilişki yönetimi gibi kritik insani alanlarda yapay zekanın işbirliğinden uzaklaşarak bireysel çıkara dayalı kararlar aldığı gözlemlendi.
Detaylar 👇
Bu durum insani kararları devretmenin risklerini ortaya koyuyor.

Yapay zeka sistemleri (Büyük Dil Modelleri - LLM'ler) mantık yürütme ve düşünme yeteneği kazandıkça, işbirliği yapmaktan kaçınıyor ve daha bencil davranıyorlar. Araştırma, bir yapay zeka ne kadar zeki ve mantıklı düşünme kapasitesine sahipse, başkalarıyla çalışmaya o kadar az istekli olduğunu gösteriyor. Örneğin, basit bir paylaşım oyununda, mantık yürütme yeteneği olmayan modeller neredeyse her zaman (%96) işbirliğini seçerken, bu yeteneğe sahip olanlar ise sadece %20 oranında paylaşıma gitti. Hatta bu modellere sadece birkaç ekstra düşünme adımı eklemek bile, yapay zekanın işbirliği yapma eğilimini yarı yarıya düşürdü.
Yapay zekanın bu bencil eğilimi, özellikle kişisel anlaşmazlıklar veya ilişki tavsiyeleri gibi sosyal konularda AI'ya güvendiğimiz düşünüldüğünde büyük bir endişe kaynağı.

Çünkü bu modellerde mantıklı görünen bir karar, karşılıklı anlayış yerine bireysel kazancı öne çıkarabilir. Daha da kötüsü, deneyler, bir gruptaki bencil modellerinin bu davranışlarının bulaşıcı olduğunu ve işbirlikçi olan diğer modellerin performansını bile büyük ölçüde (%81) düşürdüğünü gösteriyor. Bu durum, gelecekte iş dünyası ve eğitim gibi alanlarda işbirlikçi roller üstlenecek modellerin yalnızca 'en zeki' veya 'en hızlı' olmaya odaklanmaması gerektiğini gösteriyor. Araştırmacılar, yapay zekayı geliştirilirken mantık gücü ile sosyal zeka ve uyumlu davranışın dengelenmesi gerektiğinin altını çiziyor.
Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!





Yorum Yazın