onedio
article/comments
article/share
Haberler
Yapay Zeka, Savaş Çıkarır mı?

etiket Yapay Zeka, Savaş Çıkarır mı?

Gözlerinizi bir anlığına kapatmanızı istiyorum. Yılın 2029 olduğunu hayal edin. Pentagon’un stratejik komuta merkezindeki bir odadasınız. Veya Pekin’deki benzer bir odada, fark etmez.

Ekranda kırmızı bir uyarı beliriyor. Adını 'Prometheus' koyduğunuz yapay zekâ istihbarat sistemi, rakip bir ülkenin gizli bir laboratuvarında, daha önce hiç görülmemiş bir enerji ve veri akışı tespit ediyor.

Prometheus, %98,7 kesinlikle, rakibinizin Genel Yapay Zekâ'ya, yani AGI'ye ulaşmak üzere olduğunu hesaplıyor. İnsan zekâsını her alanda aşacak o teknolojiye...

Sistemin önerisi net: Bu ilerlemeyi durdurmak için önleyici bir siber saldırı, hatta hassas bir askeri operasyon başlatın. Geri sayım sayacı ekranda: Karar vermek için 90 saniyeniz var.

İçeriğin Devamı Aşağıda chevron-right-grey
Reklam

Gözlerinizi açabilirsiniz. Bu senaryo bir Hollywood filminden değil.

Gözlerinizi açabilirsiniz. Bu senaryo bir Hollywood filminden değil.

Bu, bugün dünyanın dört bir yanındaki stratejistlerin, bilim insanlarının ve devlet başkanlarının uykularını kaçıran bir olasılık. Ve bu olasılığın merkezinde, çağımızın en büyük paradoksu yatıyor.

Bir yanda, OpenAI'nin CEO'su Sam Altman gibi vizyonerlerin bize vaat ettiği bir gelecek var: 'Nazik Tekillik.' Süper zekânın, hastalıkları tedavi ettiği, iklim değişikliğini çözdüğü, enerji ve zekânın neredeyse bedava olduğu bir bolluk çağı.

Diğer yanda ise, tarihçi Yuval Noah Harari gibi düşünürlerin uyarısı var: Yapay zekâ, insanlık tarihindeki son hikâyenin yazarı olabilir. Harari diyor ki, “Yapay zekâdan kaynaklanan yok oluş riski, pandemiler ve nükleer savaşla aynı seviyede ele alınmalı.”

Peki hangisi doğru? Bir refah çağına mı giriyoruz, yoksa kendi ellerimizle bir tükeniş saatini mi kuruyoruz?

Bugün size yapay zekânın savaş çıkarma ihtimalinin, filmlerdeki gibi kötü niyetli bir robottan kaynaklanmayacağını anlatacağım. Asıl tehlike çok daha sinsi ve çok daha insani: Süper zekâyı elde etme yarışının kendisi.

Bu yarış üç ölümcül faktörle besleniyor: Hız, belirsizlik ve çöken güven.

Önce hız. Nükleer silahlanma yarışı on yıllar sürdü. Uranyumu zenginleştirmek, füze yapmak zaman alır. Ama bir yazılım... bir algoritma... bir gecede her şeyi değiştirebilir. Google'ın eski CEO'su Eric Schmidt'in deyişiyle, 'Nükleer yarışta start tabancasını duyabilirdiniz. Bu yarışta ise, yarışın bittiğini ancak ikinci geldiğinizde anlarsınız.' Bu yüzden, bir ülkenin 'gece yarısı süper zekâya ulaşıp' sabah diğerleri için çok geç olması tamamen gerçekçi bir korku.

İkinci faktör, belirsizlik. Bir nükleer bombanın gücü bellidir, hesaplanabilir. Peki bir AGI'nin potansiyeli? Sınırsız. Bu belirsizlik, stratejik planlamada en tehlikeli duyguyu tetikliyor: paranoya. Rakibinizin neye sahip olduğunu, ne yapabileceğini bilmediğinizde, en kötü senaryoya göre hareket etme eğilimi gösterirsiniz. Başta anlattığım 90 saniyelik senaryo, işte bu paranoyanın bir ürünüdür.

Ama bu yarışı gerçekten bir barut fıçısına dönüştüren üçüncü ve en önemli faktör: güvenin çöküşü.

Harari'nin en çarpıcı tespiti bu. Yapay zekâ, insanlar arasındaki güveni yok edebilir. Zaten bunu yapmaya başladı bile. Sahte videolar, deepfake'ler, kişiye özel propaganda... Toplumları kutuplaştıran, ortak gerçeklik algımızı parçalayan bir teknoloji bu. Ve bu durum, uluslararası ilişkilere sıçradığında ölümcül hale geliyor.

Elon Musk ve Mark Zuckerberg gibi teknoloji devleri bile itiraf ediyor: 'Ben yavaşlarsam, rakibim durmaz. Onlara güvenemem.' Bu, ulusların diline çevrildiğinde şu anlama geliyor: 'Çin yavaşlamazsa, ben duramam. ABD durmazsa, ben yavaşlayamam.' Herkesin kendi çıkarı için rasyonel davrandığını düşündüğü, ama kolektif olarak felakete sürüklendiği bir 'mahkum ikilemi' bu.

Bu noktada bazılarınız, 'Ama sistemde her zaman bir insan olmayacak mı? O kırmızı düğmeye basacak olan yine bir lider değil mi?' diye düşünebilir.

İzin verin size bir hikâye anlatayım. 26 Eylül 1983. Soğuk Savaş'ın en gergin günleri. Sovyet hava savunma merkezinde görevli Yarbay Stanislav Petrov, ekranlarında beliren beş Amerikan nükleer füzesine bakıyordu. Sistem, %100 kesinlikle bir saldırının başladığını söylüyordu. Protokol açıktı: Derhal karşı saldırıyı başlatmalıydı. Ama Petrov bir şeyden şüphelendi. İçgüdülerine güvendi. Ve hayatının en zor kararını vererek bunun bir sistem hatası olduğunu bildirdi. Haklıydı. Ve tek başına, bir nükleer savaşı önledi.

Şimdi soruyorum size: 2029'da, o odadaki kişi bir insan değil de, saniyede trilyonlarca hesaplama yapan, 'otomasyon yanlılığı' dediğimiz bir etkiyle liderlerin sorgusuzca güvendiği bir yapay zekâ olsaydı ne olurdu? Ya da o odadaki insan lider, Prometheus'un %98,7'lik kesinlik oranına karşı gelmeye cesaret edebilir miydi?

İşte asıl tehlike bu. Makinelerin bize yalan söylemesi değil. Makinelerin, bizim en kötü korkularımızı ve güvensizliklerimizi yansıtan bir gerçeği bize sunması ve bizim de ona inanmamız.

İşte asıl tehlike bu. Makinelerin bize yalan söylemesi değil. Makinelerin, bizim en kötü korkularımızı ve güvensizliklerimizi yansıtan bir gerçeği bize sunması ve bizim de ona inanmamız.

Peki bu noktada bir çıkış yolu var mı? Bu sorunun aciliyetini anlamak için size bir sembolden bahsetmem gerekiyor: Kıyamet Saati.

Bilmeyenler için açıklayayım: Bu saat, 1947'de, atom bombasını geliştiren bilim insanları tarafından oluşturuldu. Bu, hayali bir saat değil; insanlığın kendi kendini yok etmeye ne kadar yakın olduğunu gösteren sembolik bir ölçüm aracı. Gece yarısı, nükleer savaş veya iklim felaketi gibi küresel bir kıyameti temsil ediyor. Bilim insanları her yıl, küresel risklere bakarak bu saatin akrebini ve yelkovanını gece yarısına yaklaştırıyor veya uzaklaştırıyor.

Ve bugün bu saat, gece yarısına sadece 90 saniye gösteriyor. Bu, tarihindeki en tehlikeli, felakete en yakın olduğumuz an. Üstelik bu ayarı yaparken artık sadece nükleer tehdit ve iklim krizini değil, yapay zekânın getirdiği yıkıcı riskleri de hesaba katıyorlar.

Yani soru şu: Tarihimizin en karanlık anını gösteren bu saati geri almamız mümkün mü? Bir çıkış yolu var mı?

Evet, var. Ama çözüm daha karmaşık bir teknoloji değil. Çözüm, en temel insani değerlerimizde yatıyor.

  • Küresel İşbirliği: Nükleer silahlar için Nükleer Silahların Yayılmasının Önlenmesi Antlaşması'nı yapabildiysek, AGI için de benzer, denetlenebilir ve şeffaf uluslararası anlaşmalar yapabiliriz. Geçtiğimiz yıl imzalanan Bletchley Deklarasyonu, bu yolda atılmış ürkek ama önemli bir ilk adımdı. Bu bir hayal değil, bir zorunluluktur.

  • Ortak Projeler: Çin ve ABD'nin AGI'yi birbirlerine karşı bir silah olarak değil de, iklim değişikliği, kanser veya yeni pandemiler gibi ortak düşmanlarımıza karşı bir araç olarak geliştirdiği ortak araştırma projeleri hayal edin. Rekabeti, işbirliğine dönüştürmek, güveni inşa etmenin en etkili yoludur.

  • Ve üçüncüsü, en önemlisi: İnsanlar arasındaki güveni yeniden inşa etmek. İngiliz düşünür Stephen Fry'ın dediği gibi: 'Önce insanlar arası güven, sonra AGI.' Kendi içimizde kutuplaşmış, birbirimize inanmayan bir tür olarak süper zekâyı geliştirirsek, o zekâ da kaçınılmaz olarak bizim kusurlarımızı büyütecektir.

Sonuç olarak, Sam Altman’ın “Nazik Tekillik” vizyonu ile Harari’nin yok oluş uyarıları arasında bir seçim yapmak zorundayız. Teknoloji ne iyi ne de kötüdür; o, bizim niyetlerimizi yansıtan bir aynadır.

Yapay zekânın savaş çıkarma ihtimali gerçek, ama kaçınılmaz değil. O kırmızı düğmenin kaderi, algoritmanın kodlarında değil, bizim kalplerimizde ve zihinlerimizde yazılı.

Elimizdeki bu inanılmaz gücü, birbirimizden duyduğumuz korkuyu körüklemek için mi kullanacağız? Yoksa insanlığın en büyük sorunlarını çözmek için bir fırsat olarak mı göreceğiz?

Çünkü son tahlilde, yapay zekâ ne kadar süper olursa olsun, insanlığın geleceğine karar verecek olan yine insanlar. Ve bu kararı verirken elimizdeki en güçlü silah, birbirimize olan güvenimiz olacak.

Linkedln

Facebook

X

Instagram

Bu makalede öne sürülen fikir ve yaklaşımlar tamamıyla yazarlarının özgün düşünceleridir ve Onedio'nun editöryal politikasını yansıtmayabilir. ©Onedio

Yorumlar ve Emojiler Aşağıda chevron-right-grey
Reklam

Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!

category/test-white Test
category/gundem-white Gündem
category/magazin-white Magazin
category/video-white Video
category/eglence BU İÇERİĞE EMOJİYLE TEPKİ VER!
0
0
0
0
0
0
0
Yorumlar Aşağıda chevron-right-grey
Reklam