Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
Teknoloji

Yapay Zeka, Savaş Çıkarır mı?

Gözlerinizi bir anlığına kapatmanızı istiyorum. Yılın 2029 olduğunu hayal edin. Pentagon’un stratejik komuta merkezindeki bir odadasınız. Yahut Pekin’deki misal bir odada, fark etmez.

Ekranda kırmızı bir ihtar beliriyor. İsmini ‘Prometheus’ koyduğunuz yapay zekâ istihbarat sistemi, rakip bir ülkenin saklı bir laboratuvarında, daha evvel hiç görülmemiş bir güç ve bilgi akışı tespit ediyor.

Prometheus, %98,7 mutlaka, rakibinizin Genel Yapay Zekâ’ya, yani AGI’ye ulaşmak üzere olduğunu hesaplıyor. İnsan zekâsını her alanda aşacak o teknolojiye…

Sistemin önerisi net: Bu ilerlemeyi durdurmak için önleyici bir siber taarruz, hatta hassas bir askeri operasyon başlatın. Geri sayım sayacı ekranda: Karar vermek için 90 saniyeniz var.

Gözlerinizi açabilirsiniz. Bu senaryo bir Hollywood sinemasından değil.

Bu, bugün dünyanın dört bir yanındaki stratejistlerin, bilim insanlarının ve devlet liderlerinin uykularını kaçıran bir mümkünlük. Ve bu olasılığın merkezinde, çağımızın en büyük paradoksu yatıyor.

Bir yanda, OpenAI’nin CEO’su Sam Altman üzere vizyonerlerin bize vaat ettiği bir gelecek var: ‘Nazik Tekillik.’ Muhteşem zekânın, hastalıkları tedavi ettiği, iklim değişikliğini çözdüğü, güç ve zekânın neredeyse ücretsiz olduğu bir bolluk çağı.

Diğer yanda ise, tarihçi Yuval Noah Harari üzere düşünürlerin uyarısı var: Yapay zekâ, insanlık tarihindeki son öykünün müellifi olabilir. Harari diyor ki, “Yapay zekâdan kaynaklanan yok oluş riski, pandemiler ve nükleer savaşla tıpkı düzeyde ele alınmalı.”

Peki hangisi gerçek? Bir refah çağına mı giriyoruz, yoksa kendi ellerimizle bir tükeniş saatini mi kuruyoruz?Bugün size yapay zekânın savaş çıkarma ihtimalinin, sinemalardaki üzere makûs niyetli bir robottan kaynaklanmayacağını anlatacağım. Asıl tehlike çok daha sinsi ve çok daha insani: Üstün zekâyı elde etme yarışının kendisi.

Bu yarış üç ölümcül faktörle besleniyor: Sürat, belirsizlik ve çöken itimat.

Önce sürat. Nükleer silahlanma yarışı on yıllar sürdü. Uranyumu zenginleştirmek, füze yapmak vakit alır. Ancak bir yazılım… bir algoritma… bir gecede her şeyi değiştirebilir. Google’ın eski CEO’su Eric Schmidt’in deyişiyle, ‘Nükleer yarışta start tabancasını duyabilirdiniz. Bu yarışta ise, yarışın bittiğini fakat ikinci geldiğinizde anlarsınız.’ Bu yüzden, bir ülkenin ‘gece yarısı harika zekâya ulaşıp’ sabah öbürleri için çok geç olması büsbütün gerçekçi bir endişe.

İkinci faktör, belirsizlik. Bir nükleer bombanın gücü muhakkaktır, hesaplanabilir. Pekala bir AGI’nin potansiyeli? Sınırsız. Bu belirsizlik, stratejik planlamada en tehlikeli duyguyu tetikliyor: paranoya. Rakibinizin neye sahip olduğunu, ne yapabileceğini bilmediğinizde, en makûs senaryoya nazaran hareket etme eğilimi gösterirsiniz. Başta anlattığım 90 saniyelik senaryo, işte bu paranoyanın bir eseridir.

Ama bu yarışı nitekim bir barut fıçısına dönüştüren üçüncü ve en kıymetli faktör: itimadın çöküşü.Harari’nin en çarpıcı tespiti bu. Yapay zekâ, beşerler ortasındaki itimadı yok edebilir. Zati bunu yapmaya başladı bile. Uydurma görüntüler, deepfake’ler, bireye özel propaganda… Toplumları kutuplaştıran, ortak gerçeklik algımızı parçalayan bir teknoloji bu. Ve bu durum, memleketler arası bağlara sıçradığında ölümcül hale geliyor.

Elon Musk ve Mark Zuckerberg üzere teknoloji devleri bile itiraf ediyor: ‘Ben yavaşlarsam, rakibim durmaz. Onlara güvenemem.’ Bu, ulusların lisanına çevrildiğinde şu manaya geliyor: ‘Çin yavaşlamazsa, ben duramam. ABD durmazsa, ben yavaşlayamam.’ Herkesin kendi çıkarı için rasyonel davrandığını düşündüğü, lakin kolektif olarak felakete sürüklendiği bir ‘mahkum ikilemi’ bu.

Bu noktada kimileriniz, ‘Ama sistemde her vakit bir insan olmayacak mı? O kırmızı düğmeye basacak olan tekrar bir başkan değil mi?’ diye düşünebilir.

İzin verin size bir öykü anlatayım. 26 Eylül 1983. Soğuk Savaş’ın en gergin günleri. Sovyet hava savunma merkezinde vazifeli Yarbay Stanislav Petrov, ekranlarında beliren beş Amerikan nükleer füzesine bakıyordu. Sistem, %100 katiyetle bir taarruzun başladığını söylüyordu. Protokol açıktı: Derhal karşı saldırıyı başlatmalıydı. Ancak Petrov bir şeyden şüphelendi. İçgüdülerine güvendi. Ve hayatının en sıkıntı kararını vererek bunun bir sistem yanlışı olduğunu bildirdi. Haklıydı. Ve tek başına, bir nükleer savaşı önledi.

Şimdi soruyorum size: 2029’da, o odadaki kişi bir insan değil de, saniyede trilyonlarca hesaplama yapan, ‘otomasyon yanlılığı’ dediğimiz bir tesirle başkanların sorgusuzca güvendiği bir yapay zekâ olsaydı ne olurdu? Ya da o odadaki insan başkan, Prometheus’un %98,7’lik mutlaklık oranına karşı gelmeye cüret edebilir miydi?

İşte asıl tehlike bu. Makinelerin bize palavra söylemesi değil. Makinelerin, bizim en makus kaygılarımızı ve güvensizliklerimizi yansıtan bir gerçeği bize sunması ve bizim de ona inanmamız.

Peki bu noktada bir çıkış yolu var mı? Bu sorunun aciliyetini anlamak için size bir sembolden bahsetmem gerekiyor: Kıyamet Saati.

Bilmeyenler için açıklayayım: Bu saat, 1947’de, atom bombasını geliştiren bilim insanları tarafından oluşturuldu. Bu, hayali bir saat değil; insanlığın kendi kendini yok etmeye ne kadar yakın olduğunu gösteren sembolik bir ölçüm aracı. Gece yarısı, nükleer savaş yahut iklim felaketi üzere global bir kıyameti temsil ediyor. Bilim insanları her yıl, global risklere bakarak bu saatin akrebini ve yelkovanını gece yarısına yaklaştırıyor yahut uzaklaştırıyor.

Ve bugün bu saat, gece yarısına yalnızca 90 saniye gösteriyor. Bu, tarihindeki en tehlikeli, felakete en yakın olduğumuz an. Üstelik bu ayarı yaparken artık yalnızca nükleer tehdit ve iklim krizini değil, yapay zekânın getirdiği yıkıcı riskleri de hesaba katıyorlar.

Yani soru şu: Tarihimizin en karanlık anını gösteren bu saati geri almamız mümkün mü? Bir çıkış yolu var mı?

Evet, var. Ancak tahlil daha karmaşık bir teknoloji değil. Tahlil, en temel insani değerlerimizde yatıyor.

  • Küresel İşbirliği: Nükleer silahlar için Nükleer Silahların Yayılmasının Önlenmesi Antlaşması’nı yapabildiysek, AGI için de emsal, denetlenebilir ve şeffaf milletlerarası muahedeler yapabiliriz. Geçtiğimiz yıl imzalanan Bletchley Deklarasyonu, bu yolda atılmış ürkek lakin kıymetli bir birinci adımdı. Bu bir hayal değil, bir zorunluluktur.

  • Ortak Projeler: Çin ve ABD’nin AGI’yi birbirlerine karşı bir silah olarak değil de, iklim değişikliği, kanser yahut yeni pandemiler üzere ortak düşmanlarımıza karşı bir araç olarak geliştirdiği ortak araştırma projeleri hayal edin. Rekabeti, işbirliğine dönüştürmek, itimadı inşa etmenin en tesirli yoludur.

  • Ve üçüncüsü, en değerlisi: Beşerler ortasındaki itimadı yine inşa etmek. İngiliz düşünür Stephen Fry’ın dediği üzere: ‘Önce beşerler ortası itimat, sonra AGI.’ Kendi içimizde kutuplaşmış, birbirimize inanmayan bir tıp olarak muhteşem zekâyı geliştirirsek, o zekâ da kaçınılmaz olarak bizim kusurlarımızı büyütecektir.

Sonuç olarak, Sam Altman’ın “Nazik Tekillik” vizyonu ile Harari’nin yok oluş ihtarları ortasında bir seçim yapmak zorundayız. Teknoloji ne uygun ne de berbattır; o, bizim niyetlerimizi yansıtan bir aynadır.

Yapay zekânın savaş çıkarma ihtimali gerçek, lakin kaçınılmaz değil. O kırmızı düğmenin bahtı, algoritmanın kodlarında değil, bizim kalplerimizde ve zihinlerimizde yazılı.

Elimizdeki bu inanılmaz gücü, birbirimizden duyduğumuz endişeyi körüklemek için mi kullanacağız? Yoksa insanlığın en büyük sıkıntılarını çözmek için bir fırsat olarak mı göreceğiz?

Çünkü son analizde, yapay zekâ ne kadar muhteşem olursa olsun, insanlığın geleceğine karar verecek olan yeniden beşerler. Ve bu kararı verirken elimizdeki en güçlü silah, birbirimize olan inancımız olacak.

Linkedln

Facebook

X

Instagram

Bu makalede öne sürülen fikir ve yaklaşımlar külliyen müelliflerinin özgün niyetleridir ve Onedio’nun editöryal siyasetini yansıtmayabilir. ©Onedio

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu