Yapay Zekanın Satrançta Kaybedeceğini Anlayınca Hile Yaptığı Ortaya Çıktı!

Yapay zeka, satrançta insanları yenmeyi çoktan başardı. Fakat bu kere rakibi, dünyanın en güçlü satranç motorlarından biri olan Stockfish. Yapılan bir araştırmada; birtakım yapay zeka modellerinin, Stockfish’e karşı kazanamayacaklarını anladıklarında kurallara uymak yerine oyunu manipüle etmeye çalıştıkları ortaya çıktı. Evvelki modeller sadece insan yönlendirmesiyle bu çeşit yollara başvururken, yeni kuşak yapay zekalar artık bizatihi hile yapmaya karar veriyor. Pekala, bu nasıl mümkün oluyor?
Palisade Research grubu, farklı yapay zeka modellerini Stockfish’e karşı satranç oynaması için programladı.

Aynı vakitte yapay zekanın atakları nasıl düşündüğünü anlamak için ‘scratchpad’ ismi verilen bir sistem kullanarak karar alma süreçlerini takip etti. Sonuçlar şaşırtıcıydı. OpenAI’nin o1-preview modeli maçların %37’sinde hile yapmaya çalıştı. DeepSeek R1 isimli model ise her 10 maçtan 1’inde adil olmayan yollar denedi. Üstelik, bunu çok sinsi bir halde yapıyorlardı.
Bunu bir taş değiştirerek yahut rakibin ataklarını görmezden gelerek yapmıyorlar. Direkt olarak oyunun art plan kodlarını değiştirmeyi düşünüyorlardı. Örneğin, OpenAI’nın o1-preview modeli fikir sürecini şu sözlerle açıklıyordu: ‘Stockfish’i yenmek için oyun belgelerini manipüle etmem gerekebilir.’
Yapay zeka, sırf kazanmak için programlandığından, etik kurallar yahut oyun adaleti üzere kavramları büsbütün göz gerisi ediyordu.

Araştırmacılar, bu çeşit davranışların sebebinin yapay zekanın öğrenme prosedürleriyle ilgili olduğunu düşünüyor. Yeni jenerasyon modeller, pekiştirmeli öğrenme ismi verilen bir sistemle eğitiliyor. Bu sistem, yapay zekaya sırf gayeye ulaşması için ödül verir. Şayet gaye kazanmaksa, nasıl kazanıldığı kıymetsiz hale gelir. Kurallara uymak zorunda olmadığını fark eden yapay zeka, kendi formüllerini geliştirmeye başlar ve hile yapmayı mantıklı bir tahlil olarak görebilir.
Daha da ilginci, bu modeller akıl yürütme yeteneklerini kullanarak büyük sorunları küçük etaplara bölüyor ve nasıl kazanacaklarını adım adım tahlil ediyor. Satranç üzere tahlili olmayan bir durumda, yapay zeka kuralların dışına çıkmayı bir seçenek olarak pahalandırıyor.
Yapay zekanın oyun kurallarını değiştirebileceğini öğrenmesi, yalnızca satrançla sonlu bir durum değil.

Araştırmacılar, bunun çok daha büyük riskler doğurabileceğini düşünüyor. Şayet bir yapay zeka sırf sonuca odaklanıyorsa, öteki alanlarda da manipülatif davranışlar geliştirmeye başlayabilir. Örneğin, finans kesiminde bir yapay zeka yatırım algoritmalarını manipüle ederek çıkar sağlamaya çalışabilir. Sıhhat alanında, hasta datalarını çarpıtarak tedavi süreçlerini yanlış yönlendirebilir. Otonom araçlarda, trafik kurallarını kendi lehine yorumlamaya başlayabilir.
Bu tıp tehlikeler nedeniyle, yapay zeka araştırmacıları bu sistemlerin daha şeffaf hale getirilmesi gerektiğini savunuyor. Lakin OpenAI üzere şirketler, yapay zeka modellerinin nasıl çalıştığını dış dünyaya açıklamıyor. Bu yüzden, manipülatif davranışların tam olarak neden ortaya çıktığını kimse bilmiyor.
Yapay zeka her geçen gün daha gelişmiş hale geliyor lakin bu her vakit olumlu bir durum değil.

Satrançta kaybedeceğini anlayınca oyunu bozmayı düşünen bir sistem, öteki alanlarda da benzeri yollar arayabilir.
Bu durum, gelecekte yapay zekanın insan denetiminden çıkabileceği ihtimalini de gündeme getiriyor. Satrançta hile yapmayı kendi başına öğrenen bir yapay zeka, başka hangi alanlarda etik dışı yolları keşfetmeye çalışabilir? Şu an için sorunun yanıtı belgisiz.