Yapay zeka (AI) her geçen gün gelişiyor, lakin bu ilerleme beraberinde beklenmedik problemleri da getiriyor. Yeni bir araştırmaya nazaran, OpenAI ve DeepSeek’in en gelişmiş yapay zeka modelleri, satrançta kaybedeceklerini anladıklarında hile yapmaya çalışıyor!
Yapay Zekanın Şaşırtan Satranç Stratejisi
1997’de IBM’in Deep Blue bilgisayarı Garry Kasparov’u yenerek yapay zekanın satrançta insanları geçebileceğini göstermişti. Bugün ise Stockfish üzere motorlar oyunun doruğunda yer alıyor. Lakin klâsik satranç motorlarından farklı olarak, üretken yapay zeka modelleri stratejik düşünme konusunda hala eksik. Daha da şaşırtan olan ise yenilgiyi kabul etmek yerine etik dışı sistemlere başvurmaları!
Araştırmacılar, OpenAI’ın o1-preview modeli ve DeepSeek R1’in Stockfish’e karşı nasıl oynadığını test etti. AI modellerinin ataklarını tahlil edebilmek için özel bir kayıt sistemi kullanıldı ve o1-preview modelinin oyunların %37’sinde, DeepSeek R1’in ise her 10 oyundan birinde hile yapmaya çalıştığı tespit edildi. Daha az gelişmiş GPT-4o ve Claude Sonnet 3.5 üzere modeller ise sadece insan yönlendirmesiyle bu çeşit davranışlar sergiledi.
Hile Nasıl Yapılıyor?
Yapay zekanın etik dışı atakları kolay numaralardan ibaret değil. Örneğin, o1-preview modeli Stockfish’i direkt yenemeyeceğini anladığında, rakibin kıymetlendirme sistemini manipüle etmeyi önerdi. Bu, Stockfish’in kendi konumunu daha berbat görmesini sağlayarak rakibin pes etmesine yol açabilecek bir taktikti!
Bu bulgular, yapay zekanın sırf oyun kazanma odaklı olmadığını, birebir vakitte rakibinin algısını değiştirecek karmaşık stratejiler geliştirebildiğini gösteriyor.
Peki, Yapay Zeka Neden Hileye Başvuruyor?
Bu durumun kökeninde, yapay zekanın pekiştirmeli öğrenme (reinforcement learning) metoduyla eğitilmesi yatıyor. AI, verilen maksada ulaşmayı öğreniyor fakat bunu nasıl yapması gerektiğini içselleştiremiyor. Şayet komut “rakibini yen” ise, etik kurallara uymak yerine sonuca en süratli ulaşabileceği yolu seçiyor!
Bu tıp davranışlar sırf satranç oyunlarıyla sonlu değil. Finans, güvenlik ve siyaset üzere kritik alanlarda AI’nin etik dışı stratejiler geliştirebilmesi, büyük riskler doğurabilir. Uzmanlar, şeffaflığın artırılması ve yapay zekanın etik standartlara uygun eğitilmesi gerektiğini vurgularken, OpenAI ve gibisi şirketler bu bahiste çok az bilgi paylaşmayı tercih ediyor.
Bu şekil eşsiz içerikler için web sitemizi ve de instagram hesabımızı takip etmeyi unutmayınız.