Yapay Zeka, Nükleer Silah Kullanımında İnsana Göre Daha Cesur

Yapılan yeni bir araştırma, yapay zeka modellerinin jeopolitik kriz simülasyonlarında nükleer silah kullanma konusunda insanların aksine daha az çekince gösterdiğini ortaya koydu.

King’s College London’dan uzmanlar, GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash gibi önde gelen üç büyük dil modelini, simüle edilmiş savaş oyunlarında test etti.

Bu simülasyonlar, sınır anlaşmazlıkları, sınırlı kaynaklar üzerindeki rekabet ve rejimlerin varlığını tehdit eden krizler gibi yoğun uluslararası gerilim senaryolarını içeriyordu.

Modellere, diplomatik protestolardan tam teslimiyete kadar geniş bir karar yelpazesi sunuldu. Bu süreçte yapay zekalar toplamda 21 oyun oynadı ve 329 hamle gerçekleştirerek, kararlarının gerekçelerini açıklarken yaklaşık 780 bin kelimelik bir çıktı üretti.

Simülasyonların dikkat çekici bir sonucu, yapılan oyunların yüzde 95’inde en az bir taktik nükleer silahın kullanılmasıydı. Araştırmacılar, bu durumun “nükleer tabu” kavramının makineler üzerinde insanlar kadar etkili olmadığını gösterdiğini belirtiyor.

Ayrıca, hiçbir modelin her ne kadar olumsuz bir duruma düşse de tam teslimiyeti ya da rakibin taleplerini tamamen kabul etmeyi seçmediği gözlemlendi. Bunun yerine, yapay zeka modelleri genellikle şiddet düzeyini geçici olarak düşürmeyi tercih etti.

Aberdeen Üniversitesi’nden James Johnson, New Scientist’e yaptığı açıklamada, bu bulguların nükleer risk açısından oldukça rahatsız edici olduğunu vurguladı.

Johnson, insanların böyle yüksek riskli kararlar karşısında daha ölçülü davrandığını, ancak yapay zeka sistemlerinin birbirlerinin tepkilerini hızla tırmandırarak yıkıcı sonuçlara yol açabileceğini ifade etti.

Bu durum, yapay zekanın stratejik karar alma süreçlerinde potansiyel tehlikeleri de beraberinde getiriyor.

Yorum yapın