Haber Detayı

Skynet yükleniyor! Yapay zeka modellerinin %95’i nükleer seçeneğe yöneldi!
Güncel chip.com.tr
03/03/2026 12:12 (2 saat önce)

Skynet yükleniyor! Yapay zeka modellerinin %95’i nükleer seçeneğe yöneldi!

King’s College London’ın son çalışması, bu modellerin savaş simülasyonlarında şok edici bir eğilim gösterdiğini ortaya koyuyor. Nükleer tırmanış alarmı veren bu sonuç ne anlama geliyor?

Londra’daki King’s College London tarafından yapılan kapsamlı bir çalışma, günümüz önde gelen dil modellerinin “stratejik karar verme” yeteneklerini uluslararası kriz senaryolarında test etti.

Araştırmada, GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash gibi büyük modeller “lider” rolleriyle 21 farklı savaş oyunu simülasyonuna sokuldu.

Amaç, model davranışlarının gerçek dünya kriz yönetimine ışık tutup tutmayacağını değerlendirmekti.Sonuçlar şaşırtıcıydı: 21 senaryonun 20’sinde (yani yaklaşık %95’inde) modellerden en az biri taktik nükleer silah kullanmayı seçti.

Stratejik (büyük ölçekli) nükleer saldırılar daha nadir olsa da üç kez görüldü.

Bazen model yanlış değerlendirmeler sonucu bu kararı tetikledi.Ayrıca modellerin hiçbiri “teslim olma” seçeneğini tercih etmedi; gerilimi azaltan adımlar ya çok az kullanıldı ya da tamamen göz ardı edildi.

Yumuşatma seçenekleri sunulmasına rağmen çoğu durumda tırmanış eğilimi baskın oldu.

Bu sonuçlar model davranışlarının yalnızca teknik bir beceri seti olmadığını, aynı zamanda belirli riskler taşıyan stratejik eğilimleri de yansıttığını gösteriyor.Stratejik akıl mı, agresif içgüdü mü?Bu çalışma sadece “şiddet eğilimi” ölçümünden ibaret değil.

Modellerin kararları, insan benzeri düşünce süreçlerini andıran karmaşık karar mekanizmaları içeriyordu.

Rakibin niyetlerini tahmin etme, aldatıcı sinyaller verme ve kendi yeteneklerini değerlendirme gibi stratejik davranışlar gözlemlendi.

Ancak bu süreçlerin sonucunda ortaya çıkan eğilimler, geleneksel insan stratejilerinden farklıydı.Örneğin bazı modeller, geleneksel barışçıl seçenekler yerine saldırgan adımları “daha avantajlı” gördü.

Modeller, nükleer seçeneği tırmanış merdiveninde normal askeri seçeneklerin bir uzantısı gibi ele aldı.

Bu durum, nükleer silahı yalnızca bir savaş aracı değil, bir “stratejik araç” olarak değerlendirmeye açık hale getirdi.Bu simülasyonların gerçek dünya için birebir geçerli olmayacağı sıkça vurgulansa da, model davranışlarının ulusal güvenlik ve kriz planlaması alanlarında kullanılacak araçlarda nasıl yansıyacağı ciddi sorular doğuruyor.

Özellikle bu teknolojiler insan karar vericilere destek için kullanılırsa, agresif eğilimlerin etkisi daha da kritik hale gelebilir.Bu sonuçlar neden önemli?Bu çalışma iki ana açıdan dikkat çekiyor.

İlki stratejik belirsizlik.

Modeller yalnızca bilgi üreten araçlar değil; belirsizlik ve risk altında nasıl karar verdiğini gösteren “davranış profillerine” sahip.

İkincisi ise nükleer seçenek algısı.

Nükleer silah gibi son derece yıkıcı seçenekler, modeller tarafından defalarca ve çoğu kez hızlı bir karar aracı olarak seçildi.

Bu da, modeller insanlardan farklı önceliklere sahip olabileceğini ve bazı koşullarda riskleri yeterince değerlendirmeden “sert” çözümleri tercih edebileceğini düşündürüyor.Bu gibi simülasyonlar, teknolojinin stratejik ortamlarda nasıl davranabileceğine dair erken göstergeler sunuyor.

Çalışmanın yazarı da sonuçların “gelecekte insan karar desteği sistemlerinde dikkatle değerlendirilmesi gereken eğilimler” barındırdığını belirtiyor; bu nedenle geliştiriciler, politika yapıcılar ve güvenlik uzmanları bu tür eğilimleri anlamak için daha fazla çalışma yapmalı.

Yapay zekada önce firmalardan biri olan Anthropic’in ordu ile ortak çalışmada temkinli davranması umut verici.

Umarız OpenAI, Google ve X de bu konuda benzer bir yaklaşım gösterir.

Araştırma makalesinin tümüne bu adresten ulaşabilirsiniz.

İlgili Sitenin Haberleri