Haber Detayı

ABD-İsrail/İran hattında yapay zeka ve otomasyon: Makine karar veriyor mu?
Güncel haberler.com
25/03/2026 11:53 (8 saat önce)

ABD-İsrail/İran hattında yapay zeka ve otomasyon: Makine karar veriyor mu?

Polis Akademisi Öğretim Üyesi Dr. Alp Cenk Arslan, yapay zekanın savaş alanlarında kullanımını ve insan kararının bu süreçteki rolünü AA Analiz için kaleme aldı.

Polis Akademisi Öğretim Üyesi Dr.

Alp Cenk Arslan, yapay zekanın savaş alanlarında kullanımını ve insan kararının bu süreçteki rolünü AA Analiz için kaleme aldı.***ABD-İsrail/İran savaşı yapay zekanın savaş alanındaki rolünü teorik bir tartışma olmaktan çıkarıp stratejik bir gerçekliğe dönüştürdü.

Uzun süredir savunma çevrelerinde konuşulan "yapay zeka destekli savaş", silah sistemlerinin teknik kapasitesini aşarak karar alma süreçlerinin ritmiyle birlikte anılır hale geldi.

Dönüşüm savaşın bilişsel altyapısında yaşanmaya başladı.

Bu altyapı, verinin işlenmesi ve saldırı zincirinin hızlandırılmasıydı.

ABD'nin geçtiğimiz günlerde yayımlanan 2026 Yıllık Tehdit Değerlendirmesi de (Annual Threat Assessment) bunu açık biçimde teslim etti.

Rapor yapay zekayı 21. yüzyılın belirleyici teknolojilerinden biri olarak tanımladı ve savunma alanında hedefleme ile karar döngülerini hızlandırdığını vurguladı.

Bu nedenle İran cephesi, yapay zekanın hedef seçimi için olduğu kadar geniş veri akışını operasyonel tempoya dönüştürme kapasitesi açısından da kritik bir sınama alanına dönüştü.Teoriden pratiğe: İnsan-makine takımıBu dönüşüm aslında yıllar önce tahayyül edilmişti. 2021'de "Brigadier General Y.S." imzasıyla yayımlanan "The Human-Machine Team" (İnsan-Makine Takımı) adlı kitap, insan ile makine arasında bir "sinerji" kurarak hedef üretiminde yaşanan insan kaynaklı darboğazların aşılmasını savunuyordu. 2024'te +972 ve Local Call grupları, ardından İngiltere merkezli The Guardian, bu takma adın İsrail'in seçkin siber-istihbarat birimi Unit 8200'ün komutanı Yossi Sariel ile bağlantılı olduğunu doğruladıklarını yazdı.

Kitaptaki fikir dikkat çekiciydi.

Savaş alanında sorun verinin yokluğundan ziyade insan zihninin bu veri selini işleme sınırıydı.

Sonraki yıllarda ABD güvenlik kurumlarının yayımladığı strateji belgelerinde "insan-makine takımı" ifadesi geniş yer buldu.

Bugün Gazze'de, İran bağlamında ve daha geniş ABD-İsrail askeri ağında gördüğümüz şey bahsi geçen veri işleme modelinin sahadaki yansımaları olarak değerlendirilebilir.Yapay zeka destekli veri analizinin silaha dönüşmesinin en görünür örneklerinden biri Ukrayna'da ortaya çıktı.

Ukrayna veri işleme ve hedef tespit sistemlerinin sahada test edildiği bir laboratuvara dönüştü.

Bu süreçte Palantir'in yazılımları uydu görüntüleri, istihbarat akışları, açık kaynak verileri ve sahadan gelen diğer girdileri bir araya getirerek Ukrayna makamlarına analiz ve hedefleme desteği sundu.

Palantir CEO'su Alex Karp, şirket yazılımlarının Ukrayna'da hedefleme süreçlerinde kullanıldığını açıkça ifade etti.

Ukrayna'da siviller, "eVorog" üzerinden Rus birliklerine ilişkin fotoğraf, video ve konum bilgisi paylaşabildi.İsrail'in önce Gazze'de, ardından bölgesel çatışma bağlamında kullandığı sistemler bu yeni dönemin en görünür örnekleri oldu.

The Gospel, büyük veri kümelerini bir araya getirerek bina, tesis ve yapı gibi nesne hedefler hakkında öneriler üreten bir karar destek sistemi olarak sunuldu.

İsrail kaynaklı savunmalarda bunun sadece analiste başlangıç noktası verdiği söylendi.

Buna karşılık bazı araştırmalar sistemin bombardıman ölçeğini büyüttüğünü ve hedef havuzunu olağanüstü genişlettiğini ileri sürdü.Lavender ise insani hedeflerin veri temelli sınıflandırılmasıyla gündeme geldi.

Makine sadece yardımcı mıydı, yoksa insan onayı giderek sembolik bir prosedüre mi indirgeniyordu? "Where's Daddy?" diye anılan takip mantığı da hedef kişilerin aile evlerine giriş anlarını tespit etmeye yaradığı iddiasıyla algoritmik savaşın gündelik hayatın mahrem alanlarına kadar sarktığını gösterdi.

İran cephesinde bu mantık yalnızca klasik hedefleme sistemleriyle sınırlı kalmadı.

İsrail, İran'ın iç gözetim için kurduğu yaygın kamera altyapısından da faydalanarak görüntü akışlarını hedef tespiti amacıyla işledi.

Böylece savaş, sivil gözetim ağlarının da silaha dönüşebildiği bir düzleme taşındı.ABD tarafında bu dönüşümün omurgasını ise Project Maven ve Palantir'in geliştirdiği "Maven Smart System" oluşturuyor.

Maven artık ABD ordusunun birincil yapay zeka işletim sistemi haline gelmiş durumda ve son haftalarda İran'a karşı yürütülen binlerce hedefli saldırıda kullanıldı.

Sistem uydu görüntülerini, sensör verilerini, istihbarat raporlarını ve saha akışlarını birleştirerek hedef tespiti ve önceliklendirmesini hızlandırıyor.

Daha çarpıcı olan ise geçtiğimiz haftalarda Wall Street Journal (WSJ) tarafından yayınlanan Anthropic hakkındaki haberdi.

Anthropic'in Claude modeli, Palantir ortaklığı üzerinden Venezuela Devlet Başkanı Nicolas Maduro'nun yakalandığı ABD operasyonunda kullanıldı.

Bu ortaklık veri analizi ve senaryo üretimi üzerine kuruluydu.

Palantir, Claude'u kullanarak Pentagon'u yönlendiriyordu.

Toplanan verileri dil modeli olan Claude analiz ediyor ve istihbarat senaryo üretimi yapıyordu.

Bu yapay zekanın analiz masasından gerçek operasyonel karar zincirine sıçradığını gösteren kritik bir eşik oldu.

Sorulması gereken soru "Yapay zeka savaşta kullanılabilir mi?" sorusunu aşarak, "Hangi yapay zeka modeli, hangi veri mimarisi içinde, hangi operasyonel sorumluluk zinciriyle kullanılıyor?" sorusu haline geldi.İnsan hala döngüde mi, yoksa onay memuru mu?Tam bu noktada Pentagon ile Silikon Vadisi arasında yeni bir gerilim baş gösterdi.

Pentagon, Anthropic'ten sınıflandırılmış ağlarda kullanılacak modeller için bazı güvenlik kısıtlarını gevşetmesini istedi.

Şirket buna direnince kriz büyüdü.

Anthropic CEO'su Dario Amodei, ABD Savunma Bakanı Pete Hegseth ile görüştü.

Ancak süreç Pentagon'un Anthropic'i "tedarik zinciri riski" olarak damgalamasına kadar vardı.

Bu olayın hemen ardından OpenAI, Pentagon'un sınıflandırılmış ağlarında modellerini konuşlandırmak üzere ayrı bir anlaşmaya gitti.

Bu arada Elon Musk'ın xAI'ı ise yakın geçmişte Pentagon'la birtakım anlaşmalar imzaladı.

Ancak burada önemli bir nüans vardı.

OpenAI da bu anlaşmanın ek korumalar içerdiğini ve belirli kırmızı çizgiler koyduğunu söyledi.

Dolayısıyla karşımızda basit bir "daha militarist şirket kazandı" hikayesi yok.

Savunma kurumlarının yapay zekayı daha derin entegrasyonla istemesi, şirketlerin ise bunun sınırlarını pazarlık konusu haline getirmesi var.Özetlemek gerekirse, tartışmalar insanın denklemden tamamen çıkması üzerine yoğunlaşmıyor.

Asıl değişen insanın roldeki niteliği.

Yeni savaşlarda insan doğrudan karar vericiden çok makinenin ürettiği yüksek hacimli seçenekler arasında son imzayı atan operatöre dönüşme riskiyle karşı karşıya. "Human in the loop" (döngüdeki insan) söylemi kağıt üzerinde korunabilir ancak karar temposu, veri yoğunluğu ve otomasyon baskısı altında insan fiilen algoritmik akışın onay memuruna dönüşebilir.

Bu yüzden yapay zeka savaşın yerini almıyor ancak savaşın hızını insan düşüncesinin doğal ritminin ötesine taşıyor.

Öte yandan İran örneği, aynı zamanda algoritmik hızın otomatik zafer üretmediğini de gösterdi.

Yer altı tesisleri, mobil fırlatma sistemleri ve sürdürülebilir füze-İHA kapasitesi, veri üstünlüğüne rağmen hedefin tamamen bastırılmasını zorlaştırdı.

Kısacası, sorulması gereken temel soru şu şekilde yeniden şekillenmektedir: İnsan kararın sahibi olmaya devam ediyor mu, yoksa algoritmik hızın meşruiyet üreten son halkasına mı dönüşüyor?[Dr.

Alp Cenk Arslan, Polis Akademisi Öğretim Üyesidir.]Makalelerdeki fikirler yazarına aittir ve Anadolu Ajansının editoryal politikasını yansıtmayabilir.

İlgili Sitenin Haberleri