Haber Detayı
ABD ve İsrail'in İran saldırılarında kullandığı yapay zeka, uluslararası hukukta tartışma yarattı
ELİF GÜLTEKİN KARAHACIOĞLU/YASİN YORGANCI - ABD ve İsrail'in İran'a yönelik saldırılarda kullandığı yapay zeka modeli, hedef belirleme ve saldırı kararlarının alınmasında insan denetiminin azalması ile sivillerin korunmasına ilişkin tartışmaları gündeme taşıdı.
ELİF GÜLTEKİN KARAHACIOĞLU/YASİN YORGANCI - ABD ve İsrail'in İran'a yönelik saldırılarda kullandığı yapay zeka modeli, hedef belirleme ve saldırı kararlarının alınmasında insan denetiminin azalması ile sivillerin korunmasına ilişkin tartışmaları gündeme taşıdı.ABD'nin, İran'da saldırı planlamasında, ABD merkezli teknoloji şirketi Anthropic'in istihbarat analizi yapabilen ve karar verme sürecini hızlandıran "Claude" adlı yapay zeka modelini kullandığı basına yansıdı.Claude gibi yapay zeka destekli sistemler, insansız hava aracı görüntüleri, iletişim dinlemeleri ve insan istihbaratı gibi farklı kaynaklardan gelen büyük miktardaki veriyi hızla analiz ederek potansiyel hedefleri belirleyebiliyor ve saldırı seçenekleri oluşturabiliyor.Bu teknoloji, çatışma sırasında hedef tespiti, hukuki değerlendirme ve saldırı kararları arasındaki süreci hızlandırarak "öldürme zinciri" olarak adlandırılan hedefleme süresini önemli ölçüde kısaltıyor.ABD ve İsrail'in, İran'a yönelik saldırılarda yapay zeka modellerini kullanması, bu teknolojilerin çatışmalardaki rolü ve uluslararası hukuk açısından doğurduğu riskleri yeniden gündeme getirdi.Yapay zeka destekli hedefleme öldürme zincirini kısaltıyorKanada'nın Ontario eyaletinin Toronto kentinde yer alan York Üniversitesinde Uluslararası Hukuk Profesörü Heidi Matthews, yapay zekanın, çatışmalarda oynadığı rolü ve bunun uluslararası hukuk açısından doğurduğu riskleri AA muhabirine değerlendirdi.Matthews, yapay zekanın askeri operasyonlarda hedef belirleme süreçlerinde kullanılmasının uluslararası hukuk ve insan hakları çevrelerinde uzun süredir ciddi endişelere yol açtığını belirtti.Uluslararası insancıl hukukta tarafların, siviller ile savaşan unsurlar arasında açık bir ayrım yapmak zorunda olduğunu vurgulayan Matthews, hedef belirleme süreçlerinde doğrulama, önlem alma ve sivillere saldırı öncesinde kaçabilmeleri için yeterli süre tanınması gibi kuralların bulunduğunu dile getirdi.Matthews, "Yapay zeka ile gördüğümüz şey şu; makinelerin hedef belirleme kararlarının alınmasında sadece yoğun şekilde rol oynamakla kalmayıp, insan unsurunu tamamen ortadan kaldırmasa da çok güçlü bir şekilde ortadan kaldırdığı...
Yaptıkları şey, hedef belirleme, önceliklendirme ve saldırı arasındaki süreyi kısaltmak.
Bu, bazen çirkin bir ifadeyle 'öldürme zincirini kısaltmak' olarak adlandırılıyor." ifadelerini kullandı.Bu sayede hedeflemenin daha hızlı hale geldiğini belirten Matthews, bu durumun askeri açıdan avantaj sağlasa da siviller ve hukuki sorumluluklar açısından riskler doğurabileceğini aktardı.Matthews, karar alma süreçlerinde insan unsurunun giderek azalmasının, orantılılık ve hedef doğrulama gibi hukuki gerekliliklere uymayı zorlaştırabileceğini ve bu durumun sivillerin daha fazla zarar görmesine yol açabileceğini dile getirdi.Yapay zeka destekli hedeflemenin İran'da kullanımıMatthews, İran'da sivillerin hayatını kaybettiği bazı saldırılarda yapay zekanın hedefleme süreçlerinde rol oynamış olabileceğine ilişkin endişelere dikkati çekti.ABD ve İsrail'in, İran'a yönelik saldırılarında da yapay zeka tabanlı sistemlerin hedef belirleme süreçlerinde kullanıldığına ilişkin haberler bulunduğunu hatırlatan Matthews, söz konusu saldırılarda yapay zekanın rolünün olup olmadığının araştırılması gerektiğini vurguladı.Matthews, "Yapay zeka araçlarının, ABD tarafından İran'da hedef belirleme ve önceliklendirme amacıyla da yaygın olarak kullanıldığını biliyoruz.
Bu da bize, 150'den fazla kişinin öldüğü ve 100'den fazla kişinin yaralandığı Minab'daki kız ilköğretim okuluna yapılan saldırıya yapay zekanın katkıda bulunmuş olabileceğinden şüphelenmemiz için neden veriyor." diye konuştu.Konuya ilişkin soruşturmaların sonuçlanmasını ve daha fazla bilginin açıklanmasını beklediğini aktaran Matthews "Yapay zeka ve hedef belirleme konusunda bildiklerimiz, başarısızlık oranı ve bu makinelerin hata yapma olasılığı göz önüne alındığında, bu trajik olayda yapay zekanın rol oynayıp oynamadığı ve ne ölçüde rol oynadığı konusunda gerçekten keskin sorular sormak için ciddi nedenler olduğunu düşünüyorum." değerlendirmesinde bulundu.Matthews, hedef belirleme ve önceliklendirme süreçlerinde yapay zekanın yaygın kullanımının sivil hastanelerin yanlış tanımlanması gibi riskler doğurabileceğini belirterek, böylece kararların ciddi hatalara açık hale geldiğinin altını çizdi.Yapay zeka destekli hedeflemenin Gazze'de kullanımıMatthews, "Uluslararası hukuk ve insan hakları toplulukları, özellikle İsrail ordusu tarafından Gazze'de hedef belirleme ve önceliklendirme konusunda yapay zekanın kullanımının büyük ölçüde artması konusunda raporlar yayımlıyor ve eleştirilerde bulunuyor." dedi.İsrail ordusunun, Gazze'de hedef tespiti ve önceliklendirmede "Lavender" ve "Where's Daddy" gibi yapay zeka sistemlerini yoğun biçimde kullandığını hatırlatan Matthews, söz konusu sistemlerin "savaşan unsurları tespit etmek ve evlerine girdiklerinde onları hedef almak için" tasarlandığını kaydetti.Matthews, bu tür uygulamaların çoğu zaman aile üyeleri ve sivillerin de zarar gördüğü "ikincil hasarlara" yol açabildiğini ve bunun uluslararası insancıl hukuk açısından ciddi sorunlar doğurduğunu belirtti.İsrail'in Gazze'deki saldırılarında yapay zeka teknolojilerini kullanmasının teknik hata riskini artırabileceğini vurgulayan Matthews, bu durumun orduların orantılılık değerlendirmelerinde sivil kayıp eşiğini de genişletebileceğini ifade etti.Yapay zeka, çatışmalarda sahte haber üretmeye yardımcı olabilirMatthews, yapay zeka teknolojilerinin son yıllarda hızla yaygınlaşarak günlük yaşamın pek çok alanında olduğu gibi askeri alanda da kullanılmaya başlandığını söyledi.Bu teknolojilerin birçok sektörde hızla benimsenmesine rağmen, yapay zekanın özellikle yaşam ve ölüm kararlarının söz konusu olduğu askeri operasyonlardaki rolüne ilişkin yeterli politika tartışması yürütülmediğini vurgulayan Matthews, bu konuda daha kapsamlı değerlendirmelere ihtiyaç olduğunu dile getirdi.Matthews, yapay zekanın yalnızca askeri operasyonlarda değil, aynı zamanda yanlış bilgi ve dezenformasyonun yayılmasında da önemli bir rol oynayabildiğini belirtti.İran'ın Minab kentinde bir kız ilkokuluna düzenlenen ve çok sayıda kişinin hayatını kaybettiği saldırının ardından sosyal medyada yayılan bazı görüntülerle ilgili yapay zeka araçlarının yanlış değerlendirmelerde bulunduğuna işaret eden Matthews, bu durumun kamuoyunda yanlış bilgilerin yayılmasına yol açabildiğini kaydetti.Matthews, yapay zeka araçlarının zaman zaman hatalı sonuçlar üretebildiğini ve özellikle silahlı çatışma gibi hassas konularda bu durumun ciddi sonuçlar doğurabileceğini vurguladı.Yanlış bilgi ve dezenformasyonun yayılmasının gerçeklerin sorgulanmasına yol açabileceğine dikkati çeken Matthews, silahlı çatışmalar bağlamında bu durumun savaş suçları gibi ciddi iddiaların değerlendirilmesini de zorlaştırabileceğini söyledi.Matthews, "Trump döneminde on yıldan fazla süredir var olan sahte haber fenomeninin bir parçası, şüphe tohumuna, yanlış bilgiye ya da dezenformasyona dayanması.
Bu tohum bir kez ekildiğinde, doğruluk meselesi bir şekilde ortadan kalkar ve böylece gerçeklik ilk kurban haline gelir." ifadelerini kullandı.Sahte haberlerin, çatışmalarda suçları meşruymuş gibi gösterebileceğine ya da gizleyebileceğine işaret eden Matthews, silahlı çatışmalarda savaş suçlarına varan çok ciddi durumlardan bahsederken bu dilin kullanılabileceği konusunda uyarıda bulundu.