Haber Detayı
Uzlaşmamanın faturasını Anthropic'e kesildi: Pentagon 'riskli' olarak sınıflandırdı
Pentagon ile iş birliği yapmayı reddeden Anthropic, ABD'de Pentagon tarafından "tedarik zinciri riski" olarak sınıflandırıldı. Dev şirketin kararın ardından hukuk mücadelesi vermeye hazırlandığı öğrenildi.
ABD yönetimi ile yapay zeka şirketi Anthropic arasında dikkat çeken bir kriz yaşanıyor.
Pentagon, şirketi resmen "tedarik zinciri riski” olarak sınıflandırırken karar, ABD’de bir teknoloji şirketine yönelik bir değerlendirme yapılması açısından ilk örnek olarak kayda geçti.
Kararın ardından Anthropic yönetimi hukuki mücadele başlatmaya hazırlanıyor."Tedarik zinciri riski" olarak sınıflandırıldıABD Savunma Bakanlığı (Pentagon), yapay zeka şirketi Anthropic’i “tedarik zinciri riski” olarak sınıflandırdı.
Pentagon’dan üst düzey bir yetkili, kararın derhal yürürlüğe girdiğini açıkladı.Yeni adımla birlikte, ABD hükümeti resmen Anthropic 'yeterince güvenli olmayan' sınıfına ekledi.
Şu ana kadar, orduyla çalışan şirketlerin Anthropic ile ticari faaliyet yürütmesine de ciddi sınırlamalar getirilmesi bekleniyor.Şirketten sert tepki: HukuksuzAnthropic’in CEO’su Dario Amodei, kararın hukuka aykırı olduğunu savundu.
Amodei, "Bu kararın hukuksuz olduğuna inanıyoruz ve mahkemede itiraz etmekten başka seçeneğimiz olmadığını düşünüyoruz" ifadelerini kullandı.Şirketin Savunma Bakanlığından bir gün önce gönderilen bir mektupla “riskli tedarikçi” olarak nitelendirildiğini öğrendiğini belirten Amodei, bu sınıflandırmanın kapsamının dar olduğunu söyledi.Amodei ayrıca, yasaların Savunma Bakanlığı’nın tedarik zincirini korurken en az kısıtlayıcı yöntemleri kullanmasını gerektirdiğini vurguladı.Anlaşmazlığın nedeni: Yapay zekanın askeri kullanımıKrizin arkasında, yapay zekanın askeri kullanımına ilişkin tartışmalar bulunuyor.
Anthropic, kitlesel gözetim ve otonom silah sistemleri gibi alanlarda etik kaygılar nedeniyle savunma kurumlarına yapay zeka araçlarına sınırsız erişim verilmesine karşı çıkıyor.Pentagon ise ordunun teknolojiyi tüm yasal amaçlar için kullanabilmesi gerektiğini savunuyor.
Savunma Bakanlığı’ndan bir yetkili, "Ordu, bir tedarikçinin kritik bir teknolojinin yasal kullanımını kısıtlayarak komuta zincirine müdahale etmesine izin veremez" değerlendirmesinde bulundu.Trump yönetimi devreye girdiKrizin büyümesinde ABD Başkanı Donald Trump’ın açıklamaları da etkili oldu.
Trump, Truth Social platformunda yaptığı paylaşımda federal kurumlara Anthropic ile çalışmayı bırakmaları çağrısında bulundu.
Trump paylaşımında, "İhtiyacımız yok, istemiyoruz ve onlarla bir daha asla iş yapmayacağız" ifadelerini kullandı.Savunma Bakanı Pete Hegseth de X platformunda yaptığı açıklamada, Anthropic’in derhal tedarik zinciri riski olarak sınıflandırılacağını ve orduyla çalışan şirketlerin Anthropic ile ticari faaliyet yürütmesinin yasaklanacağını duyurdu.OpenAI devreye girdiAnthropic ile ABD ordusu arasındaki ilişkilerin bozulmasının ardından rakip şirket OpenAI’nin devreye girdiği belirtiliyor.OpenAI CEO’su Sam Altman, Savunma Bakanlığı ile imzaladıkları yeni sözleşmenin, daha önce yapılan yapay zeka anlaşmalarından daha kapsamlı güvenlik güvenceleri içerdiğini açıkladı.Öte yandan teknoloji devi Microsoft da Anthropic ile savunma dışındaki projelerde çalışmaya devam edeceğini duyurdu.Claude uygulaması popülerliğini koruyorTüm bu tartışmalara rağmen Anthropic’in geliştirdiği yapay zeka uygulaması Claude’un popülerliğini koruduğu belirtiliyor.Şirketin açıklamasına göre Claude uygulaması birçok ülkede en çok indirilen yapay zeka uygulamaları arasında yer alıyor.
Anthropic’in baş ürün sorumlusu, her gün bir milyondan fazla kişinin uygulamaya kaydolduğunu açıkladı.Anthropic, 2024 yılından bu yana ABD hükümeti ve devlet kurumları tarafından kullanılan yapay zeka şirketlerinden biri olarak öne çıkıyordu.
Ancak son karar, şirket ile ABD yönetimi arasındaki ilişkilerin ciddi şekilde gerildiğine işaret ediyor.