Haber Detayı

Yapay zeka savaşlarında Oppenheimer anı... Otel odasında biyolojik silah alarmı
özel odatv.com
13/03/2026 07:38 (3 saat önce)

Yapay zeka savaşlarında Oppenheimer anı... Otel odasında biyolojik silah alarmı

Yapay zeka yarışında OpenAI ile Anthropic kamuoyu önünde sert bir rekabete girerken, Google daha sessiz ama istikrarlı bir şekilde ilerliyor. Teknoloji tarihine bakıldığında bu stratejinin yeni olmadığını görüyoruz.

Yapay zeka dünyasında son haftalarda yaşanan gelişmeler, rekabetin artık devletler, ordular ve güvenlik politikaları arasında da şekillendiğini gösteriyor.

OpenAI ile Anthropic arasındaki gerilim kamuoyu önünde büyürken, Google bu kavganın dışında kalmayı tercih etmesiyle dikkat çekiyor.GOOGLE’IN TANIDIK TAKTİĞİAncak Axios’un analizine göre Google bir yandan Pentagon’la işbirliğini genişletiyor, diğer yandan kullanıcı sayısını rakiplerinden daha hızlı artırıyor.

Şirketin, Savunma Bakanlığı’nın yaklaşık 3 milyon kişilik iş gücü için sınıflandırılmamış işlerde kullanılacak yapay zeka araçları geliştirmeye hazırlandığı belirtiliyor.Gelişmeler, Anthropic’in Pentagon tarafından “ulusal güvenlik için tedarik zinciri riski” olarak sınıflandırılması, şirketin bu karara karşı dava açması ve OpenAI’nin Pentagon’la yeni bir anlaşma yaparak askeri yapay zeka alanında öne çıkmaya çalışmasının hemen ardından gerçekleşti.Analistler bu tabloyu “iki büyük oyuncunun birbirini yıprattığı bir rekabet” olarak değerlendiriyor.

Finansal araştırma ve veri platformu PitchBook’tan Harrison Rolfes’e göre böyle durumlarda üçüncü bir oyuncu sessizce ilerleyerek avantaj elde edebilir: Rolfes “İki büyük şirket kavga ederken başka bir şirket onların hatalarından ders çıkararak zirveye çıkabilir” diyor.Teknoloji dünyası aslında Google’ın bu stratejisine daha önce de tanık oldu: 1990’larda internet dünyasını Netscape ile Microsoft arasındaki tarayıcı savaşları belirlerken Google doğrudan bu rekabete girmemiş, bunun yerine arama teknolojisi ve veri altyapısı üzerine yoğunlaşarak daha sonra internetin en güçlü platformlarından birine dönüşmüştü.Şimdi yapay zeka alanında da Google, en yakın rakipleri OpenAI ve Anthropic’e göre daha sessiz bir ilerleme stratejisi izliyor.PEK ÇOK KİŞİ İLK KEZ DUYDU: NEDİR BU ANTHROPICAnthropic, 2021 yılında San Francisco’da kurulan bir yapay zeka şirketi.

Şirketin kurucuları büyük ölçüde OpenAI’dan ayrılan araştırmacılardan oluşuyor.

Kurucu ekipte CEO Dario Amodei ve şirketin başkanı olan kız kardeşi Daniela Amodei’nin yanı sıra Tom Brown, Chris Olah, Sam McCandlish, Jared Kaplan ve Jack Clark gibi isimler yer alıyor.

Bu ekip OpenAI’daki deneyimlerinden sonra yapay zeka geliştirme hızının giderek arttığını ve güvenlik konusunun yeterince ciddiye alınmadığını düşündükleri için Anthropic’i kurduklarını söylüyordu.

Şirket kendisini klasik bir teknoloji girişimi olarak değil, uzun vadeli toplumsal faydayı da hedefleyen bir şirket olarak tanımlıyor.Anthropic’in en önemli ürünü olan Claude ise şirketin geliştirdiği büyük dil modeli ailesinin adı.

Adını bilgi teorisinin kurucularından Claude Shannon’dan alan bu yapay zeka sistemi, ChatGPT’nin en güçlü rakiplerinden biri olarak görülüyor.CLAUDE’UN FARKI NEClaude’un geliştirilmesi 2022 yılında başladı.

İlk model uzun süre güvenlik testlerinden geçirildikten sonra Mart 2023’te geliştiricilere sunuldu.

Ardından Claude 2, Claude 3 ve daha gelişmiş modeller piyasaya çıktı.

Şirketin yaklaşımı diğer yapay zeka laboratuvarlarından biraz farklı.

Anthropic modellerini “constitutional AI” adını verdiği bir yöntemle eğitiyor; yani yapay zekaya belirli etik ilkeler ve davranış kuralları öğretiliyor ve modelin bu çerçeve içinde karar vermesi amaçlanıyor.Claude’un geliştirilmesinde Dario Amodei şirketin stratejik yönünü belirleyen isim olarak öne çıkarken, baş bilim insanı Jared Kaplan model mimarisinin tasarımında etkili… Yapay zeka sistemlerinin iç işleyişini anlamaya yönelik çalışmalarıyla bilinen Chris Olah araştırma ekibinin önemli isimlerinden biri.

Claude’un etik davranışlarını ve güvenlik sınırlarını şekillendiren çalışmalarda görev alanlar arasında Amanda Askell gibi araştırmacılar var.

Daha sonra geliştirilen Claude Code gibi araçlar ise yapay zekanın doğrudan kod yazabilen ve bilgisayar üzerinde görevler gerçekleştirebilen bir asistana dönüşmesini sağladı.BİYOLOJİK SİLAH ALARMITIME dergisi & Nisan 2026 tarihli sayısının kapağını Anthropic’e ayırdı.

Derginin hazırladığı özel dosyada, yakın zamanda şirketin başından geçen bir olayı da aktarıyor.Anthropic’in güvenlik testlerini yapan “red team” ekibi, Claude adlı yapay zeka modelinin yeni bir sürümünün teröristlerin biyolojik silah geliştirmesine yardımcı olabilecek yanıtlar üretebildiğini fark edince konferans için bulundukları Santa Clara’da acil bir toplantı düzenledi.

Otel odasında yapılan çalışma ile krizin çözülmesi sağlanırken yeni modelin yayımlanması 10 gün ertelendi.Anthropic bu olayı yapay zekanın yaratabileceği risklerin bir örneği olarak değerlendiriyor.

Ancak aynı dönemde şirketin teknolojisinin ABD ordusunun operasyonlarında kullanıldığı ortaya çıktı.

Özellikle Venezuela ve İran’a yönelik bazı askeri operasyonların planlanmasında Claude da kullanılmıştı.Bu durum şirketin Pentagon’la ipleri koparan krizine yol açtı: Amodei, yapay zekanın kitlesel gözetim ve insan denetimi olmadan çalışan otonom ölümcül silah sistemlerinde kullanılmasını istemedi, Pentagon ise bu sınırlamaları kabul etmedi.

Görüşmelerin çökmesinin ardından şirket “tedarik zinciri riski” olarak sınıflandırıldı.

Böylece ABD tarihinde ilk kez bir Amerikan teknoloji şirketi ulusal güvenlik gerekçesiyle bu şekilde hedef alınmış oldu.Bu kriz, Amodei’nin yapay zeka vizyonu açısından da dikkat çekici bir dönüm noktası yarattı.Dario AmodeiYAPAY ZEKANIN OPPENHEIMER ANIPentagon’la restleşmesinden bir yıl önce Amodei, “Machines of Loving Grace” başlıklı uzun bir makale yayımlamıştı.

Richard Brautigan’ın bir şiirinden alınan bu başlık, yapay zekanın insanlığın yaşamını radikal biçimde iyileştireceği bir gelecek tasviri sunuyordu.

Amodei’ye göre gelecekte veri merkezlerinde çalışan milyonlarca yapay zeka sistemi, bir dahiler ordusu gibi davranarak bilimsel ilerlemeyi onlarca yıl hızlandırabilirdi.

Bu vizyonda kanser ve bulaşıcı hastalıkların tedavi edilmesi, insan ömrünün uzaması ve büyük bilimsel atılımların hızlanması gibi umut verici senaryolar yer alıyordu.Ancak son gelişmeler bu ütopik tabloya biraz sis çökmesine neden oldu.Atlantic’te yayımlanan bir analizde Amodei’nin yaşadığı durum, atom bombasının geliştirildiği Manhattan Projesi’yle karşılaştırılıyor.

O dönemde bilim insanları nükleer teknolojinin insanlığa barış ve refah getireceğini düşünmüş, ancak kısa süre içinde bu teknolojinin kullanımına dair kararların tamamen devletlerin kontrolüne geçtiğini görmüşlerdi.J.

Robert Oppenheimer ve diğer bilim insanları bombayı geliştirmişti, ancak Hiroşima ve Nagasaki’ye atılması kararında söz sahibi değillerdi.Bugün Amodei de benzer bir ikilemin içinde görünüyor.

Yapay zekanın insanlık için büyük faydalar sağlayabileceğine inanıyor, ancak bu teknolojinin nasıl kullanılacağı konusunda son sözün onu geliştiren mühendislerde olmayabileceği gerçeği giderek daha belirgin hale geliyor.Ve bu nedenle bazı analistler Amodei’nin bugünkü durumunu “yapay zekanın Oppenheimer anı” olarak tanımlıyor.Odatv.com

İlgili Sitenin Haberleri