Haber Detayı
Yapay zekânın arka bahçesinde neler dönüyor?
Mesele artık sadece “yapay zekâ ne kadar akıllı?” değil. Asıl soru şu: Bu sistemler ne kadar güvenli, ne kadar denetlenebilir. Üstelik küresel ölçekte bunları denetleyecek demokrasiler hiç olmadıkları kadar zayıf. Tüm bu güvenlik tartışmalarının arka planında ise bir pazar gerçeği var.
Rekabet Hukuku Danışmanı RECEP GÜNDÜZBu köşede daha önce yayınlanan yazılarda yapay zekânın yalnızca bir teknoloji değil, aynı zamanda yeni bir ekonomik ve askeri güç olduğunu; bu gücün nasıl yoğunlaştığını, pazar tekelleşmesinin nasıl derinleştiğini ve rekabet hukuku başta olmak düzenleyicilerin bu alanın neresinde kaldığını tartışmıştım.Geçen hafta yaşanan iki gelişme ise bu tartışmayı bir adım daha ileri taşıdı.
Çünkü artık mesele sadece “yapay zekâ ne kadar akıllı?” sorusu değil.
Asıl soru şu: Bu sistemler ne kadar güvenli, ne kadar denetlenebilir.
Ayrıca artık hakkında yayınlanan sektör araştırması raporu ile Meclisimiz de tartışmalara dahil oldu.
Hadi gelin bu konulara daha yakından bakalım.Bir 'insan hatası' ve 29 milyon görüntülenmeSuperBowl’da reklamlar üzerinden OpenAI’ya, ardından yapay zekanın insan onayı olmadan savaş teknolojilerinde kullanılması üzerinden Amerikan Savaş Bakanlığına posta koyan Anthropic, geçtiğimiz hafta yapay zekâ destekli kod yazma aracı Claude Code'un iç kaynak kodunu yanlışlıkla dışarıya sızdırdı.
Bir yazılım güncellemesine dahili kullanım için tasarlanmış bir dosyanın eklenmesiyle başlayan bu süreç, yaklaşık 2 bin dosya ve 500 bin satır kodun geliştirici platformu GitHub'a kopyalanmasıyla sonuçlandı.
Şirket meseleyi "güvenlik ihlali değil, paket hazırlama hatası" olarak tanımladı.
Ama iş işten geçmişti: İlgili paylaşım X'te 29 milyonun üzerinde görüntülenmeye ulaşmış, kodun yeniden yazılmış hali GitHub'ın tarihinin en hızlı indirilen deposu hâline gelmişti.Bunun önemi ne?
Sızdırılan kodun içinde rekabete duyarlı bilgiler, Claude Code'un yapay zekâ ajanı olarak nasıl çalıştığına dair araçlar ve talimatlar var.
OpenAI ve Google gibi rakipler, normalde yıllarca araştırmayla öğrenebilecekleri bilgilere birkaç saatte ulaşmış olabilir.
Anthropic, yalnızca birkaç hafta önce de benzer bir sızıntı yaşamıştı: Binlerce dahili dosya kamuya açık sistemlerde saklanıyordu ve bunların arasında yaklaşmakta olan modellere ilişkin belgeler de vardı.
Dahası, ne hikmetse, tüm bu gelişmeler Anthropic'in ABD hükümetinin "tedarik zinciri riski" olarak nitelendirmesine karşı mahkemede mücadele ettiği bir döneme denk geldi.Yapay zekâ güvenliğini misyon edinen bir şirketin kendi güvenliğindeki boşluklar… Sektörün ironisini daha iyi anlatan bir örnek bulmak güç.Ajanlara güvenmek zorAnthropic meselesinin bu kadar yankı uyandırması tesadüf değil.
Yapay zekâ dünyasında "ajan" tartışması giderek öne çıkıyor.
Artık konuşma yapan değil, bağımsız karar veren, araçlara erişen, dosya yöneten, e-posta gönderen sistemlerden söz ediyoruz.Bu bağlamda Agents of Chaos başlıklı çarpıcı bir araştırma dikkat çekiyor.
Northeastern, Harvard, MIT ve Stanford'dan yirmi araştırmacının kaleme aldığı bu çalışmada, otonom yapay zekâ ajanları gerçek bir laboratuvar ortamında iki hafta boyunca farklı senaryolara göre tasarlanmış koşullara maruz bırakıldı.
Ajanlar e-posta hesaplarına, Discord'a, dosya sistemlerine erişebildi.
Sonuçlar kaygı verici: İzinsiz veri ifşaatı, kimlik sahteciliği, sistemin kısmen ele geçirilmesi, hatta bir ajanın "gizliliği korumak adına" kendi e-posta altyapısını çökertmesi gibi vakalar belgelendi.
Üstelik bazı ajanlar görevin tamamlandığını rapor etti; oysa sistem durumu bunun tam tersini gösteriyordu.Araştırma, ajanların bağımsızlıkları arttıkça hesap verebilirlik boşluklarının da derinleştiğini gösteriyor.
Kimin talimatına uyacak?
Kimin adına hareket edecek?
Bir zarar oluştuğunda kim sorumlu olacak?
Daha korkuncu şu: Bu teknolojilerin tüm bu açıklarına rağmen askeri alanda kullanılıp kullanılmadığından emin değiliz.
Bu sorular, şimdilik hukuki ve kurumsal altyapıdan yoksun.
Üstelik küresel ölçekte bunları denetleyecek demokrasiler de uluslararası kuruluşlar da İkinci Dünya Savaşı’ndan sonra hiç olmadıkları kadar zayıf.İşbirliği mi, rekabet mi?
İkisi birdenTüm bu güvenlik ve güvenilirlik tartışmalarının arka planında bir pazar gerçeği yatıyor: Yapay zekâ geliştirmek son derece pahalı.
Veri, işlem gücü ve uzmanlık, çok az sayıda aktörün elinde toplanmış durumda.
Bu durum, sektördeki şirketleri rakiplerini bile iş ortağı olmaya itiyor.Mart 2026'da Competition Policy International'da yayımlanan bir makale, tam da bu gerilime odaklanıyor.
Portekiz Rekabet Otoritesi'nin çalışmalarından beslenen analiz, yapay zekâ ekosistemindeki stratejik ortaklıkların hem zorunlu hem de riskli olduğunu savunuyor: Yüksek sermaye gereksinimleri, tek başına rekabet edemeyecek şirketlerin ortaklıklar aracılığıyla piyasaya girmesini mümkün kılıyor ancak bu ortaklıklar, yapay zekâ "yığınının" birden fazla katmanını kontrol eden aktörler arasında kurulduğunda rekabeti kısıtlama tehlikesi taşıyor.
Makalenin temel önerisi ise dengeli bir yaklaşım: Zorunlu bildirim eşiklerinin nesnel ve ölçülebilir kriterlere dayanması, yenilikçiliği soğutmayan açık yönlendirmeler yayımlanması.
Gelişmekte olan ülkeler için bu daha da kritik; zira belirsiz düzenleyici ortamlar, hem yatırımları hem de yerel aktörlerin büyüme fırsatlarını zedeliyor.
Yine aynı ifritten soruya takılıyoruz: Küresel ölçekte yoğunlaşmış bu pazarı düzenlemeye çalışmak mümkün mü yoksa akıllı yatırım yönlendirme ve stratejileri ile zarar azaltmak mı gerekir?Meclis'in masaya yatırdığı raporBu köşede Türkiye'nin yapay zekâ alanındaki konumlanmasını defalarca sorguladım. "Mutlak kaybedenlerden biri olmamak" meselesi, benim için hâlâ merkezî soru olmayı sürdürüyor.Bu soruyu yanıtlamaya ciddi bir katkı yapabilecek bir belge geçtiğimiz aylarda TBMM'de yayımlandı: Yapay Zekânın Kazanımlarına Yönelik Atılacak Adımların Belirlenmesi, Hukuki Altyapının Oluşturulması ve Yapay Zekâ Kullanımının Barındırdığı Risklerin Önlenmesine İlişkin Meclis Araştırması Komisyonu Raporu.
Sekiz yüzü aşkın sayfalık bu rapor; teknik tanımlardan algoritmik önyargıya, Türkiye'nin ulusal strateji belgelerinden uluslararası düzenleme çerçevelerine kadar geniş bir yelpazede, son derece kapsamlı bir fotoğraf sunuyor.
Böylesine kapsamlı bir meclis araştırması belgesinin varlığı bile başlı başına önemli.Bu raporu önümüzdeki haftalarda ayrıntılı biçimde ele alacağım.
Hem Türkiye'nin mevcut durumunu hem de raporun önerilerini masaya yatıracağız.
Türkiye açısından asıl sınav, rapor yazmak değil öncelik belirlemek olacak.
Çünkü yapay zekâ alanında dünyada yarış artık teori düzeyinde değil; sızıntılar, güvenlik açıkları, devlet-şirket gerilimleri ve dev ortaklıklar üzerinden gerçek zamanlı ilerliyor.
Türkiye neyi öncelemeli?
Hukuki çerçeve nereden başlamalı?
Veri, rekabet, güvenlik ve insan kaynağı arasında nasıl bir denge kurulmalı?
Asıl zor sorular şimdi başlıyor.Ama daha başlamadan şunu söyleyeyim: Yukarıda anlattığım gelişmelerin hiçbiri, raporun tartıştığı meselelerden kopuk değil.
Bir şirketin kaynak kodu sızıntısı ile bir ülkenin yapay zekâ stratejisi arasındaki mesafe, göründüğü kadar büyük değil.