Haber Detayı

Yapay zekânın arka bahçesinde neler dönüyor?
Dünya# dunya.com
04/04/2026 00:00 (1 gün önce)

Yapay zekânın arka bahçesinde neler dönüyor?

 Mesele artık sadece “yapay zekâ ne kadar akıllı?” değil. Asıl soru şu: Bu sistemler ne kadar güvenli, ne kadar denetlenebilir. Üstelik küresel ölçekte bunları denetleyecek demokrasiler hiç olmadıkları kadar zayıf. Tüm bu güvenlik tartışmalarının arka planında ise bir pazar gerçeği var.

Rekabet Hukuku Danışmanı RECEP GÜNDÜZBu köşede daha önce ya­yınlanan yazılarda yapay zekânın yalnızca bir tek­noloji değil, aynı zamanda yeni bir ekonomik ve askeri güç oldu­ğunu; bu gücün nasıl yoğunlaştı­ğını, pazar tekelleşmesinin nasıl derinleştiğini ve rekabet hukuku başta olmak düzenleyicilerin bu alanın neresinde kaldığını tartış­mıştım.Geçen hafta yaşanan iki geliş­me ise bu tartışmayı bir adım da­ha ileri taşıdı.

Çünkü artık mesele sadece “yapay zekâ ne kadar akıl­lı?” sorusu değil.

Asıl soru şu: Bu sistemler ne kadar güvenli, ne ka­dar denetlenebilir.

Ayrıca artık hakkında yayınlanan sektör araş­tırması raporu ile Meclisimiz de tartışmalara dahil oldu.

Hadi gelin bu konulara daha ya­kından bakalım.Bir 'insan hatası' ve 29 milyon görüntülenmeSuperBowl’da reklamlar üze­rinden OpenAI’ya, ardından ya­pay zekanın insan onayı olmadan savaş teknolojilerinde kullanıl­ması üzerinden Amerikan Savaş Bakanlığına posta koyan Anthro­pic, geçtiğimiz hafta yapay zekâ destekli kod yazma aracı Claude Code'un iç kaynak kodunu yan­lışlıkla dışarıya sızdırdı.

Bir ya­zılım güncellemesine dahili kul­lanım için tasarlanmış bir dos­yanın eklenmesiyle başlayan bu süreç, yaklaşık 2 bin dosya ve 500 bin satır kodun geliştirici plat­formu GitHub'a kopyalanmasıy­la sonuçlandı.

Şirket meseleyi "güvenlik ihlali değil, paket ha­zırlama hatası" olarak tanımladı.

Ama iş işten geçmişti: İlgili pay­laşım X'te 29 milyonun üzerinde görüntülenmeye ulaşmış, kodun yeniden yazılmış hali GitHub'ın tarihinin en hızlı indirilen depo­su hâline gelmişti.Bunun önemi ne?

Sızdırılan kodun içinde rekabete duyar­lı bilgiler, Claude Code'un yapay zekâ ajanı olarak nasıl çalıştığı­na dair araçlar ve talimatlar var.

OpenAI ve Google gibi rakipler, normalde yıllarca araştırmayla öğrenebilecekleri bilgilere bir­kaç saatte ulaşmış olabilir.

Anth­ropic, yalnızca birkaç hafta ön­ce de benzer bir sızıntı yaşamış­tı: Binlerce dahili dosya kamuya açık sistemlerde saklanıyordu ve bunların arasında yaklaşmakta olan modellere ilişkin belgeler de vardı.

Dahası, ne hikmetse, tüm bu gelişmeler Anthropic'in ABD hükümetinin "tedarik zinciri ris­ki" olarak nitelendirmesine karşı mahkemede mücadele ettiği bir döneme denk geldi.Yapay zekâ güvenliğini misyon edinen bir şirketin kendi güvenli­ğindeki boşluklar… Sektörün iro­nisini daha iyi anlatan bir örnek bulmak güç.Ajanlara güvenmek zorAnthropic meselesinin bu ka­dar yankı uyandırması tesadüf de­ğil.

Yapay zekâ dünyasında "ajan" tartışması giderek öne çıkıyor.

Artık konuşma yapan değil, ba­ğımsız karar veren, araçlara eri­şen, dosya yöneten, e-posta gön­deren sistemlerden söz ediyoruz.Bu bağlamda Agents of Chaos başlıklı çarpıcı bir araştırma dik­kat çekiyor.

Northeastern, Har­vard, MIT ve Stanford'dan yir­mi araştırmacının kaleme aldı­ğı bu çalışmada, otonom yapay zekâ ajanları gerçek bir labora­tuvar ortamında iki hafta boyun­ca farklı senaryolara göre tasar­lanmış koşullara maruz bırakıl­dı.

Ajanlar e-posta hesaplarına, Discord'a, dosya sistemlerine erişebildi.

Sonuçlar kaygı verici: İzinsiz veri ifşaatı, kimlik sahte­ciliği, sistemin kısmen ele geçi­rilmesi, hatta bir ajanın "gizlili­ği korumak adına" kendi e-posta altyapısını çökertmesi gibi vaka­lar belgelendi.

Üstelik bazı ajan­lar görevin tamamlandığını rapor etti; oysa sistem durumu bunun tam tersini gösteriyordu.Araştırma, ajanların bağım­sızlıkları arttıkça hesap verebi­lirlik boşluklarının da derinleş­tiğini gösteriyor.

Kimin talimatı­na uyacak?

Kimin adına hareket edecek?

Bir zarar oluştuğunda kim sorumlu olacak?

Daha kor­kuncu şu: Bu teknolojilerin tüm bu açıklarına rağmen askeri alan­da kullanılıp kullanılmadığından emin değiliz.

Bu sorular, şimdilik hukuki ve kurumsal altyapıdan yoksun.

Üstelik küresel ölçekte bunları denetleyecek demokrasi­ler de uluslararası kuruluşlar da İkinci Dünya Savaşı’ndan sonra hiç olmadıkları kadar zayıf.İşbirliği mi, rekabet mi?

İkisi birdenTüm bu güvenlik ve güvenilir­lik tartışmalarının arka planında bir pazar gerçeği yatıyor: Yapay zekâ geliştirmek son derece pa­halı.

Veri, işlem gücü ve uzman­lık, çok az sayıda aktörün elinde toplanmış durumda.

Bu durum, sektördeki şirketleri rakiplerini bile iş ortağı olmaya itiyor.Mart 2026'da Competition Po­licy International'da yayımlanan bir makale, tam da bu gerilime odaklanıyor.

Portekiz Rekabet Otoritesi'nin çalışmalarından beslenen analiz, yapay zekâ eko­sistemindeki stratejik ortaklık­ların hem zorunlu hem de riskli olduğunu savunuyor: Yüksek ser­maye gereksinimleri, tek başına rekabet edemeyecek şirketlerin ortaklıklar aracılığıyla piyasaya girmesini mümkün kılıyor ancak bu ortaklıklar, yapay zekâ "yığını­nın" birden fazla katmanını kont­rol eden aktörler arasında kurul­duğunda rekabeti kısıtlama teh­likesi taşıyor.

Makalenin temel önerisi ise dengeli bir yaklaşım: Zorunlu bildirim eşiklerinin nes­nel ve ölçülebilir kriterlere da­yanması, yenilikçiliği soğutma­yan açık yönlendirmeler yayım­lanması.

Gelişmekte olan ülkeler için bu daha da kritik; zira belir­siz düzenleyici ortamlar, hem ya­tırımları hem de yerel aktörlerin büyüme fırsatlarını zedeliyor.

Yi­ne aynı ifritten soruya takılıyo­ruz: Küresel ölçekte yoğunlaşmış bu pazarı düzenlemeye çalışmak mümkün mü yoksa akıllı yatırım yönlendirme ve stratejileri ile za­rar azaltmak mı gerekir?Meclis'in masaya yatırdığı raporBu köşede Türkiye'nin yapay zekâ alanındaki konumlanması­nı defalarca sorguladım. "Mutlak kaybedenlerden biri olmamak" meselesi, benim için hâlâ mer­kezî soru olmayı sürdürüyor.Bu soruyu yanıtlamaya ciddi bir katkı yapabilecek bir belge geçti­ğimiz aylarda TBMM'de yayım­landı: Yapay Zekânın Kazanımla­rına Yönelik Atılacak Adımların Belirlenmesi, Hukuki Altyapı­nın Oluşturulması ve Yapay Zekâ Kullanımının Barındırdığı Risk­lerin Önlenmesine İlişkin Meclis Araştırması Komisyonu Raporu.

Sekiz yüzü aşkın sayfalık bu ra­por; teknik tanımlardan algorit­mik önyargıya, Türkiye'nin ulu­sal strateji belgelerinden ulusla­rarası düzenleme çerçevelerine kadar geniş bir yelpazede, son de­rece kapsamlı bir fotoğraf sunu­yor.

Böylesine kapsamlı bir meclis araştırması belgesinin varlığı bile başlı başına önemli.Bu raporu önümüzdeki hafta­larda ayrıntılı biçimde ele alaca­ğım.

Hem Türkiye'nin mevcut durumunu hem de raporun öne­rilerini masaya yatıracağız.

Tür­kiye açısından asıl sınav, rapor yazmak değil öncelik belirlemek olacak.

Çünkü yapay zekâ alanın­da dünyada yarış artık teori dü­zeyinde değil; sızıntılar, güven­lik açıkları, devlet-şirket gerilim­leri ve dev ortaklıklar üzerinden gerçek zamanlı ilerliyor.

Türkiye neyi öncelemeli?

Hukuki çerçeve nereden başlamalı?

Veri, rekabet, güvenlik ve insan kaynağı arasın­da nasıl bir denge kurulmalı?

Asıl zor sorular şimdi başlıyor.Ama daha başlamadan şunu söyleyeyim: Yukarıda anlattığım gelişmelerin hiçbiri, raporun tar­tıştığı meselelerden kopuk değil.

Bir şirketin kaynak kodu sızıntısı ile bir ülkenin yapay zekâ strate­jisi arasındaki mesafe, göründü­ğü kadar büyük değil.

İlgili Sitenin Haberleri