Haber Detayı
AI arama araçlarında alıntı ve halüsinasyon krizi! - Teknoloji Haberleri
Columbia Üniversitesi Tow Center for Digital Journalism birimi tarafından Mart 2025'te yayınlanan kapsamlı araştırma, ChatGPT Search, Perplexity, Grok-3 gibi sekiz önde gelen yapay zeka tabanlı generatif arama aracının haber içeriklerini doğru atıf yapma konusunda sistematik başarısızlık gösterdiğini ortaya koydu. 20 haber yayıncısından seçilen 200 makaleden alınan alıntılarla gerçekleştirilen 1600 sorguda, araçlar genel olarak yüzde 60'ın üzerinde yanlış veya eksik yanıt verdi. Premium modeller daha yüksek güvenle ama daha fazla hatalı bilgi sunarken, bazı araçlar robots.txt engellerini aşarak bloke edilmiş içeriklere bile erişebildi....
Yapay zeka teknolojileri son yıllarda olağanüstü bir hızla hayatımıza girerken, bu gelişim yeterince denetlenmediğinde bilgi ekosistemini derinden sarsıyor. Özellikle üretken yapay zeka arama araçları, kullanıcılara hızlı ve akıcı yanıtlar verse de, haber içeriklerinde kaynakları doğru göstermeme, orijinal yayıncılara trafik sağlamama ve hatta engellenmiş içeriklere bile erişme gibi sistematik sorunlar ortaya çıkartıyor.
Columbia Üniversitesi Tow Center for Digital Journalism’ın yayımladığı araştırmada, ChatGPT Search, Perplexity, Grok-3 gibi sekiz popüler aracı 1600 sorguyla test edildi.
Sonuçlar oldukça dikkat çekici oldu.
Genel hata oranı yüzde 60’ın üzerinde, premium modeller daha iddialı ama daha yanlış yanıtlar veriyor, robots.txt engelleri aşılıyor ve lisans anlaşmaları bile doğru atıf garantisi sağlamıyor.
Bu durum hem kullanıcıları yanıltıcı bilgiye maruz bırakıyor hem de haber yayıncılığının geleceğini tehdit ediyor.
Yapay zekanın muazzam potansiyeli, ancak şeffaf kurallar, zorunlu kaynak gösterme ve güçlü denetim mekanizmalarıyla sürdürülebilir hale gelebilir.
KONTROL EDİLEMEYEN GELİŞİM BİLGİ GÜVENİLİRLİĞİNİ TEHLİKEYE SOKUYOR Yapay zeka modelleri kısa sürede metin yazmaktan gerçek zamanlı aramaya kadar geniş bir yelpazeye ulaştı.
Ancak bu hız, genellikle yetersiz test, aceleci geliştirme ve etik denetim eksikliğiyle ilerledi. Üretken yapay zekalı arama araçları internetteki içeriği tarayıp özetleyerek kullanıcıya doğrudan bilgi sunmayı hedeflerken, bu süreçte orijinal haber kaynaklarının emeğini hiçe sayan bir yapı ortaya çıktı.
Yayıncılar, içeriklerinin AI tarafından yeniden paketlenip kaynak gösterilmeden kullanıldığını, web trafiğinin kesildiğini ve gelir kaybettiklerini vurguluyor.
Tow Center’ın yeni çalışması, sorunun artık tek bir modele özgü olmadığını, tüm büyük generatif arama araçlarında yapısal bir sorun olduğunu kanıtlıyor. 1600 SORGUDA YÜZDE 60’TAN FAZLA HATA ORANI Araştırmada şu sekiz AI uygulamaları incelendi: OpenAI ChatGPT Search, Perplexity, Perplexity Pro, DeepSeek Search, Microsoft Copilot, xAI Grok-2, Grok-3 (beta), Google Gemini... 20 farklı haber sitesinden (AI erişimini engelleyenler, lisans verenler, dava açanlar dahil) rastgele seçilen 10’ar makaleden alınan doğrudan alıntılarla toplam 1600 sorgu yapıldı.
Araçlardan alıntıya ait makalenin başlığı, yayıncısı, tarihi ve orijinal bağlantısı istendi.
Sonuç ise çarpıcı oldu.
Genel olarak sorguların %60’ından fazlası yanlış veya eksik yanıtlandı.
En iyi performans Perplexity’de (%37 hata).
En kötü performans ise yüzde 94 hata ile Grok-3’te oldu!
Araçların çoğu “bilmiyorum” demek yerine yanlış bilgi üretmeyi tercih etti ve hatalarını yüksek bir özgüvenle sundu...
PREMİUM MODELLER DAHA PAHALI, DAHA YANLI ŞÜcretli sürümler (Perplexity Pro, Grok-3 gibi) ücretsiz olanlara kıyasla daha fazla doğru yanıt verse de, aynı zamanda çok daha yüksek oranda “kendinden emin ama yanlış” cevap verdi.
Bu modellerin akıcı ve otoriter dili, kullanıcıların hatalı bilgiyi doğru kabul etmesine neden oluyor ve ciddi bir güven yanılsaması yaratıyor.
SAHTE KAYNAK SORUNU!
Bazı araçlar (ChatGPT, Perplexity, Copilot, Gemini) crawler isimlerini açıklarken, Grok modelleri açıklamıyor.
Yayıncıların robots.txt dosyasıyla engellediği içeriklere bile erişim sağlanabiliyor.
Araçlar sıklıkla sahte linkler, kopya içerikler veya sendikasyon versiyonları gösteriyor.
Lisans anlaşması yapılmış yayınların içerikleri bile doğru şekilde atıf yapılmadan kullanılıyor.Tow Center’ın önceki araştırmalarıyla tutarlı olan bu sonuçlar, sorunun tek bir şirkete veya modele özgü olmadığını, generatif arama ekosisteminin genelinde yapısal bir kriz olduğunu gösteriyor.Haber yayıncılığı ve güvenilir bilgi akışı için acil şeffaflık, zorunlu kaynak gösterme kuralları ve yayıncı haklarının korunması gerekiyor.
Grafik: Can Baytak