Haber Detayı

ChatGPT gerçeklik testinde çuvalladı! Çarpıcı araştırma ortaya çıktı
Kadraj i̇kon takvim.com.tr
06/11/2025 15:33 (1 ay önce)

ChatGPT gerçeklik testinde çuvalladı! Çarpıcı araştırma ortaya çıktı

Yapay zekanın yükselişiyle birlikte, doğru bilgiye ulaşmak her zamankinden daha kritik hale geldi. Ancak yayımlanan yeni bir araştırma, ChatGPT gibi büyük dil modellerinin gerçekle kurguyu karıştırdığı yönünde ciddi bulgular ortaya koydu.

Yapay zekanın yükselişiyle birlikte 'doğru bilgi' kavramı yeniden tartışmaya açıldı.

Stanford Üniversitesi'nin Nature Machine Intelligence dergisinde yayımlanan son araştırması, ChatGPT gibi büyük dil modellerinin gerçeği kurgudan ayırt etmede zorlandığını ortaya koydu.

Uzmanlara göre bu durum, hukuk ve tıp gibi yüksek riskli alanlarda 'ciddi yargı hatalarına' yol açabilecek kadar tehlikeli.

Stanford Üniversitesi araştırmacılarına göre bu sistemler, bilginin doğası gereği 'gerçeği gerektirdiğini' tam olarak kavrayamıyor.

Çalışmada, yapay zekaların 'tutarsız muhakeme stratejileri sergilediği' ve 'yüzeysel desen eşleştirmesine' dayandığı vurgulandı.

Yanlış Bilgi Yargı Hatalarına Yol Açabilir Araştırmacılar, yapay zekanın artık hukuk, tıp ve gazetecilik gibi kritik alanlarda aktif olarak kullanıldığına dikkat çekti.

Bilgisayar dilbilimi uzmanı Pablo Haya Coll da benzer bir uyarıda bulundu: 'İnanç ile bilginin karıştırılması, hukuk ve tıp gibi alanlarda ciddi sonuçlar doğurabilir.' 24 Farklı Yapay Zeka Test Edildi | ChatGPT de Listede Stanford ekibi, Claude, ChatGPT, DeepSeek ve Gemini dahil olmak üzere 24 farklı büyük dil modelini 13.000 soru üzerinden test etti.

Sonuçlar, modellerin 'yanlış inançları doğru olandan ayırt etmede' düşük başarı gösterdiğini ortaya koydu.

Yeni nesil modeller (Mayıs 2024 sonrası), gerçek-yanlış ayrımında %91 civarında doğruluk oranına ulaşırken; eski modellerde bu oran %70'lere kadar düştü.

Bulgular, yapay zekanın 'bilginin doğasını anlamada hâlâ eksik kaldığını' doğruluyor.

ChatGPT 'arama motoru' gibi kullanılıyor Adobe Express tarafından yayımlanan son rapor, Amerikalı kullanıcıların %77'sinin ChatGPT'yi bir 'arama motoru' gibi kullandığını ortaya koydu.

Üstelik kullanıcıların üçte biri, ChatGPT'ye Google'dan daha fazla güven duyduğunu söylüyor.

Ancak uzmanlara göre bu durum, kamuoyunun 'yapay zekâ kaynaklı yanlış bilgilere karşı savunmasız' hale gelmesine yol açabilir.

Stanford'un çalışması, yapay zekanın hâlâ insan muhakemesine ihtiyaç duyduğunu bir kez daha gösterdi.

Hukuk, tıp ve medya gibi alanlarda kullanılmadan önce modellerin 'gerçeklik testi'nden geçmesi, gelecekte yaşanabilecek krizlerin önüne geçebilir.

Kaynak: NY Post, Takvim arşiv foto, AA arşiv foto Fazla naziksin ChatGPT!

Anket çarpıcı gerçeği ortaya koydu: Meğer kullanıcıların çoğu yapay zekanın...

İlgili Sitenin Haberleri