Haber Detayı

Yapay zeka, gerçek hastalar karşısında neden sınıfta kalıyor?
Güncel chip.com.tr
15/02/2026 10:29 (3 saat önce)

Yapay zeka, gerçek hastalar karşısında neden sınıfta kalıyor?

Konu sağlık olduğunda ve kontrollü senaryolarda yüksek doğruluk yakalayan yapay zeka modelleri, gerçek kullanıcıların başvurusunda aynı başarıyı gösteremedi. Araştırmacılar, sistemlerin kritik detayları derinleştiremediğine dikkat çekiyor.

Hastalık belirtileri hissettiğimizde ilk iş olarak internete sarılmak artık kaçınılmaz bir alışkanlık haline geldi.

Özellikle son dönemde hayatımıza giren yapay zeka sohbet robotları, her soruya kendinden emin cevaplar verdiği için pek çok kişiye güvenilir birer dijital doktor gibi görünüyor.Ancak yeni yapılan kapsamlı bir araştırma, bu robotların tıp konusundaki sözde uzmanlığının ne kadar çabuk yerle bir olduğunu gözler önüne seriyor.

Ne yazık ki ortaya çıkan sonuçlar oldukça vahim.

Yapay zeka tek başına başarılı görünse de iş gerçek hastalara ve insan faktörüne geldiğinde sınıfta kalıyor.Araştırmacılar ilk aşamada popüler modelleri kontrollü testlere tabi tuttu.

ChatGPT-4o, Llama 3 ve Command R+ gibi modeller, önlerine konulan tıbbi senaryolara yüzde 94 gibi etkileyici bir oranla doğru teşhis koydu.

Fakat sıra bu hastalıklar için doğru tedaviyi önermeye geldiğinde başarı oranı bir anda yüzde 56’ya geriledi.

Asıl çarpıcı sonuçlar ise işin içine gerçek insanlar girdiğinde ortaya çıktı. 1298 katılımcının yer aldığı deneyde, insanların bir kısmı tıbbi durumlarını yapay zeka ile çözmeye çalışırken, bir kontrol grubu sadece geleneksel yöntemlerle araştırma yaptı.

Sonuçta, yapay zeka kullanmayan grup, özellikle hayati tehlike arz eden "kırmızı bayrak" senaryolarında yapay zeka kullananlara göre çok daha başarılı bir performans sergiledi.Yapay zeka neden hata yapıyor?Bir yapay zeka modelinin tıbbi yeterlilik sınavlarını geçmesi, gerçek bir hastaya ne yapması gerektiğini söyleyebileceği anlamına gelmiyor.

Araştırma kayıtları incelendiğinde, sistemin nerede tıkandığı net bir şekilde görülüyor.

Öncelikle, kullanıcılar doktorların sorduğu kritik detaylı soruları bilmedikleri için yapay zekaya eksik bilgi veriyor.

Robotlar ise bir doktor gibi eksikleri sorgulamak yerine eldeki kısıtlı veriyle tahmin yürütüyor.

Daha da kötüsü, botlar bazen kullanıcıyı yanlış yönlendirebiliyor ve örneğin İngiltere’deki bir kullanıcıya Avustralya’nın acil servis numarasını verebiliyor ya da hayati bir beyin kanaması senaryosunda bir kullanıcıya “hastaneye git” derken, neredeyse aynı belirtileri yazan bir diğerine “karanlık bir odada uzan” tavsiyesi verebiliyor.Sorun sadece sıradan kullanıcılarla da sınırlı değil.

Tıp dünyasındaki profesyoneller de bu araçları kullanmaya başladı ve bu durum 2026 yılının en büyük sağlık teknolojisi risklerinden biri haline geldi.

Tıbbi güvenlik kuruluşu ECRI, yapay zekanın yanlış kullanımını yılın en büyük tehlikesi olarak ilan etti.

Uzmanlar, bu modellerin aslında bir “düşünme” sürecine sahip olmadığını, sadece devasa veri setleri üzerinden bir sonraki kelimeyi tahmin ettiklerini vurgulayarak hatırlatıyor.

Hatta Google'ın tıbbi amaçlı geliştirdiği Med-Gemini modelinin, iki farklı organın adını birleştirerek gerçekte var olmayan bir vücut parçası “uydurduğu” görüldü.

Yapay zeka bu yanlış bilgileri o kadar otoriter ve kendinden emin bir tonda sunuyor ki, doktorlar bile bazen eleştirel süzgeçten geçirmeden bu önerilere kapılabiliyor.Şirketler bu araçları büyük reklam kampanyalarıyla pazarlamaya devam etse de, tıp gibi hata payı olmayan bir alanda yapay zekaya körü körüne güvenmek büyük bir risk.

En azından şimdilik, sağlığınızla ilgili kararlarda gerçek bir doktora danışmak en güvenli yol olmaya devam ediyor.

İlgili Sitenin Haberleri