Haber Detayı
Denetim kalitesini gerçekten artırıyor mu?
Yapay zekâ denetimin kalitesini gerçekten artırıyor mu sorusuna akademik çalışmalar ve sektör verileri büyük oranda evet yanıtını veriyor. Ancak elde edilen kazanımlara rağmen, yapay zekânın denetim süreçlerinde kullanımı bazı zorlukları da beraberinde getiriyor.
Deloitte Türkiye Denetim Hizmetleri Ortağı Ali ÇİÇEKLİ - Deloitte Türkiye Denetim Hizmetleri Direktörü Yasemin YALÇINYazı dizimizin ilk bölümünde, yapay zekânın denetçi istihdamını azaltmadığını; aksine mesleğin niteliğini dönüştürdüğünü ele almıştık.
Sıradaki temel soru ise şu: Yapay zekâ denetimin kalitesini gerçekten artırıyor mu?
Daha düşük hata oranları, daha yüksek doğruluk düzeyi ve daha güvenilir denetim çıktıları mümkün mü?Akademik çalışmalar ve sektör verileri bu soruya büyük ölçüde “evet” yanıtını veriyor.
Ancak ortaya çıkan bu olumlu tablo, beraberinde önemli yapısal ve etik tartışmaları da gündeme getiriyor.Bağımsız denetim sektörüne geçmeden önce, yapay zekânın denetim faaliyetlerini genel çerçevede nasıl etkilediğini görmek açısından Sayıştay’ın Aralık 2025’te yayımladığı kapsamlı araştırma, önemli bir referans noktası sunuyor.Kamuda yapay zekâ deneyimi: Sayıştay bulgularıTürkiye Sayıştay Dergisi’nde yayımlanan Özdemir ve Yelboğa’nın (2025) çalışması, yapay zekâ uygulamalarının denetim süreçlerinde dönüştürücü bir rol üstlenebileceğini ortaya koyuyor.
Literatür taraması ve ülke uygulamaları; anomali tespiti, belge işleme, risk odaklı planlama ve mevzuata uyum kontrollerinde yapay zekânın önemli katkılar sağladığını gösteriyor.Brezilya, Hindistan ve Filipinler gibi ülkelerde milyonlarca işlemin çok kısa sürede analiz edilebilmesi, denetçilerin tüm veri evrenini kapsayacak şekilde inceleme yapabilmesine ve kritik risk alanlarına daha erken ve daha isabetli biçimde odaklanmasına olanak sağlıyor.
Bu yaklaşım sonucunda denetim kapsamı genişliyor, hata ve usulsüzlüklerin erken aşamada tespiti kolaylaşıyor.Akademik araştırmalar, yapay zekâ kullanımının denetim kalitesini soyut bir vaat olmaktan çıkararak ölçülebilir kazanımlara dönüştürdüğünü ortaya koyuyor.
Bu kazanımlar ağırlıklı olarak iki temel başlık altında toplanıyor: hata tespiti ve değerlendirme doğruluğu.
Law & Shen’in (2025) araştırma sonuçlarının özeti şu şekilde:Finansal hatalarda düşüşCalifornia Berkeley, Drexel ve San Francisco üniversitelerinden araştırmacıların, Los Angeles merkezli AI for Good Foundation işbirliğiyle yürüttüğü ve Springer bünyesinde yayımlanan çalışma, 400 binden fazla denetçi özgeçmişini analiz ediyor.
Bulgulara göre, yapay zekâ yatırımı yapan firmalarda finansal tablo düzeltmelerinde yaklaşık yüzde 5 oranında azalma gözlemleniyor.
Gelir tanıma ve tahakkuk hatalarındaki düşüş ile SEC soruşturmalarına yol açabilecek büyük yanlışlıkların daha erken aşamada tespit edilmesi, çalışmanın öne çıkan sonuçları arasında yer alıyor.Bu sonuçlar, yapay zekânın insan denetçilerin manuel olarak inceleyemeyeceği büyüklükte veri setlerini analiz ederek riskleri daha görünür ve yönetilebilir kıldığını gösteriyor.Kritik yargılarda daha yüksek doğrulukLaw ve Shen’in çalışması, yapay zekânın özellikle profesyonel yargı gerektiren alanlarda fark yarattığını ortaya koyuyor.
İşletmenin sürekliliğine ilişkin değerlendirmeler daha isabetli yapılırken, iç kontrol zayıflıkları ve büyük finansal düzeltmeler daha erken aşamada tespit edilebiliyor.
Bu da denetim faaliyetlerinin yalnızca geçmiş dönem verilerine odaklanmakla sınırlı kalmayıp işletmenin geleceğe yönelik risklerini de daha sağlıklı biçimde analiz edebilmesini sağlıyor.Özetle yapay zekâ, sadece rutin hataların tespitini değil, şirketlerin sürdürülebilirliğini tehdit eden kritik risk unsurlarının daha erken görünür hale gelmesini de destekliyor.Beraberinde gelen zorluklarElde edilen kazanımlara rağmen, yapay zekânın denetim süreçlerinde kullanımı önemli zorlukları da beraberinde getiriyor.
Babson College tarafından yürütülen kapsamlı mülakat çalışmaları, bu zorlukları altı ana başlık altında topluyor.Şeffaflık ve açıklanabilirlik: Derin öğrenme modelleri, birçok durumda ürettikleri çıktılara hangi karar adımlarıyla ulaştıklarını açıklamakta zorlanıyor.
Denetçiler sonucu görüyor ancak bu sonucun arkasındaki karar mantığını tam olarak anlayamayabiliyor.
Bu durum, profesyonel şüpheciliğin zayıflaması riskini beraberinde getirirken yapay zekâ çıktılarının denetim kanıtı olarak nasıl değerlendirileceği sorusunu da gündeme taşıyor.
Bu nedenle, kullanılan modelin karar mekanizmasının açıklanabilir ve şeffaf olması giderek daha kritik hale geliyor.Algoritmik yanlılık riski: Yapay zekâ eğitiminde kullanılan verilerin hedef popülasyonu ne ölçüde temsil ettiği ve ortaya çıkan sonuçların algoritmik yanlılıktan arındırılıp arındırılamadığı, önemli bir tartışma alanı olarak öne çıkıyor.
Stanford Üniversitesi’nde yürütülen bir çalışmada, eğitim verisi büyüdükçe bazı görsellerin “suçlu” olarak sınıflandırılma olasılığının arttığı tespit edilmiştir.
Bunun temel nedeni, veri setlerine gömülü önyargılar ve kalıplaşmış temsil biçimleridir.
Söz konusu örnek, denetimde de benzer risklerin göz ardı edilmemesi gerektiğini hatırlatıyor.Veri gizliliği: Hassas müşteri verilerinin istem dışı ifşa edilme riski, yapay zekâ araçlarının kurumsal süreçlerde kullanımına ilişkin en kritik başlıklardan biridir.
Özellikle bu araçların, kullanıcı verilerini yalnızca model performansını geliştirmek amacıyla kullanıp kullanmadığı ve söz konusu verilerin yeterli düzeyde anonimleştirilmediği konusu ciddi bir risk alanı oluşturuyor.Doğruluk, etkinlik ve güvenilirlik: Model stabilitesi ve yeni bilgilere uyum, bir diğer kritik başlık.
Yapay zekâ araçlarının doğruluk ve etkinlik düzeyinin nasıl ölçüleceği, küresel denetim uygulamalarında kullanılan modellerin nasıl belgeleneceği ve zaman içinde farklı sonuçlar üretebilen sistemlere denetçilerin hangi çerçevede güvenebileceği konusu henüz netlik kazanmış değil.
Bu belirsizlik, standartlaştırılmış performans ölçüm kriterlerine ve model yönetişimi süreçlerine duyulan ihtiyacı daha görünür hale getiriyor.İnsan faktörü ve aşırı güven riski: Yapay zekâ sistemlerine aşırı güven duyulması, denetçi yanlılığı riskini artırabiliyor.
Denetçilerin, belirli bir denetim çalışmasının kendine özgü koşullarını yeterince dikkate almadan yapay zekâ tarafından üretilen çıktıları genellemesi, profesyonel yargının zayıflamasına yol açabiliyor.Yapay zekâ rehberliği ihtiyacı: Basit otomasyon araçlarından gelişmiş yapay zekâ uygulamalarına kadar uzanan geniş yelpazede, denetim faaliyetlerini yönlendirecek bütüncül bir yapay zekâ yönetişim çerçevesinin eksikliği dikkat çekiyor.
Denetçi düşünce süreçlerinin yapay zekâ sistemlerine nasıl aktarılacağı ve profesyonel karar alma mekanizmalarının hangi ilkeler doğrultusunda modellenebileceği, sektörde üzerinde çalışılması gereken temel başlıklar arasında yer alıyor.Zorluklara karşı geliştirilen çözüm önerileriBabson College tarafından yapılan çalışmalar, yapay zekâ kullanımına ilişkin karşılaşılan zorluklara yönelik çeşitli çözüm yaklaşımları sunuyor.
Bunlar arasında açıklanabilirlik tekniklerinin (LIME, Shapley gibi) kullanılması, algoritmik yanlılığı izleyen ve denetleyen araçların geliştirilmesi ile güçlü veri gizliliği ve siber güvenlik mimarilerinin oluşturulması öne çıkan başlıklar arasında yer alıyor.Ayrıca modellerin yalnızca belirli zaman aralıklarında yeniden eğitilmesi, denetim süreci boyunca dinamik öğrenme mekanizmalarının sınırlandırılması ve denetçilerin veri akışını uçtan uca anlayabilecek şekilde yetkinliklerini geliştirilmesi öneriliyor.
Düzenleyici ve denetleyici kurumların (örneğin KGK) yapay zekâ kullanımına ilişkin süreçler hakkında bilgilendirilmesi de bu çerçevenin önemli bir parçası olarak değerlendiriliyor.Teknoloji güçlü ama merkezde hâlâ insan varMevcut bulgular, yapay zekânın denetim kalitesini anlamlı ölçüde artırdığını ortaya koyuyor.
Hata oranları düşüyor, riskler daha erken aşamada tespit ediliyor ve denetim kapsamı daha büyük veri setlerini içerecek şekilde genişliyor.Ancak bu başarı, teknolojinin sınırlarının farkında olunmasını gerektiriyor.
Algoritmik yanlılık, veri kalitesi, açıklanabilirlik eksikliği ve aşırı güven riski yönetilmediği sürece, yapay zekâ denetim süreçlerini güçlendirmek yerine yeni risk alanları yaratma potansiyeline de sahip.
Değişmeyen temel gerçek şu: Denetimin kalitesi nihai olarak insan denetçinin profesyonel yargısına, eleştirel düşünme becerisine ve etik duruşuna dayanıyor.
Yapay zekâ güçlü bir destek aracı ancak son sözü söyleyen hâlâ insan.