Haber Detayı
Asıl sorun ‘dünyanın sonu’ değil
Geleceğin iş dünyasında insanlar ve otonom ajanlar mesai arkadaşı olmaya hazırlanırken insanlık için en büyük risk kıyamet senaryolarımı yoksa eleştirel düşünme kaybı mı? Cambridge Üniversitesi’nde yapay zekâ etiği üzerine çalışan Oya Geron ile algoritmaların şeffaflığını, “kara kutu” problemini ve teknolojiyi bir araçtan çok bir “düşünme ortağına” dönüştürmenin yollarını konuştuk.
Günlük yaşamlarımıza hızla giren yapay zekâ halen geleceğe yönelik pek çok soru işaretini içinde barındırıyor.
Çalışma yaşamı ve etik alanlarında pek çok bilinmezi beraberinde getiren yapay zekâyı, kitlelere anlatmak için çalışmalar yürüten Oya Geron kendisini, “yapay zekâ, liderlik ve değişim yönetimi alanlarında çalışan bir danışman, konuşmacı ve eğitmen” olarak tanımlıyor.
Cambridge Üniversitesi’nde yapay zekânın toplum, etik ve insan muhakemesi üzerindeki etkilerine yönelik akademik çalışmalar yapan Geron ile bu alanın insanlığın önüne getirebileceği olası fırsatları ve sorunları konuştuk. - Bugünlerde tarihi bir dönüşümün içinde miyiz?
İleride tarih kitaplarının yazacağı günlerden mi geçiyoruz?
Kesinlikle bir kırılma noktasındayız.
Ancak bu sadece teknolojik bir sıçrama değil, düşünme ve karar alma biçimlerimizin yeniden şekillendiği bir dönem.
Gelecekte bugünler, yapay zekânın ne yaptığıyla değil, insanın neleri algoritmaya devrettiği ve nerede durduğuyla anılacak.
Asıl hikâye yapay zekânın yetenekleri değil, bizim bu süreçte yaptığımız tercihler ve teknolojiyle kurduğumuz düşünsel ortaklık olacak. - Yapay zekânın korkutucu yönü kitleleri ne kadar uzak tutuyor?
Bu korku doğal ancak distopik anlatıların özellikle Türkiye’de yapay zekâ kullanımını ciddi biçimde engellediğini düşünmüyorum.
Aksine toplum olarak denemeye açığız.
Asıl sorun gerçekten tartışmamız gereken risklerin sinema senaryolarından çok daha yakın olması.
Önyargı, işgücünün dönüşümü, veri güvenliği ve yapay zekâya aşırı güven gibi başlıklar bugün hayatımızda.
Uzak geleceğin felaketlerine odaklanmak bugünün çözülmesi gereken risklerini gölgeliyor.
Mesele dünyanın sonu değil bugün yapay zekâyı nasıl yönettiğimiz.
YAPAY ZEKÂ ADIMLARI - Son kullanıcılar yapay zekâyı üretken ve işlevsel kullanmak için hangi adımları atabilir?
Sorun hangi aracı kullandığınız değil nasıl düşündüğünüz ve ifade ettiğiniz.
İlk adım oynamak: Denemek, yanılmak ve tekrar denemek.
Mükemmel prompt arayışından çok iterasyon refleksi önemli.
İkinci kritik alan dil: Problemi kendi kelimelerinizle tarif edebilmek ve beklentiyi netleştirmek temel bir yetkinlik.
Üçüncü olarak bağlantı kurma geliyor: Metin, görsel, video gibi farklı alanlarda hangi modelin nerede etkili olduğunu keşfetmek gerekiyor.
Son adım ise zihinsel bir eşik: “Bunu kendim çözerim” yerine “Yapay zekâ ile daha iyi çözebilir miyim?” diye sormak.
Sahada gördüğüm net fark teknoloji bilgisi değil, ne istediğini bilmek, bunu ifade edebilmek ve yapay zekâyı bir düşünme ortağı gibi konumlayabilmek.
AI-FREE TESTLER GELİYOR - Bize birkaç yıl sonrasının tasvirini yapsanız yapay zekâyı gündelik yaşamın hangi alanlarında kullanıyor olacağız?
Geleceğin iş dünyası artık sadece “dijital” değil bilişsel bir ortaklık üzerine kurulacak.
Çok yakında organizasyon şemalarımızda insanlar kadar otonom ajanlar ve botlar mesai arkadaşı olarak yer alacak.
İş yapış biçimimiz insanın stratejik aklıyla yapay zekânın hızının iç içe geçtiği bir orkestraya dönüşecek.
Ancak bu dönüşümün bir bedeli var: Eleştirel düşünme kaybı.
Yapay zekâya aşırı güven zihinsel bir tembelliğe yol açabilir.
Bu yüzden gelecekte şirketlerin çalışanların bağımsız düşünebildiğini ölçmek için “AI-Free” testler uyguladığını görebiliriz.
Aynı zamanda yapay zekâ kaynaklı davaların artacağı bir döneme giriyoruz.
Bu noktada insan gözetimi ve etik pusula operasyonel bir zorunluluk olacak.
Özetle yapay zekâyı işe koşan ama son kararda insan muhakemesinden vazgeçmeyenler bu yeni çağın kazananı olacak. - “Sorumlu yapay zekâ” kavramının evrensel ölçütlerinde hangi aşamadayız?
Değerlerin aşındığı bu dönemde yapay zekânın güçlü bir etikle ilerlemesi mümkün mü?
Sorumlu yapay zekâ artık soyut bir etik tartışma değil, küresel bir zorunluluk.
UNESCO, OECD, AB ve BM gibi kurumlarca birçok uluslararası çerçeve oluşturuldu ancak bu ilkelerin yasalaşması ve uygulanması ülkeler arasında ciddi farklılıklar gösteriyor; uygulama kapasitesi henüz oturmuş değil.
Şeffaflık, hesap verebilirlik ve insan gözetimi her metinde var ama pratikte karşılıkları net değil.
Şirketlerin büyük bölümü yapay zekâ kullanıyor ancak yönetim seviyesinde bilgi ve denetim kapasitesi geride kalıyor; buna “yönetişim borcu” diyoruz.
Ben gri alanları tehditten çok fırsat olarak görüyorum çünkü yapay zekâ toplumun örtük varsayımlarını görünür kılıyor.
Görünür olan şey tartışılabilir hale geliyor.
Etik de burada başlıyor: Sabit kurallarla değil, sürekli müzakereyle.
Güvenin olmadığı bir ekosistemde yapay zekânın vaat ettiği değer zaten sürdürülemez.
ETİK KONUSUNDA STANDART YOK - Bir önceki soruyla bağlantılı olarak yapay zekâ üreticisi şirketlerin işin etik kısmına bakışı nasıl?
Yapay zekâ üreticileri arasında etik konusunda standart bir yaklaşım yok.
Bazı şirketler güvenlik protokollerini iş modellerinin merkezine yerleştirdiğini söylerken bazıları bu sınırlandırmaları gelişimin önünde engel görüp daha serbest bir yol izliyor.
Yaklaşım farklarının ötesinde sektör genelinde söylenenlerle yapılanlar arasında ciddi bir uyumsuzluk var.
Kurumsal raporlardaki etik taahhütler çoğu zaman rekabetin ve hız baskısının gerisinde kalıyor.
Bunun sonuçlarını telif ihtilaflarında, mahremiyet ihlallerinde ve sistemlerin kullanıcılar üzerindeki yönlendirici etkilerinde açıkça görüyoruz.
EN KORKUTUCU SENARYO - Yapay zekâ ile ilgili aklınıza gelen en korkutucu senaryo nedir?
Üç temel başlıkta toplayabilirim.
Birincisi kara kutu problemi: En gelişmiş sistemlerin bile karara varırken hangi mantığı izlediğini bilemiyoruz; şeffaf olmayan bir yapıyı ne denetleyebiliriz ne de güvenebiliriz.
İkincisi epistemik çöküş tehlikesi: Yapay zekâ üretimi manipülatif içerikler yüzünden “gerçek” üzerindeki ortak paydamızı kaybediyoruz.
Kimsenin doğrudan emin olamadığı bir dünyada toplumsal güven çöker.
Sonuncusu hizalama sorunu: Yapay zekânın hedefleriyle insani değerlerimizin uyuşmaması riski.
Sistem kötü niyetli olmasa bile kendisine verilen görevi yerine getirirken değerlerimizi “engel” görüp devre dışı bırakabilir.
Korkum yapay zekânın bize savaş açması değil, anlayamadığımız bir mantıkla bizi ve hakikati yavaşça hayatın dışına itmesi.
TEMEL AMAÇ DEĞER ÜRETMEK - Siz kendinizi bu süreçte nasıl konumluyorsunuz ve yapay zekâ adaptasyonu için yürüttüğünüz çalışmalardan söz edebilir misiniz?
Bir değişim yönetimi profesyoneli olarak dönüşümlerin insan tarafında çalışıyorum ve bu alanı bir teknoloji sorunundan çok bir düşünme ve karar verme meselesi olarak görüyorum.
ChatGPT’nin halka açıldığı günden beri yapay zekâyı sadece anlatan değil, onunla üreten ve sahaya taşıyan biri olarak çalışıyorum.
Üç yıldır kurumlarda çalışanların yapay zekâyı verimlilik kadar yaratıcılık için de kullanabilmeleri adına eğitimler ve danışmanlıklar veriyorum.
Temel amacım çalışanların sadece zaman kazanması değil akıllı bir şekilde yapay zekâdan faydalanarak değer üretmesi.
Yakın gelecekte etki, sorumluluk ve etik meseleler daha merkezi hale gelecek.
Bu yüzden Cambridge Üniversitesi’nde yapay zekâ etiği üzerine akademik çalışmalara başladım ve bu içgörüleri saha çalışmalarımda uygulamaya geçiriyorum.
Benim önemsediğim şey bu dönüşümde dengeyi korumak: İnsanların yapay zekâdan güç alırken aklı ve sorumluluğu devretmemesi.