Hani çocukken sihirbazları izlerdik, şapkadan tavşan çıktığında ya da mendil bastona dönüştüğünde o “nasıl oldu acaba?” duygusu hem bizi büyüler hem de içten içe huzursuz ederdi. İşin sırrını bilmemek eğlencenin bir parçasıydı. Ama bugün durum biraz farklı. 21. yüzyılın en büyük dönüşüm hikayesi olan Yapay Zeka, Mustafa Süleyman’ın harika tabiriyle “The Coming Wave“de bahsettiği gibi çağımızın en büyük ikilemini önümüze koyuyor. İnsanlık olarak muazzam bir refah yaratma potansiyeli olan bir yapı inşa ediyoruz, ancak bu yapının kararları nasıl verdiğini tam olarak anlayamıyoruz. Mühendislerin o meşhur söylemiyle, elimizde bir “Kara Kutu” var. Ve bu kutunun içindeki sihir, bazen tavşan çıkarmaktan çok daha tehlikeli sonuçlar doğurabilir.

Derin öğrenme dediğimiz, milyarlarca parametre ve bizim takip edemeyeceğimiz karmaşıklıkta matris işlemlerinden oluşan bu yapı, dışarıdan bakıldığında tam bir mühendislik harikası ancak içeride neler döndüğünü net olarak açıklayamıyoruz. Tabii bu “açıklanamazlık” durumu her zaman bir kriz değil. Biliyorsunuz, Netflix’in veya sosyal medya algoritmasının size bir kedi videosu önermesi ya da Spotify’ın tam da o anki ruh halinize uygun şarkıyı bulması da bir kara kutu işlemidir. Günün sonunda en fazla yanlış videoyu izler, geçer gidersiniz. Kimse bundan zarar görmez. Ancak işin rengi, o kara kutuyu bir onkoloji servisine, bir mahkeme salonuna ya da otonom bir silah sistemine entegre ettiğinizde değişiyor.
İşin toplumsal boyutu tam bir mayın tarlası. Cathy O’Neil’in “Weapons of Math Destruction” kitabında altını çizdiği gibi, bu opak modeller aslında şirketler için birer “ticari sır” ya da “gizli sos” olarak görülüyor. Google, Amazon, Facebook gibi devler, “bu bizim fikri mülkiyetimiz” diyerek kapıları dış denetime kapatıyorlar. Bu opaklık, şirketlerin karlarını maksimize ederken sorumluluktan kaçmalarının da mükemmel bir yolu haline geliyor.
“Azınlık Raporu” filmini anımsarsınız; bugün kullanılan PredPol veya LSI-R gibi suç tahmin yazılımları tam da o distopyayı çağrıştırıyor. Ama çok daha sinsi bir durum söz konusu. Bu yazılımlar tarihsel veriyi kullanıyor. Eee tarihsel veri dediğiniz şey, geçmişteki polis uygulamalarındaki önyargılarla dolu. Yoksul mahallelerde daha fazla “rahatsızlık suçu” verisi toplanınca, algoritma bunu “bilimsel” bir gerçek sanıyor ve polisi tekrar o mahalleye gönderiyor. O’Neil buna “geri besleme döngüsü” diyor; yani sistem yoksulluğu kriminalize ediyor, biz de buna “yapay zeka tahmini” deyip geçiyoruz.

Mesele sadece suç da değil, kültürel erozyon riskimiz de var. Dil modelleri neyle eğitilirse onun değerlerini yansıtıyor. Harvard’da yapılan ilginç bir araştırma var; ChatGPT kullanan farklı kültürlerden öğrencilerin değer yargılarının zamanla “WEIRD” (Batılı, Eğitimli, Sanayileşmiş, Zengin ve Demokratik) değerlere doğru kaydığı görülmüş. Yani yerel kültürlerimiz, bu devasa modellerin standartlaştırdığı bir potada erime riskiyle karşı karşıya.
Tüyleri diken diken eden bir başka kısım, savunma sanayindeki kara kutu problemi. Pentagon’un “Project Maven“ı gibi projeleri, İHA görüntülerini analiz edip hedef belirliyor. Sistem bir aracı “yüksek tehdit” olarak işaretliyor ama “neden?” sorusunun cevabı yok. Ya da İsrail’in kullandığı “Lavender” sistemi… Gazze’de binlerce kişiyi hedef olarak işaretledi. Hata payı %10 civarı kabul ediliyor ama on binlerce hedefte, binlerce masum insan demek. Operatörler sistemin nasıl karar verdiğini bilmedikleri için, ekranda gördükleri hedefin sadece cinsiyetine bakıp 20 saniye içinde bombalamayı onaylıyorlar. İnsan faktörü burada sadece bir “onay mekanizmasına” dönüşmüş durumda.
Tabii tüm bu teknik ve etik tartışmaların gölgesinde, küresel bir satranç tahtası da kurulmuş durumda. Putin’in o iddialı sözünü hatırlarsınız: “Yapay zeka alanında lider olan, dünyanın hükümdarı olacaktır.” İşte bu söz, meselenin ciddiyetini özetliyor. Çin ve ABD arasında, YZ üstünlüğü için kıyasıya bir silahlanma yarışı var. ABD, Çin’in teknolojik yükselişini durdurmak için gelişmiş çip ihracatını yasaklamak gibi “boğma noktası” stratejileri uyguluyor. Eskiden Google mühendisleri Project Maven gibi askeri projelere etik gerekçelerle itiraz ederdi, hatırlarsanız Google projeden çekilmek zorunda kalmıştı. Artık o günler geride kaldı. Silikon Vadisi’nde “Çin’in gerisinde kalırsak felaket olur” korkusu hakim ve şirketler artık sadece ticari aktör değil, birer “ulusal şampiyon” olarak görülüyor. Etik kaygılar, ulusal güvenliğin gölgesinde ikinci plana atılmış durumda.

Hikayenin sonu nereye varacak derseniz, işte orası I.J. Good’un “zeka patlaması” teorisine ve Stuart Russell’ın meşhur “Goril Problemi“ne çıkıyor. İnsan zekasını her alanda aşan bir “Süper Zeka” (AGI) yarattığımızda ne olacak? Russell durumu çok güzel özetliyor: Goriller fiziksel olarak bizden çok daha güçlü ama kafeste olan onlar, biz değiliz. Neden? Çünkü biz daha zekiyiz. Peki bizden daha zeki bir varlık yarattığımızda kontrolün bizde kalacağını garanti edebilir miyiz? Şeffaflık ve açıklanabilirlik çağrıları, ne yazık ki “Süper Zeka”ya ilk ulaşan taraf olma hırsı ve “öteki taraf kazanırsa biteriz” korkusuyla bastırılıyor.
Sonuçta Yapay Zeka modellerinin bu kara kutu doğası, sadece teknik bir eksiklik değil, aynı zamanda jeopolitik hırsların ve ticari açgözlülüğün bir sonucu. İnsanlığı kontrol edemediği, anlayamadığı sistemleri hızla geliştirmeye iten tehlikeli bir paradoksun içindeyiz. Kutunun kapağı açıldı bir kere, artık önemli olan içinden tavşan mı yoksa canavar mı çıkacağı değil; bizim o çıkanla ne yapacağımız.

