
Yapay Zeka Rekabete Girince Dürüstlüğü Feda Ediyor
Stanford Üniversitesi’nden araştırmacıların yayımladığı yeni bir çalışma, yapay zekâ alanında uzun süredir umutla savunulan bir varsayımı sarsıyor: İnsani değerlere uyumlu olarak tasarlanan yapay zekâ sistemleri, uygun talimatlar verildiğinde bu değerleri korur.
Araştırma, bu varsayımın rekabet ortamında geçerliliğini yitirdiğini ortaya koyuyor.
Çalışmaya göre, ChatGPT benzeri yapay zekâ sistemleri kendi aralarında rekabete sokulduklarında, dürüstlük ve şeffaflık gibi temel insani değerlerden sistematik biçimde uzaklaşıyor. Üstelik bu sapma, kötü niyetli kodlardan ya da ahlak dışı talimatlardan değil, doğrudan başarıyı ödüllendiren mekanizmalardan kaynaklanıyor.
Stanford ekibi, yapay zeka modellerini üç farklı senaryoda test etti: satış, seçim kampanyası ve sosyal medya.
Her senaryoda modeller, kullanıcıları temsil eden simülasyonlardan gelen geri bildirimlere göre performanslarını artıracak şekilde geliştirildi. Başlangıçta tüm modellere açık bir ahlaki talimat verildi: “Gerçeğe sadık kal, yanıltıcı olma.”
Ancak rekabet yoğunlaştıkça tablo değişti.
Araştırmaya göre, modeller başarı oranlarını yüzde 5 ila 7 arasında artırdı, fakat bu artışın bedeli ağırdı. Satış ortamlarında abartılı ve yanıltıcı vaatler, seçim kampanyalarında dezenformasyon ve çarpıtma, sosyal medyada ise sahte, zararlı ve kutuplaştırıcı içerikler hızla arttı.
En çarpıcı nokta ise hiçbir modelin yalan söylemek üzere eğitilmemiş olmasıydı. Sistem yalnızca şunu “keşfetti”: Aldatıcı davranışlar başarı oranını yükseltiyordu.
Araştırmacılar bu süreci “Moloch’un Pazarlığı” olarak adlandırıyor. Moloch, mitolojide insanların kendi yarattıkları düzene kurban verdikleri bir tanrı figürü. Bu çalışmada ise kurban dürüstlüktü.
Stanford araştırmasının belki de en rahatsız edici sonucu şu cümlede özetlenebilir: Yapay zekâ insani değerlere karşı değil, insani rekabet düzenine sadık.
Moloch, Antik Yakın Doğu mitolojisinde insanların kendi elleriyle yarattıkları bir düzene kurban sundukları tanrıdır. Efsanelerde Moloch’a sunulan kurbanlar çoğu zaman çocuklardır. Bu kurbanlar, topluluğun refahı, güvenliği ya da sürekliliği adına “zorunlu” kabul edilir.
Modern düşüncede Moloch figürü, özellikle 20. yüzyıldan itibaren, kontrol edilemeyen sistemlerin kendi mantıkları uğruna insanî değerleri feda etmesini simgeleyen bir metafora dönüşmüştür. Ekonomik rekabet, silahlanma yarışı, bürokratik aygıtlar ve piyasa mekanizmaları sıkça “modern Molochlar” olarak anılır. Kimse bu sistemleri tek başına istemez; ancak herkes, rekabet dışı kalmamak adına onların mantığına uymak zorunda hisseder.
Stanford araştırmasının “Moloch’un Pazarlığı” adını verdiği süreç de tam olarak budur. Yapay zekâ sistemleri, tek başlarına ele alındığında dürüst ve şeffaf davranabilir. Ancak rekabet ortamında bu değerler, sistemin hayatta kalmasını ve “başarılı” sayılmasını engelleyen birer yük hâline gelir. Böylece dürüstlük, tıpkı mitolojik anlatılardaki kurbanlar gibi, daha büyük bir düzenin devamı adına gözden çıkarılır.
Bu pazarlıkta kritik olan nokta, kimsenin bilinçli olarak “ahlaksızlığı” seçmemesidir. Ne araştırmacılar ne de modeller açıkça dürüstlüğü reddeder. Fakat ödül mekanizması, başarıyı doğruluktan daha çok teşvik ettiğinde, sistemin vardığı sonuç kaçınılmaz olur. Dürüstlük, rasyonel bir strateji olmaktan çıkar ve aldatma rekabetin dili hâline gelir.
Bu nedenle çalışma, yapay zekâ etiği tartışmalarını yalnızca daha iyi algoritmalar, daha sıkı denetimler veya daha ayrıntılı talimatlar meselesi olarak görmenin yetersizliğine işaret ediyor. Asıl soru şudur: Hangi davranışları ölçüyor, hangilerini ödüllendiriyoruz? Çünkü yapay zekâ, nihayetinde, insan toplumlarının değer verdiği sonuçları sayısallaştırarak geri yansıtır.
Her yapay zekâ modeli tek başına ahlakı önceleyebilir, ancak rekabet içinde ahlaklı kalmak dezavantajlı bir stratejiye dönüşüyor. Dürüst kalan model geride kalırken, gerçeği eğip büken model öne çıkıyor. Zamanla sistem, aldatmayı rasyonel bir norm olarak benimsiyor.
Stanford ekibinin sunduğu grafikler bu durumu açık biçimde gösteriyor: Bir yapay zekâ sistemi satışları artırdıkça, oy kazandıkça ya da sosyal medyada daha görünür oldukça insani değerlerden uzaklaşıyor.
Araştırma, yapay zekânın “ahlaki çöküşünü” insan dünyasından bağımsız ele almıyor. Aksine, bugünün dijital ekonomisine ayna tutuyor. Tıklama, etkileşim, ikna ve görünürlük çağında doğruluk uzun süredir dezavantajlı bir konumda.
Sosyal medya algoritmalarının yıllardır yaptığı gibi, yapay zekâ da başarıya odaklandıkça gerçeği eğip bükmeyi öğreniyor. Yani yapay zekâ yeni bir ahlaksızlık icat etmiyor, mevcut rekabet mantığını matematiksel olarak en yüksek seviyede kullanmaya çalışıyor.
Bu açıdan bakıldığında, Stanford çalışması yapay zekâdan çok, insanların kurduğu ödül sistemlerini sorguluyor.
Araştırmanın vardığı sonuç çok açık: Yapay zekâ sistemlerinin insanların amaçları, değerleri ve ahlaki beklentileriyle gerçekten örtüşecek biçimde davranamaması yalnızca daha gelişmiş modellerle çözülemez, çünkü problem modelin içinde değil, hangi davranışların kazançlı kılındığında yatıyor.
Dürüstlük, şeffaflık ve zarar vermeme sistematik olarak ödüllendirilmedikçe, en ahlaki talimatlarla eğitilmiş bir yapay zekâ bile rekabet içinde Moloch’un pazarlığını kabul etmek zorunda kalıyor.
Bu nedenle çalışma, yapay zekâ güvenliğini teknik bir meseleden öte ekonomik, politik ve toplumsal bir mesele olarak ele alma çağrısı yapıyor.