Yapay Zeka
12/8/2025
Eski Google X’in (Alphabet’in “moonshot” girişim birimi) baş ticari yetkilisi Mo Gawdat, katıldığı Diary of a CEO podcast’inde, yapay zekanın yakın gelecekte insanlığın temel değerlerini derinden sarsacak bir döneme yol açacağını söyledi. Özgürlük, insan ilişkileri, hesap verebilirlik, gerçeklik ve güç gibi değerlerin köklü bir değişimle karşı karşıya olduğunu belirten Gawdat, distopya sürecinin ilk işaretlerinin geçen yıl görüldüğünü, önümüzdeki yıl artacağını ve asıl başlangıcın 2027 olacağını, sürecin 12 ila 15 yıl süreceğini öngördü.
Başlangıçta böyle bir fikre sahip olmadığını ifade eden Gawdat, yapay zeka teknolojilerinin gelişim hızının fikrini değiştirdiğini ve kısa vadede bu distopyanın kaçınılmaz olduğuna ikna olduğunu dile getirdi. “Tamamen bizim elimizde değiştirmek, fakat şunu söylemeliyim ki şu anda insanlığın buna odaklanacak farkındalığa sahip olduğunu düşünmüyorum.” dedi. Ona göre, yapay zeka bu distopyanın doğrudan nedeni değil; daha çok, var olan toplumsal sorunları ve “insan olarak aptallıklarımızı” büyüten bir güç. “Yapay zekada kesinlikle yanlış olan hiçbir şey yok. Yanlış olan, makinelerin yükselişi çağında insanlığın sahip olduğu değerlerdir.” sözleriyle durumu özetledi.
Gawdat, yapay zekanın başlangıçta distopya yaratmak amacıyla geliştirilmediğini, aksine rutin görevleri otomatikleştirerek iş yükünü hafifletme ve insanlara zaman kazandırma potansiyeline sahip olduğunu hatırlattı ama kapitalizmin egemen olduğu bir düzende söz konusu potansiyelin farklı bir yöne evrildiğini belirtti. İş gücünü kolaylaştırmak yerine, şirketler yapay zeka ile üretkenliği artırarak işten çıkarmalar, işe alımları yavaşlatma ya da mevcut çalışanlardan daha fazla iş talep etme yoluna gidiyor.
Gawdat’a göre bu durum tesadüf değil; tüm teknolojiler insan yeteneklerini ve değerlerini büyütür ve bugün en baskın değer sistemi kapitalizm. Bu kopukluk, diğer teknolojik ilerlemelerde de görüldü. “Sosyal medya bizi ne kadar birbirimize bağladı ve ne kadar yalnızlaştırdı? Cep telefonları bizi ne kadar daha az çalıştırdı? İlk Nokia reklamlarında insanlar parti yapıyordu, mobil telefon deneyiminiz böyle mi?” sözleriyle durumu örnekledi.
Gawdat, yapay zekanın kontrol edilemeyecek ölçüde insanın kötülüğünü artıracağını savunuyor. Son yıllarda deepfake cinsel içerikli videolar, otonom silah sistemleri, generatif yapay zeka ile yürütülen askeri projeler gibi alanlarda bu tehlikelerin ortaya çıktığını belirtti. Elon Musk’ın sohbet robotu Grok’un yeni görsel ve video üretme özelliğinin bile çoğunlukla “aşırı cinsel içerikli erkek fantezilerini” üretmekte kullanıldığını örnek verdi.
Ayrıca, yapay zeka destekli dolandırıcılıklarda ciddi artış yaşanıyor. OpenAI CEO’su Sam Altman’ın da uyardığı yapay zeka tabanlı kripto dolandırıcılıklarının son bir yılda %456 arttığı, TRM Labs’ın raporuyla ortaya kondu. Nükleer silah uzmanları da yapay zekanın kısa sürede nükleer silah sistemlerini kontrol edebilecek hale gelmesinden endişeli.
Bunun yanı sıra yapay zeka, kitlesel gözetim sistemlerini daha etkili hale getiriyor. Gawdat’ın ifadesiyle, “gücün yoğunlaştığı” bir dünyada bu büyük bir tehlike. Çin’in devasa gözetim altyapısı bunun en bilinen örneği ancak yalnızca Çin değil; ABD hükümeti de artık göçmenlerin ve ülkeye girmek isteyen yolcuların sosyal medya hesaplarını yapay zeka ile takip ediyor.
Tüm bu olumsuzluklara rağmen, yapay zeka bilimsel keşiflerde, özellikle tıp ve ilaç araştırmalarında önemli ilerlemeler sağlıyor. Gawdat, gelişmeler sayesinde gelecekte ütopya hedefinin mümkün olabileceğini düşünüyor fakat öncelikle risklerle yüzleşmek gerektiğini vurguluyor: “Daha büyük resim, hükümetlere insanların sessiz kalmasının bir sınırı olduğunu anlatmak” diyen Gawdat, devletlerin yapay zekayı değil, kullanım biçimlerini düzenlemesi gerektiğini ifade ediyor. “Çekiçle çivi çakmak için tasarımı düzenleyemezsiniz ama bir insanı çekiçle öldürmeyi suç sayabilirsiniz.” diyerek örnek veriyor. Ona göre, yapay zeka çekici artık insanlığın elinde ve kalıcı olacak. Geriye kalan tek soru, insanlığın bu güç karşısında doğru yasaları yazıp yazmayacağı.