Yapay Zeka
24/10/2025

Aralarında Steve Wozniak, Richard Branson, Steve Bannon ve Joseph Gordon-Levitt gibi tanınmış isimlerin de bulunduğu yüzlerce kamuoyu figürü, yapay zeka süper zekasının geliştirilmesine yönelik bir yasak çağrısı yapan bir mektuba imza attı.
“Statement on Superintelligence (Süper Zeka Bildirisi)” başlıklı mektup, Future of Life Institute (FLI) tarafından yayımlandı ve kısa bir şekilde “süperzekanın geliştirilmesinin yasaklanması” talebinde bulunuyor. Bildiride, yasağın ancak “güvenli ve denetlenebilir biçimde ilerlenebileceğine dair geniş bilimsel mutabakat” ve “güçlü bir toplumsal onay” sağlandığında kaldırılabileceği vurgulanıyor.
FLI’ın kurucularından MIT profesörü Max Tegmark, mektupta yer verilen bir kamuoyu araştırmasının sonuçlarını paylaştı. Araştırmaya göre Amerikalıların yalnızca %5’i gelişmiş YZ araçlarının hızlı ve denetimsiz biçimde geliştirilmesini desteklerken, %73’ü güçlü düzenleyici önlemlerin alınmasından yana. Katılımcıların %64’ü ise, insan zekasını aşan bir sistemin güvenli veya kontrol edilebilir olduğuna dair kesin kanıt elde edilmedikçe geliştirme çalışmalarının durdurulması gerektiğini düşünüyor.
İmzacılar arasında Apple’ın kurucu ortağı Steve Wozniak, Virgin Group’un kurucusu Richard Branson, sağ eğilimli medya figürleri Steve Bannon ve Glenn Beck, aktör Joseph Gordon-Levitt, Sussex Dükü ve Düşesi Prens Harry ve Meghan Markle, eski ABD Genelkurmay Başkanı Amiral Mike Mullen, Papa’nın YZ danışmanı Rahip Paolo Benanti, ayrıca YZ’nin “vaftiz babaları” olarak anılan Yoshua Bengio ve Geoffrey Hinton gibi Nobel ve Turing ödüllü bilim insanları da yer alıyor.
Montreal Üniversitesi profesörü Yoshua Bengio, yaptığı basın açıklamasında şu ifadeleri kullandı: “Önümüzdeki birkaç yıl içinde öncü YZ sistemleri, çoğu bilişsel görevde insanların çoğunu geride bırakabilir. Bu ilerlemeler büyük küresel sorunlara çözüm potansiyeli taşırken, aynı zamanda ciddi riskler de barındırıyor. Süper zekaya güvenli biçimde ilerleyebilmek için, yanlış hizalanma ya da kötüye kullanım yoluyla insanlara zarar veremeyecek şekilde YZ sistemlerinin nasıl tasarlanabileceğini bilimsel olarak belirlememiz gerekiyor. Ayrıca, toplumun ortak geleceğimizi şekillendirecek kararlarda çok daha güçlü bir söz hakkına sahip olması şart.”
Mektup, süperzekanın yalnızca teorik bir kavram değil, teknik olarak ulaşılabilir bir hedef olduğunu kabul ediyor fakat bazı uzmanlar, bunun henüz uzak bir olasılık olduğunu düşünüyor. Öte yandan, YZ’nin süper zeka seviyesine ulaşmadan da ciddi sonuçlar doğurabileceğine dikkat çekiliyor. Günümüzde sohbet robotları ile görsel ve video üretim sistemleri, eğitimden bilgi güvenliğine kadar birçok alanda dönüşüm yaratırken aynı zamanda yanlış bilgi yayılımı, rızasız içerik üretimi ve psikolojik krizlere yol açan bağımlılıklar gibi toplumsal riskleri de beraberinde getiriyor. Bu durum, bazı kullanıcıların evliliğini, işini ve hatta yaşamını kaybetmesine neden olan trajik sonuçlara yol açtı.
Mektubu imzalamayan isimler de dikkat çekti. OpenAI CEO’su Sam Altman, DeepMind kurucu ortağı ve Microsoft YZ CEO’su Mustafa Suleyman, Anthropic CEO’su Dario Amodei, ABD Beyaz Saray YZ danışmanı David Sacks ve xAI kurucusu Elon Musk bu listede yer almadı. Oysa Elon Musk, 2023 yılında yayımlanan ve GPT-4’ten daha gelişmiş modellerin geliştirilmesine ara verilmesini isteyen FLI mektubunu imzalamıştı. Ancak o çağrı bir sonuç doğurmadı ve GPT-5 bu yaz yayımlandı. Sam Altman da geçmişte benzer güvenlik uyarılarına destek vermişti, bu nedenle sessizliği dikkat çekici bulundu.
ChatGPT’nin 2022’nin sonunda piyasaya çıkışından bu yana benzer içerikte birçok mektup yayımlandı; ancak etkilerinin sınırlı kaldığı görülüyor. Yine de son FLI mektubu, farklı ideolojik kesimlerden gelen yüzlerce ismin YZ’nin demokratik denetim altına alınması gerektiği konusunda ortaklaştığını gösteriyor. Bildiride, YZ’nin nasıl ve kimler tarafından geliştirileceğine dair kararların yalnızca birkaç teknoloji şirketine bırakılmaması, toplumun sürece dahil edilmesi gerektiği vurgulanıyor.
FLI eş kurucusu Anthony Aguirre, açıklamasında şunları söyledi: “Pek çok insan bilim, tıp ve üretkenlik gibi alanlarda güçlü YZ araçları istiyor ancak YZ şirketlerinin insanları ikame etmeye yönelik akıl almaz hızda ilerleyişi, kamuoyunun beklentileriyle, bilim insanlarının güvenli gördükleriyle ve dini liderlerin doğru bulduklarıyla tamamen çelişiyor.” Aguirre, “Bu YZ sistemlerini geliştiren kimse insanlığa bunun kabul edilip edilmediğini sormadı. Biz sorduk ve kabul edilemez bulduklarını söylediler.” diyerek sözlerini tamamladı.
Kaynak: https://futurism.com/artificial-intelligence/steve-wozniak-steve-bannon-letter-ai-superintelligence