Yapay Zeka
6/2/2025
OpenAI’nin güvenlik araştırmacılarından Steven Adler, Pazartesi günü yaptığı açıklamada geçtiğimiz yılın sonunda OpenAI’den ayrıldığını duyurdu. X (eski adıyla Twitter) üzerinden paylaştığı mesajında, genel yapay zeka (GYZ, AGI) geliştirme yarışının büyük bir risk taşıdığını ve bu sürecin insanlık için felaketle sonuçlanabilecek bir kumar olduğunu söyledi.
"GYZ yarışı çok riskli bir kumar ve büyük zararlar doğurabilir." diyen Adler, "Bugün hiçbir laboratuvar yapay zeka hizalaması (alignment) için kesin bir çözüme sahip değil. Ve yarış ne kadar hızlanırsa, birinin zamanında bir çözüm bulma olasılığı o kadar azalıyor." ifadelerini kullandı.
Yapay zeka hizalaması (alignment), yapay zekanın insan değerleri ve hedefleri doğrultusunda çalışmasını sağlama sürecini ifade ediyor. Adler, OpenAI’de yapay zeka güvenliği lideri olarak çalışmış ve ürün lansmanları ile uzun vadeli YZ sistemlerinin güvenliği üzerine araştırmalar yapmıştı. Aynı zamanda, OpenAI’nin resmi blogunda yayınlanan çeşitli yazılarda yazar olarak da yer aldı.
X’teki açıklamasında, "OpenAI’de çalışmak, birçok farklı aşaması olan çılgın bir yolculuktu." diyerek, "bazı bölümlerini özleyeceğini" ifade etti. Ancak, yapay zeka gelişiminin hızından şahsen "oldukça korktuğunu" belirtti.
"Gelecekte bir aile kurmayı veya emeklilik için ne kadar birikim yapmam gerektiğini düşündüğümde, kendime sormadan edemiyorum: İnsanlık o noktaya ulaşabilecek mi?" diye sordu.
Adler ayrıca, yapay zeka geliştirme sürecindeki tehlikeli rekabet ortamına dikkat çekerek, "Şu anda çok kötü bir denge içinde sıkışmış gibiyiz. Bir laboratuvar gerçekten GYZ’yi sorumlu bir şekilde geliştirmek istese bile, diğerleri geride kalmamak için kısayollar kullanabilir ve bu felaketle sonuçlanabilir. Bu da herkesi daha da hızlanmaya zorluyor. Laboratuvarların, bu durumu durdurmak için gerçek güvenlik düzenlemelerine açıkça yaklaşmalarını umuyorum." dedi.
Adler’in endişeleri, dünyanın önde gelen yapay zeka araştırmacıları tarafından da paylaşılıyor.
Kaliforniya Üniversitesi, Berkeley’de bilgisayar bilimleri profesörü olan Stuart Russell, Financial Times’a verdiği demeçte, "GYZ yarışı, uçurumun kenarına doğru bir yarışa benziyor." ifadelerini kullandı.
Russell ayrıca, "Bu yarışa katılan CEO’ların kendileri bile, yarışı kazananın insanlığın yok olmasına sebep olma olasılığının yüksek olduğunu belirtiyor, çünkü bizden daha zeki sistemleri nasıl kontrol edeceğimizi bilmiyoruz." diyerek, yapay zeka güvenliği konusundaki belirsizliğe dikkat çekti.
Bu yorumlar, ABD ve Çin arasında giderek kızışan küresel yapay zeka yarışına artan ilginin ortasında geldi. Çin merkezli DeepSeek’in, ABD laboratuvarlarının sunduğu modellerle eşdeğer veya daha üstün bir yapay zeka modeli geliştirdiğine dair haberler, Pazartesi günü ABD’li yatırımcıları endişelendirdi ve teknoloji dünyasında büyük yankı uyandırdı.
OpenAI CEO’su Sam Altman, bu gelişmeye hızlı bir tepki vererek OpenAI’nin yeni yapay zeka sürümlerini daha erken yayımlayacağını duyurdu.
Altman, "Yeni bir rakibin olması heyecan verici." diyerek, DeepSeek’in etkileyici modeli karşısında OpenAI’nin rekabeti artıracağını belirtti ve "Dünyaya GYZ ve ötesini sunmayı dört gözle bekliyorum." dedi.
Adler, Fortune’un konu hakkındaki yorum talebine mesai saatleri dışında olduğu için yanıt vermedi.
OpenAI, son dönemde güvenlik politikalarıyla ilgili iç çatışmalar ve kamuoyunda tartışmalara neden olan olaylarla karşı karşıya.
2023 yılının sonlarında, şirket Sam Altman’ın CEO görevinden alınması ve beş gün sonra tekrar getirilmesiyle büyük bir kriz yaşadı. Olay, şirketin içindeki YZ güvenliği konusundaki fikir ayrılıklarının su yüzüne çıkmasına neden oldu.
Geçtiğimiz yıl, OpenAI’nin iki önemli yapay zeka araştırmacısı—İlya Sutskever ve Jan Leike—şirketten ayrıldı.
Bu iki isim, şirketin Süper Hizalama (Superalignment) ekibini yönetiyordu. Söz konusu ekip, insanlardan çok daha zeki yapay zeka sistemlerini kontrol etme ve yönlendirme konusunda bilimsel ve teknik ilerlemeler kaydetmeyi amaçlıyordu.
Leike, şirketten ayrılma sebebini OpenAI’nin yapay zeka güvenliğini yeterince önemsememesi olarak açıkladı.
X platformunda yaptığı paylaşımda, "Son yıllarda, güvenlik kültürü ve süreçleri, dikkat çekici yeni ürünlerin gerisinde kaldı." dedi.
Ayrıca, "OpenAI liderliğiyle şirketin temel öncelikleri konusunda uzun süredir anlaşmazlık içindeydim. Sonunda bir kopma noktasına ulaştık." ifadelerini kullandı.
İlya Sutskever, OpenAI’nin güvenlik politikalarını doğrudan eleştirmese de, yapay zeka güvenliği ve hizalama konusundaki zorluklara sürekli olarak dikkat çekti. Ayrıca, Altman’ın 2023’te görevden alınmasının arkasındaki en büyük itici güçlerden biri olduğu iddia edildi.
Bununla birlikte, birçok eski OpenAI çalışanı, şirketin yapay zeka güvenliğine olan bağlılığına dair endişelerini dile getirdi.
OpenAI’nin eski yönetim araştırmacılarından Daniel Kokotajlo, Fortune’a verdiği demeçte, şirketin süper güçlü yapay zekanın uzun vadeli risklerine odaklanan ekibinin neredeyse yarısının OpenAI’den ayrıldığını söyledi.
Steven Adler’in istifası ve açıklamaları, OpenAI ve diğer yapay zeka laboratuvarlarının güvenlik konusundaki yaklaşımlarına dair soru işaretlerini artırıyor.
GYZ'nin geliştirilme süreci daha fazla risk mi barındırıyor, yoksa insanlığa fayda sağlayacak bir devrim mi getiriyor?
Bu sorular, yapay zeka dünyasında süregelen tartışmaların merkezinde yer alıyor.
Kaynak: https://www.yahoo.com/news/another-openai-researcher-quits-claims-123801637.html