Yapay Zeka
28/4/2025
Gelecekte yapay zekalar "bilinç" kazanıp insanlara benzer bir şekilde dünyayı deneyimleyebilir mi? Bu olasılığı destekleyen güçlü bir kanıt bulunmasa da, Anthropic ihtimali tamamen göz ardı etmiyor.
Şirket, Perşembe günü yaptığı açıklamada, "model refahı" olarak adlandırdığı konuyu araştırmak ve bu alanda bir yol haritası oluşturmak amacıyla yeni bir araştırma programı başlattığını duyurdu. Anthropic, bu çaba kapsamında bir yapay zeka modelinin "refahının" ahlaki bir değerlendirmeyi hak edip etmediğinin nasıl belirlenebileceğini, modellerdeki olası "sıkıntı belirtilerinin" önemini ve uygulanabilecek "düşük maliyetli" müdahale yöntemlerini araştıracağını açıkladı.
Yapay zeka topluluğunda, modellerin insana özgü özellikler taşıyıp taşımadığı ve buna nasıl yaklaşılması gerektiği konusunda ciddi görüş ayrılıkları bulunuyor.
Pek çok akademisyen, mevcut yapay zeka sistemlerinin bilinç ya da insan deneyimine yakın bir kapasiteye sahip olmadığını ve gelecekte de böyle bir yetenek kazanacaklarının kesin olmadığını savunuyor. Günümüzde yapay zekanın, esasen, istatistiksel bir tahmin motoru olduğu; gerçek anlamda "düşünmediği" veya "hissetmediği" belirtiliyor. Metin, görsel ve benzeri veriler üzerinden kalıpları öğrenen yapay zeka, bu örneklerden yola çıkarak görevleri çözmeye çalışıyor.
King’s College London araştırma görevlisi Mike Cook, TechCrunch’a verdiği röportajda şunları ifade etti: "Bir model, kendi 'değerlerinde' yapılan bir değişikliğe karşı çıkamaz çünkü modellerin değerleri yoktur. Bunun aksini iddia etmek, sisteme insan özellikleri atfetmekten ibarettir." Cook ayrıca, "Bir yapay zeka sisteminin hedeflerine ulaşmaya çalışması ile kendi değerlerini edinmesi arasında fark, tamamen kullanılan dilin abartılı mı yoksa gerçekçi mi olduğuna bağlıdır." dedi.
MIT doktora öğrencisi Stephen Casper ise TechCrunch’a yaptığı açıklamada, yapay zekayı bir "taklitçi" olarak nitelendirerek, "her türlü uydurma ifadeyi dile getiren", "hafifmeşrep şeyler söyleyen" sistemler olduklarını belirtti.
Bununla birlikte, bazı bilim insanları yapay zekanın değer sistemlerine ve insan benzeri ahlaki karar verme unsurlarına sahip olduğunu savunuyor. Center for AI Safety tarafından yürütülen bir araştırma, yapay zekaların bazı senaryolarda kendi çıkarlarını insanlardan üstün tutabilecek değer sistemleri geliştirdiğini öne sürüyor.
Anthropic, model refahı girişimi için zemin hazırlıklarına uzun süredir devam ediyordu. Şirket, geçtiğimiz yıl Kyle Fish'i "yapay zeka refahı" üzerine çalışan ilk tam zamanlı araştırmacı olarak kadrosuna kattı. Fish, hem Anthropic'in hem de diğer şirketlerin bu konuyu nasıl ele alması gerektiğine yönelik rehber ilkeler geliştirmekle görevlendirildi. Fish, New York Times’a verdiği demeçte, Claude veya başka bir yapay zeka sisteminin bugün bilinçli olma ihtimalinin %15 olduğunu düşündüğünü belirtti.
Anthropic, Perşembe günü yayımladığı blog yazısında, mevcut ya da gelecekteki yapay zeka sistemlerinin bilinç kazanıp kazanamayacağına dair bilimsel bir uzlaşı bulunmadığını kabul etti. "Bu nedenle konuya alçakgönüllülükle ve mümkün olduğunca az varsayımla yaklaşıyoruz," diyen şirket, "Alan geliştikçe fikirlerimizi düzenli olarak gözden geçirmemiz gerekeceğinin farkındayız." ifadelerini kullandı.
Kaynak:https://techcrunch.com/2025/04/24/anthropic-is-launching-a-new-program-to-study-ai-model-welfare/