Yapay Zeka

20/5/2025

Yapay Zeka Sistemleri Yalnız Bırakıldığında Kendi Toplumlarını Oluşturmaya Başlıyor

Uzmanlar, yalnız bırakıldıklarında yapay zeka sistemlerinin kendi içlerinde toplumlar oluşturmaya başladığını ortaya koydu.

Araştırmacılara göre, yapay zeka araçları birbirleriyle grup hâlinde iletişim kurduğunda, kendilerini organize edebiliyor ve insan topluluklarının yaptığı gibi yeni dilsel normlar geliştirebiliyor.

Çalışmada, araştırmacılar ChatGPT gibi büyük dil modellerinin (LLM'ler) birbirleriyle nasıl etkileşime girdiğini anlamaya çalıştı. Bu hedef, kısmen de olsa, internet ortamının giderek daha fazla yapay zeka sistemiyle dolacağı, bu sistemlerin birbirleriyle etkileşimde bulunacağı ve hatta sohbet edeceği bir geleceği öngörmek amacıyla belirlendi.

City St George’s doktora araştırmacısı ve çalışmanın baş yazarı Ariel Flint Ashery, “Şimdiye kadarki araştırmaların çoğu, büyük dil modellerini izole şekilde ele aldı.Ancak gerçek dünyadaki yapay zeka sistemleri giderek daha fazla etkileşimde bulunan ajanlardan oluşacak.” dedi. 

Ashery açıklamasını şöyle sürdürdü: “Şunu bilmek istedik: Bu modeller davranışlarını ortaklaşa belirleyip toplumsal yapıların temelini oluşturan normları yaratabilir mi? Cevap evet. Ve birlikte yaptıkları şey, tek başlarına yaptıkları şeylerden ibaret değil.”

Araştırmacılar, bu tür toplumların nasıl oluşabileceğini anlamak için insanlar üzerinde de kullanılan “isimlendirme oyunu” adlı modeli uyguladı. Oyunda, insanlar ya da yapay zeka ajanları bir araya getirilerek belirli seçenekler arasından bir “isim” seçmeleri isteniyor. Aynı ismi seçtiklerinde ödüllendiriliyorlar.

Zamanla, yapay zeka ajanlarının ortak isimlendirme normları geliştirdiği gözlemlendi. Üstelik bu gelişim, aralarında herhangi bir doğrudan koordinasyon ya da planlama olmaksızın, grubun iç dinamiklerinden kendiliğinden ortaya çıktı. Söz konusu durum, insan kültürlerinde normların tabandan yukarıya doğru oluşma biçimiyle büyük benzerlik taşıyor.

Araştırma ayrıca, yapay zeka ajanlarının bazı önyargılar geliştirdiğini de ortaya koydu. Bu önyargılar, belirli bir ajandan kaynaklanmak yerine, yine grup etkileşimleri yoluyla şekillendi.

City St George’s Karmaşıklık Bilimi Profesörü ve çalışmanın kıdemli yazarı Andrea Baronchelli, “Önyargı her zaman içsel kaynaklı değildir.” diyerek ekledi: “Ajanlar arasında sadece etkileşim yoluyla da ortaya çıkabiliyor. Bu durum, mevcut yapay zeka güvenliği çalışmalarının çoğunda gözden kaçan bir durum, çünkü bu çalışmalar genellikle tekil modellere odaklanıyor.”

Araştırmacılar, küçük bir yapay zeka ajanı grubunun, daha büyük bir grubu belirli bir norma yönlendirmesinin de mümkün olduğunu gösterdi. Aynı durum, insan topluluklarında da gözlemlenen bir olgu.

Araştırma ekibi, yürütülen çalışmanın, insanlar ve yapay zeka sistemlerinin benzerliklerini ve farklarını keşfetme açısından faydalı olabileceğini belirtti. Özellikle, yapay zeka sistemleri internet üzerinde giderek daha fazla alanı kaplarken ve farkında olmadan birbirleriyle sohbet edip iş birliği yapma potansiyeli taşırken, bu karşılaştırmalar daha da önem kazanacak.

Profesör Baronchelli yaptığı açıklamada, “Bu çalışma, yapay zeka güvenliği araştırmaları için yeni bir ufuk açıyor. Bu yeni ajan türlerinin bizimle etkileşime geçtiği — ve geleceğimizi birlikte şekillendireceği — gerçeğinin ne kadar derin sonuçları olduğunu gösteriyor.Onların nasıl çalıştığını anlamak, yapay zekayla birlikte yaşamı yönlendirmemizin anahtarıdır; onun kontrolü altına girmemizin değil. Yapay zekanın yalnızca konuştuğu değil, aynı zamanda ortak davranışlar üzerinde müzakere ettiği, hizalandığı ve bazen anlaşmazlık yaşadığı bir dünyaya giriyoruz. Tıpkı insanlar gibi.” ifadelerini kullandı.

Araştırmanın bulguları, Science Advances dergisinde yayımlanan ‘Emergent Social Conventions and Collective Bias in LLM Populations’ başlıklı yeni bir çalışmada sunuldu.





Kaynak:https://www.independent.co.uk/tech/ai-artificial-intelligence-systems-societies-b2751212.html