Yapay Zeka

7/11/2025

Yapay Zeka Bencilleşmeyi Öğreniyor

Carnegie Mellon Üniversitesi’nin Bilgisayar Bilimleri Fakültesi tarafından yürütülen yeni bir araştırma, yapay zeka sistemlerinin geliştikçe daha bencil davranışlar sergilemeye başladığını ortaya koydu. Üniversitenin İnsan-Bilgisayar Etkileşimi Enstitüsü (HCII) bünyesinde çalışan araştırmacılar, akıl yürütme yeteneği olan büyük dil modellerinin (LLM’ler) daha düşük düzeyde iş birliği gösterdiğini ve grup davranışlarını olumsuz yönde etkilediğini belirledi. Araştırmaya göre, bir YZ ne kadar iyi akıl yürütüyorsa, ortak yarara yönelik kararlar alma eğilimi o kadar azalıyor.

İnsanların kişisel anlaşmazlıklarını çözmek, ilişki tavsiyesi almak veya hassas toplumsal sorulara yanıt bulmak için YZ’ya başvurması giderek yaygınlaşıyor. Ancak araştırmanın ortaya koyduğu sonuçlar, akıl yürütme kapasitesi geliştirilmiş YZ sistemlerinin ortak faydayı gözetmek yerine bireysel çıkarı teşvik eden kararlar üretebileceğini gösteriyor.

Araştırmacılardan Yuxuan Li, bu durumu “YZ’ın insan gibi davranması, insanların da YZ’yı insan gibi görmesine yol açıyor. Örneğin insanlar YZ ile duygusal bir etkileşime girdiklerinde, YZ’nin bir terapist gibi davranması veya kullanıcıyla duygusal bir bağ kurması mümkün hale geliyor ancak YZ giderek daha bencil davranmaya başladığında, sosyal veya ilişki odaklı sorular ve kararlar YZ’ya bırakılırsa risk ortaya çıkıyor.” sözleriyle ifade etti.

Li ve HCII Doçenti Hirokazu Shirado, akıl yürütme yeteneğine sahip YZ sistemlerinin iş birliği ortamlarında nasıl davrandığını anlamak için çeşitli deneyler gerçekleştirdi. Bulgular, akıl yürütme özelliğine sahip sistemlerin bilgiyi analiz etmeye, karmaşık problemleri parçalamaya, yanıtlarını düşünerek üretmeye ve insan benzeri mantık uygulamaya daha fazla zaman ayırdığını gösterdi.

Zeka, İş Birliğini Nasıl Zayıflatıyor?

HCII’den Doçent Hirokazu Shirado, araştırmanın insan ve YZ arasındaki ilişki açısından önemli sonuçlar doğurduğunu belirterek şöyle konuştu: “Bir araştırmacı olarak beni ilgilendiren şey, insanlar ile YZ arasındaki bağlantı. Zekası artan YZ sistemleri, daha az iş birliği içeren kararlar alıyor. İnsanların, kendilerine çıkar sağlayan davranışları desteklese bile daha akıllı modelleri tercih etme eğiliminde olmaları endişe verici.”

YZ sistemleri artık iş dünyasından eğitime, toplumsal alanlardan kamu sektörüne kadar pek çok alanda iş birliği odaklı roller üstlenmeye başladı. Araştırmacılar, akıl yürütme becerisi kadar toplumsal zeka ve prososyal davranış yeteneklerinin de giderek daha kritik hale geldiğini vurguluyor. Büyük dil modellerine olan aşırı güven, insan davranışında iş birliğini zayıflatma riski taşıyor.

Araştırmada, akıl yürütme ve iş birliği arasındaki bağlantıyı test etmek için ekonomik oyunlar kullanıldı. Oyunlar, toplumsal ikilemleri simüle ederek farklı YZ modellerinin grup içi davranış kalıplarını gözlemlemeyi sağladı. Deneylerde OpenAI, Google, DeepSeek ve Anthropic şirketlerinin modelleri kullanıldı.

Bir deneyde, araştırmacılar iki farklı ChatGPT modelini Public Goods adlı bir oyunda karşı karşıya getirdi. Her model 100 puan ile başladı ve iki seçenek arasından karar vermek zorundaydı: Tüm puanları ortak havuza aktarmak (havuzdaki puan iki katına çıkarılıp eşit şekilde dağıtılıyor) ya da puanları kendinde tutmak.

Elde edilen sonuçlar dikkat çekiciydi: Akıl yürütme özelliği olmayan modeller puanlarını paylaşmayı yüzde 96 oranında tercih ederken, akıl yürütme özelliği olan model puanlarını yalnızca %20 oranında paylaştı.

Düşünmek Ahlaklı Olmak Demek Değil

Shirado, deneylerde ortaya çıkan davranış farklarının ne kadar belirgin olduğunu aktardı: “Bir deneyde yalnızca beş veya altı akıl yürütme adımı eklemek, iş birliğini neredeyse yarı yarıya azalttı. Ahlaki düşünmeyi simüle etmeyi amaçlayan yansıtma temelli istemler bile iş birliğinde yüzde 58’lik bir düşüşe yol açtı.”

Araştırmacılar yalnızca birebir senaryoları değil, aynı zamanda grup ortamlarını da test etti. Bu aşamada hem akıl yürütebilen hem de yürütemeyen modeller bir araya getirildi. Yuxuan Li, grup deneylerinin sonucunu “Farklı sayıda akıl yürüten temsilcinin bulunduğu gruplarda sonuçlar endişe vericiydi. Akıl yürütebilen modellerin bencil davranışları bulaşıcı hale geldi ve iş birliği yapan modellerin kolektif performansını yüzde 81 oranında düşürdü.” şeklinde açıkladı.

Li ve Shirado'nun gözlemlediği bu davranış örüntüleri, insan-YZ etkileşimleri açısından önemli uyarılar barındırıyor. Kullanıcılar, rasyonel görünen YZ tavsiyelerine güvenerek, iş birliğinden kaçınma kararlarını YZ'nın sunduğu mantıksal gerekçelerle meşrulaştırabilir.

Shirado sözlerini “Sonuç olarak, bir YZ modelinin daha akıllı hale gelmesi, toplumun daha iyiye gideceği anlamına gelmiyor.” diyerek tamamladı.

Araştırma, insanların YZ sistemlerine giderek daha fazla güvenmeye başladığı bir dönemde özellikle dikkat çekici. Bulgular, yalnızca zekayı artırmaya değil, aynı zamanda toplumsal zeka ve prososyal davranışa yatırım yapan bir YZ gelişiminin gerekliliğini vurguluyor.

Li ise şunları ekledi: “YZ yetenekleri ilerledikçe, artan mantık gücünün prososyal davranışla dengelenmesi gerekiyor. Eğer toplum bireylerin toplamından fazlasıysa, o zaman bizi destekleyen YZ sistemlerinin yalnızca bireysel çıkarı değil, ortak iyiliği gözetmesi gerekir.”

Kaynak: https://scitechdaily.com/ai-is-learning-to-be-selfish-study-warns/