Yapay Zeka
22/10/2025

Yapay zekanın (YZ) kişisel ve profesyonel yaşamın her alanında hızla yayılmasına rağmen, yeni bir araştırma büyük dil modellerinin (LLM’ler) düşük kaliteli çevrimiçi içeriklerle tekrar tekrar eğitilmeleri halinde ciddi bir bilişsel gerileme yaşayabileceğini ortaya koydu. Çalışmaya göre süreç, modellerin mantık yürütme, hafıza ve etik tutarlılık yetilerini zayıflatıyor.
15 Ekim’de yayımlanan ve “LLMs Can Get Brain Rot!” başlığını taşıyan araştırma, viral ve etkileşim odaklı içeriklerle yapılan sürekli eğitimin gelişmiş YZ sistemlerini zamanla daha tutarsız ve kararsız hale getirebileceği konusunda uyarıyor.
Araştırmacılar, “LLM Brain Rot Hypothesis” (Büyük Dil Modellerinde Beyin Çürümesi Hipotezi) adını verdikleri hipotezle, uzun süre boyunca düşük bilgi değeri taşıyan, etkileşim odaklı veya yüzeysel içeriklerle yapılan ön eğitimlerin YZ modellerinin mantık yürütme, uzun bağlam anlama ve etik istikrar kabiliyetlerini zayıflattığını öne sürdü.
Terim, aşırı yüzeysel içerik tüketen insanlarda görülen zihinsel yorgunluğu tanımlayan “internet beyin çürümesi” ifadesinden esinlenerek oluşturuldu. Ekip, insanların gereksiz içerik bombardımanına maruz kaldıklarında odaklarını ve muhakeme derinliklerini kaybetmesiyle, LLM’lerin yüzeysel metinlerle eğitildiklerinde yaşadığı bilişsel erozyon arasında paralellik kurdu.
Araştırmacılar “Çöp Veri” Etkisini Nasıl Test Etti?
Hipotezi sınamak için araştırmacılar, sosyal medya platformu X’ten alınan gerçek verilerle kontrollü bir deney tasarladı. İçerikleri iki farklı ölçüte göre sınıflandırdılar:
Metriklerle hem yüksek kaliteli hem de çöp veri içeren veri kümeleri oluşturuldu. Ardından, Llama3 ve Qwen2.5 gibi dört popüler dil modeli bu veri setleriyle tekrar eğitildi.
Her model aynı koşullarda eğitildi, böylece verinin kalitesinin etkisi izole edilebildi. Amaç, günümüzün kısa, viral ve makine üretimi metinlerle dolu çevrimiçi ortamında sürekli eğitilen modellerin ne kadar bozulabileceğini görmekti.
Sonuçlar çarpıcıydı: modeller yalnızca düşük kaliteli verilerle eğitildiğinde mantık doğruluğu %74,9’dan %57,2’ye, uzun bağlam anlama yeteneği %84,4’ten %52,3’e geriledi. Bozulma rastgele değil, çöp veri oranı arttıkça kötüleşti; araştırmacılar bu etkiyi “doz-tepki ilişkisi” olarak adlandırdı.
Hem etkileşim yoğun (M1) hem de düşük anlamsal kaliteye sahip (M2) verilerin performansı düşürdüğü fakat özellikle popüler ve yüzeysel içeriklerin (M1) en ağır zararı verdiği saptandı.
Ayrıca, modellerde etik tutarlılığın azaldığı ve “kişilik kayması” görüldü. Çöp verilerle eğitilen modeller, yanlış cevaplarında daha emin davranmaya ve yüzeysel yanıtlar vermeye başladı.
Araştırma, bilişsel çürümenin modellerin içinde nasıl ortaya çıktığını da inceledi. Karmaşık akıl yürütme görevlerinde, çöp veriyle eğitilen modellerin mantık zincirlerindeki adımları atladığı tespit edildi. Söz konusu davranış “düşünce atlama (thought-skipping)” olarak adlandırıldı.
Modeller, detaylı mantık açıklamaları yerine kısa, dağınık ve doğrudan sonuca giden yanıtlar üretti. Bu da doğruluk kaybının ana nedeni olarak açıklandı.
Ayrıca, etkileşim odaklı verilerle eğitilen modellerde narsisizm ve psikopatiye benzer eğilimler gözlendi. Söz konusu “karanlık özellikler”, yanlış veya etik açıdan riskli yanıtlar verirken aşırı özgüven şeklinde ortaya çıktı.
Daha sonra modeller daha temiz verilerle yeniden eğitildi ancak doğruluk yalnızca kısmen toparlandı. Araştırmacılar, kalıcı bir bozulma yaşandığını belirleyerek bunu “kalıcı temsili kayma (persistent representational drift)” olarak tanımladı.
Araştırma sonuçları, YZ geliştiricileri ve politika yapıcılar için büyük uyarılar içeriyor. Çalışma, veri kalitesini yalnızca teknik bir detay değil, aynı zamanda “eğitim süreci güvenliği” meselesi olarak konumlandırıyor.
Sürekli düşük kaliteli içeriklerle karşılaşmak, LLM’lerin bilişsel ve etik güvenilirliğini zayıflatıyor; finans, eğitim ve kamu iletişimi gibi alanlarda güvenli kullanım riskini artırıyor.
Araştırmacılar, düşük kaliteli verinin modellerin mantık derinliğini, etik hizalanmasını ve uzun süreli bilgi tutma becerisini aşındırdığını belirtti. Bahsi geçen durum, insanların yüzeysel veya duygusal içeriklere maruz kaldıklarında yaşadıkları dikkat ve hafıza zayıflamasıyla benzerlik taşıyor.
Araştırma ekibi, internetin giderek artan kısmının YZ tarafından üretilen metinlerle dolması nedeniyle, gelecekteki modellerin bozulmayı miras alma riskine dikkat çekti.
Makale, LLM’lerin bilişsel sağlığının sistematik olarak izlenmesini öneriyor. Araştırmacılar üç temel adım çağrısında bulundu:
Araştırmacılar sonuç olarak şu uyarıyı yaptı: “Veri kalitesi, LLM yeteneklerinin çürümesinde nedensel bir faktördür.”
YZ modelleri giderek birbirlerinin ürettiği verilerle eğitildikçe, internet sentetik metinlerle doldukça, tehlike büyüyor. Veri temizliği sağlanmazsa, gelecek nesil yapay zekalar yalnızca insanın beyin çürümesini taklit etmekle kalmayacak, kendi dijital beyin çürümesine de kapılacak.