Yapay Zeka
20/6/2025
Massachusetts Teknoloji Enstitüsü (MIT) araştırmacıları, büyük dil modellerinin (LLM) gerçek zamanlı olarak öğrenmeye devam etmesini sağlayan yeni bir yöntem geliştirdi. Çalışma, YZ’nin kendini sürekli geliştiren sistemlere dönüşmesi yolunda önemli bir adım olarak değerlendiriliyor. Ayrıca, gelecekte YZ’nin insan zekasına daha yakın hale gelmesi için kritik bir basamak olabilir. Kısa vadede ise, kullanıcıların ilgi alanları ve tercihlerine daha iyi uyum sağlayan sohbet botları ve YZ araçlarının geliştirilmesini mümkün kılabilir.
MIT’nin geliştirdiği bu yeni yaklaşım, Self Adapting Language Models (SEAL) olarak adlandırılıyor. Yöntem, modelin aldığı girdilerden yola çıkarak kendi sentetik eğitim verisini üretmesini esas alıyor. Doktora öğrencisi Jyothish Pari, “İlk fikir, modelleri besleyen ve onların ürettiği metin birimleri olan token’ların güçlü bir güncelleme yaratıp yaratamayacağını keşfetmekti.” diyerek, SEAL’in temelini oluşturan düşünceyi özetliyor. Pari, ayrıca modelin kendi çıktısını kullanarak kendini eğitmesinin mümkün olup olmadığını araştırdıklarını belirtiyor.
Araştırma ekibinden MIT lisans öğrencisi Adam Zweigler, yeni modellerin karmaşık çıkarımlar yaparak daha iyi çözümlere ulaşabildiğini, ancak bu sürecin modelin kalıcı olarak öğrenmesini sağlamadığını söylüyor. “Model, yaptığı akıl yürütmeden uzun vadede fayda sağlamıyor.” diyen Zweigler, SEAL yönteminin bu eksikliği gidermeyi amaçladığını ifade ediyor.
SEAL sayesinde, model kendisine verilen bilgilerden yeni çıkarımlar üretip bu çıkarımları kendi parametrelerine dahil edebiliyor. Örneğin, Apollo uzay programının karşılaştığı zorluklarla ilgili bir bilgi verildiğinde, model zorlukların ne anlama geldiğini açıklamaya çalışan yeni metinler oluşturuyor. Araştırmacılar bu süreci, bir öğrencinin ders çalışırken not alması ve bu notları gözden geçirerek öğrenmesini pekiştirmesiyle karşılaştırıyor.
Oluşturulan yeni veriler model üzerinde kullanılmakta ve ardından güncellenmiş model, belirli bir soru setiyle test edilmekte. Söz konusu süreçte elde edilen sonuçlar, modelin genel becerilerini iyileştiren ve sürekli öğrenmesini sağlayan bir pekiştirmeli öğrenme sinyali işlevi görüyor.
MIT ekibi, SEAL yaklaşımını Meta'nın açık kaynak modeli Llama ile Alibaba'nın Qwen modelinin küçük ve orta ölçekli versiyonları üzerinde test etti. Araştırmacılar, yöntemin çok daha büyük ve gelişmiş modellerde de işe yarayabileceğini belirtiyor.
SEAL, yalnızca metin üzerinden değil, aynı zamanda bir yapay zekanın soyut akıl yürütme yeteneğini ölçen ARC adlı bir kıyaslama testiyle de denendi. Her iki durumda da, SEAL’in modellerin ilk eğitimlerinin ötesine geçerek öğrenmeye devam etmelerini sağladığı gözlemlendi.
Çalışmayı yürüten MIT profesörü Pulkit Agrawal, projenin YZ alanındaki temel sorunlara temas ettiğini belirtiyor. “LLM’ler güçlü, ancak bilgilerinin bir noktada durmasını istemiyoruz.” diyen Agrawal, SEAL’in aynı zamanda modellerin daha kişiselleştirilmiş hale gelmesine katkı sağlayabileceğini söylüyor fakat SEAL’in sınırsız bir öğrenme mekanizması sunduğu söylenemez. Agrawal, test edilen modellerin hâlâ “katastrofik unutma” olarak bilinen bir sorundan mustarip olduğunu ifade ediyor. Bu durum, yeni bilgilerin öğrenilmesi sırasında eski bilgilerin silinmesiyle ortaya çıkıyor ve yapay sinir ağlarıyla biyolojik sinir ağları arasındaki temel farklardan biri olarak değerlendiriliyor.
Pari ve Zweigler, SEAL’in yüksek hesaplama gücü gerektirdiğini ve öğrenme dönemlerinin ne zaman başlatılacağının halen belirsiz olduğunu belirtiyor. Zweigler, ilginç bir fikir olarak, insanların uykuda bilgi pekiştirmesine benzer şekilde, LLM’lerin de bilgi pekiştirmek için “uyku dönemlerinden” geçirilebileceğini söylüyor.
Tüm bu sınırlamalara rağmen SEAL, YZ araştırmaları için heyecan verici yeni bir yön sunuyor ve gelecekteki ileri düzey modellerde uygulanabilecek potansiyele sahip.
Kaynak:https://www.wired.com/story/this-ai-model-never-stops-learning/