Yapay Zeka
11/6/2025
Apple araştırmacıları, ileri düzey yapay zeka modellerinde "temel sınırlamalar" tespit etti. Şirketin hafta sonu yayınladığı akademik makale, teknoloji endüstrisinin giderek daha güçlü sistemler yaratma yarışına dair şüpheleri gündeme getirdi.
Apple, yayınladığı çalışmada büyük akıl yürütme modelleri (Large Reasoning Models - LRM) olarak adlandırılan gelişmiş yapay zeka türlerinin, çok karmaşık sorunlarla karşılaştıklarında "tam bir doğruluk çökmesi" yaşadığını ortaya koydu.
Çalışma, düşük karmaşıklıklı görevlerde standart YZ modellerinin LRM'lerden daha iyi performans gösterdiğini, ancak her iki model türünün de yüksek karmaşıklıklı sorunlarda "tam çökme" yaşadığını belirtti. LRM'ler, sorunları daha küçük adımlara ayırarak ayrıntılı bir düşünme süreci oluşturup karmaşık soruları çözmeye çalışıyor.
Model performansını test eden çalışma, türlerin bulmaca çözme yeteneğini değerlendirdi ve modellerin çökme eşiğine yaklaştıklarında "akıl yürütme çabasını azalttıklarını" tespit etti. Apple araştırmacıları bunu "özellikle endişe verici" olarak değerlendirdi.
ABD’li akademisyen ve yapay zeka modellerine ilişkin temkinli görüşleriyle bilinen Gary Marcus, Apple’ın makalesini "oldukça yıkıcı" olarak tanımladı.
Substack’teki haber bülteninde yazan Marcus, bulguların yapay genel zekaya (AGI) ulaşma yarışını sorgulattığını belirtti. AGI, yapay zekanın herhangi bir zihinsel görevi insan seviyesinde yerine getirebildiği teorik aşama olarak tanımlanıyor.
Marcus, ChatGPT gibi uygulamalara güç veren büyük dil modellerine (LLM) atıfta bulunarak şu ifadeyi kullandı: "LLM’lerin, toplumu iyilik yönünde dönüştürebilecek AGI'ye doğru doğrudan bir yol olduğunu düşünen herkes kendini kandırıyor."
Araştırmaya göre, akıl yürütme modelleri, basit problemleri erken aşamada çözse de, karmaşıklık artmaya başladığında önce hatalı çözümleri araştırıyor, doğru çözüme daha sonra ulaşıyor. Ancak daha yüksek karmaşıklıktaki sorunlarda modeller tamamen çökerek hiçbir doğru çözüme ulaşamıyor. Bir vakada, problemi çözecek algoritma verilmesine rağmen model yine başarısız oldu.
Makale şu sonuca vardı: "Kritik eşik noktasına yaklaşıldığında – ki bu, doğruluk çökmesiyle yakından ilişkilidir – modeller, paradoksal şekilde, sorunlar daha zorlaştıkça akıl yürütme çabasını azaltmaya başlıyor."
Apple uzmanları, bunun mevcut akıl yürütme modellerinin düşünme kapasitelerinde temel bir ölçeklenme sınırı olduğuna işaret ettiğini belirtiyor.
Çalışma, LRM'leri Hanoi Kuleleri ve Nehir Geçişi bulmacaları gibi zorluklar içeren testlere tabi tuttu. Araştırmacılar, bulmaca odaklı yaklaşımın kendisinin bir sınırlama olduğunu da kabul etti.
Makale, mevcut YZ yaklaşımının sınırlarına dayanabileceğini belirtiyor. Test edilen modeller arasında OpenAI'nin o3, Google’ın Gemini Thinking, Anthropic’in Claude 3.7 Sonnet-Thinking ve DeepSeek-R1 yer aldı. Anthropic, Google ve DeepSeek yorum için ulaşılırken, ChatGPT’nin geliştiricisi OpenAI yorum yapmayı reddetti.
“Genellenebilir akıl yürütme” – yani YZ modelinin belirli bir sonucu daha genelleştirerek uygulayabilme kabiliyeti – konusunda çalışma şu yorumu yapıyor: "Bu çıkarımlar, LRM yeteneklerine ilişkin yerleşik varsayımları sarsmakta ve mevcut yaklaşımlarda genellenebilir akıl yürütmeye dair temel engellere ulaşıldığını göstermektedir."
Surrey Üniversitesi, Kışı Odağlı YZ Enstitüsü'nden Andrew Rogoyski, Apple’ın çalışmasının, sektörün AGI konusunda hâlâ yolunu aradığını gösterdiğini belirtti. Rogoyski, mevcut yaklaşımın bir “çıkmaz sokağa” gelmiş olabileceğine dikkat çekti.
"Büyük akıl yürütme modellerinin karmaşık sorunlarda yetersiz kalıp orta ve düşük karmaşıklıklı problemleri başarıyla çözebilmesi, mevcut yaklaşımda potansiyel bir çıkmaz sokakta olduğumuzu ima ediyor." dedi.
Kaynak:https://www.theguardian.com/technology/2025/jun/09/apple-artificial-intelligence-ai-study-collapse