Yapay Zeka
8/5/2025
Yapay zeka endüstrisinde uzun süredir var olan halüsinasyon problemi, modellerin daha karmaşık ve güçlü hale gelmesiyle birlikte daha da belirginleşiyor. Özellikle OpenAI, Google ve DeepSeek gibi dev şirketlerin geliştirdiği son nesil “akıl yürütme” odaklı modellerin, beklenenin aksine, daha fazla hata üretmesi dikkat çekiyor.
New York Times tarafından aktarılan bulgulara göre, büyük dil modellerinin "düşünerek" daha isabetli yanıtlar vermesi beklenen yeni versiyonları, önceki modellere kıyasla daha fazla yanlış bilgi üretiyor. Söz konusu durum, kullanıcıların bu sistemleri artan sayıda göreve entegre ettiği bir dönemde ciddi riskler doğuruyor. Hatalı bilgiye dayanan öneriler, kullanıcıların güvenilirliğini zedeleyebilir ya da daha tehlikeli sonuçlara neden olabilir.
Sorunun en kritik boyutu ise teknoloji firmalarının, modellerin neden daha sık halüsinasyon gördüğünü kesin biçimde açıklayamıyor oluşu. Yani sistemlerin nasıl çalıştığına dair içsel belirsizlikler sürüyor. Bu belirsizlik, "modeller büyüdükçe daha güvenilir hale gelir" şeklindeki temel sektörel varsayımı sorgulatıyor.
Şirketlerin, daha büyük ve daha güçlü modeller için altyapıya on milyarlarca dolarlık yatırım yaptığı dikkate alındığında, ortaya çıkan tablo endişe verici. Üstelik bazı uzmanlara göre, halüsinasyonlar model mimarisinin doğasında var ve tamamen ortadan kaldırılması mümkün değil. Vectara CEO’su Amr Awadallah, New York Times’a verdiği demeçte "En iyi çabalarımıza rağmen, onlar her zaman halüsinasyon görecek. Bu asla ortadan kalkmayacak." ifadesini kullandı.
Halüsinasyonların sistematik hale gelmesi, şirketlerin özel çözümler üretmesini de beraberinde getirdi. Yapay zeka sistemlerinin hatalarıyla başa çıkmak üzere kurulan danışmanlık firmalarından biri olan Okahu’nun kurucu ortağı Pratik Verma, "Bu hatalarla doğru şekilde ilgilenmemek, yapay zeka sistemlerinin değerini ortadan kaldırıyor." diyerek konunun ticari etkilerine işaret etti.
Son gelişmeler, OpenAI’nin yeni akıl yürütme modelleri olan o3 ve o4-mini'nin önceki sürümlere kıyasla daha fazla yanlış bilgi üretmesiyle somutlaştı. o4-mini modeli, şirketin iç testlerinde %48 oranında halüsinasyon üretirken, o3 modeli %33 oranla izledi. Her iki oran da önceki modellerin neredeyse iki katı düzeyinde. Yani modeller ne kadar karmaşık hale gelirse gelsin, doğruluk oranları beklentilerin altında kalıyor.
Aynı şekilde, Google ve DeepSeek tarafından geliştirilen rekabetçi modeller de benzer zayıflıklar gösteriyor. Sektördeki tüm büyük oyuncuların benzer sorunlarla mücadele ediyor olması, problemin bireysel bir modelden değil, yapısal bir krizden kaynaklandığını düşündürüyor.
Uzmanlar ayrıca, model büyüklükleri arttıkça elde edilen getirilerin giderek azaldığını belirtiyor. Eğitim verilerinin tükenmeye başlamasıyla, şirketlerin giderek daha fazla sentetik veriyle modelleri eğitmeye yönelmesi, sistemlerin gerçeklikten uzaklaşmasına neden olabilir. Yapay olarak üretilmiş verilerle eğitilen sistemlerin, zaten çözülmemiş halüsinasyon problemini daha da büyütmesi muhtemel.
Genel tablo, yapay zeka alanında tüm çabalara rağmen halüsinasyonların hiç olmadığı kadar yaygınlaştığını gösteriyor. Şimdilik teknoloji doğru yöne ilerlemiyor ve sektör, kendi geliştirdiği sistemlerin öngörülemezliğiyle mücadele etmeye devam ediyor.
Kaynak:https://futurism.com/ai-industry-problem-smarter-hallucinating