Çin, Rakiplerinden 100 Kat Hızlı Çalışan “Beyin Benzeri” Yapay Zeka SpikingBrain 1.0’ı Tanıttı

Pekin’deki Çin Bilimler Akademisi Otomasyon Enstitüsü’nden araştırmacılar, SpikingBrain 1.0 adlı yeni yapay zeka sistemini tanıttı. Araştırma ekibi tarafından “beyin benzeri” büyük dil modeli olarak tanımlanan sistem, daha az enerji kullanacak şekilde tasarlandı ve Nvidia yerine yerli Çin donanımı üzerinde çalışıyor. Araştırmacılar yayımladıkları hakem denetiminden geçmemiş teknik raporda “Ana akım Transformer tabanlı büyük dil modelleri (LLM’ler) verimlilik darboğazlarıyla karşılaşıyor: eğitim hesaplama, dizi uzunluğuyla karekök olarak ölçekleniyor, çıkarım belleği ise doğrusal şekilde büyüyor.” ifadelerine yer verdi. Elde edilen sonuçlara göre SpikingBrain 1.0, bazı görevlerde geleneksel modellere kıyasla 100 kata kadar daha hızlı performans gösterdi ve tipik olarak gerekenden %2’den az veriyle eğitildi.

Çalışma, yalnızca 20 watt güçle işleyebilen insan beyninin verimliliğini taklit etmeyi hedefleyen nöromorfik bilişim araştırmalarının bir parçası. Araştırma ekibi, “Çalışmamız beyin mekanizmalarından ilham almaktadır.” diyerek geliştirdikleri yöntemin temelini açıkladı.

SpikingBrain 1.0’ın arkasındaki teknoloji “spiking computation” adı verilen bir yöntem. İnsan beynindeki biyolojik nöronların işleyişini taklit eden bu sistem, bilgiyi işlerken ağın tamamını harekete geçirmek yerine yalnızca belirli girişlerle tetiklendiğinde sinyal üretiyor. Bu olay odaklı yaklaşım, hem enerji tüketimini düşürüyor hem de işlem hızını artırıyor. Ekip, modeli göstermek için 7 milyar ve 76 milyar parametreli iki versiyon geliştirdi. Her iki versiyon toplamda yaklaşık 150 milyar token veriyle eğitildi.

Özellikle uzun veri dizilerinde modelin verimliliği dikkat çekici oldu. 4 milyon token’dan oluşan bir girdiye yanıt verirken, daha küçük model standart sistemlerden 100 kat daha hızlı çalıştı. Bir diğer testte ise SpikingBrain 1.0, bir milyon token bağlamından ilk token’ı üretirken geleneksel Transformer mimarilerine göre 26,5 kat daha hızlı çıktı.

Araştırmacılar, sistemin Şanghay merkezli MetaX Integrated Circuits Co. tarafından geliştirilen yüzlerce MetaX çipi üzerinde haftalarca kararlı şekilde çalıştığını belirtti. Yerli donanımda elde edilen başarı, modelin gerçek dünya uygulamalarına hazır olduğuna işaret ediyor. Potansiyel kullanım alanları arasında uzun hukuk ve tıp belgelerinin analizi, yüksek enerji fiziği araştırmaları ve DNA dizileme gibi karmaşık veri yoğunluklu çalışmalar yer alıyor.

Araştırmacılar raporda şu ifadeyi kullandı: “Bu sonuçlar yalnızca NVIDIA dışı platformlarda verimli büyük model eğitiminin uygulanabilirliğini göstermekle kalmaz, aynı zamanda beyin ilhamlı modellerin gelecekteki hesaplama sistemlerinde ölçeklenebilir dağıtımı ve uygulamaları için yeni yönler sunar.”

Kaynak: https://interestingengineering.com/innovation/china-unveil-brain-like-ai