Çinli Minimax, 1 Milyon Tokenlık Bağlam Penceresine Sahip Açık Kaynak Model M1’i Tanıttı

Çin merkezli yapay zeka girişimi MiniMax, Batı'da daha çok gerçekçi YZ video modeli Hailuo ile tanınsa da, şimdi en yeni büyük dil modeli olan MiniMax-M1’i piyasaya sürdü. Apache 2.0 lisansı altında tamamen açık kaynak olarak sunulan bu model, işletmelerin hiçbir kısıtlama veya ödeme zorunluluğu olmaksızın ticari uygulamalarda kullanıp üzerinde değişiklik yapmasına olanak tanıyor.

MiniMax-M1, açık ağırlık yapısıyla uzun bağlamlı akıl yürütme, aracı benzeri araç kullanımı ve verimli hesaplama performansı konularında yeni standartlar belirliyor. Model, YZ kod paylaşım topluluğu Hugging Face ve Microsoft’un rakip platformu GitHub üzerinden erişime açıldı. MiniMax’in X sosyal medya hesabından yapılan duyuruda, bu model tanıtımının şirketin “MiniMaxWeek” olarak adlandırdığı haftanın ilk ürünü olduğu belirtildi ve başka duyuruların da yapılacağı ifade edildi.

MiniMax-M1, 1 milyon giriş tokenı ve 80.000'e kadar çıkabilen çıktı tokenı ile, uzun bağlamlı akıl yürütme görevleri için en geniş kapasiteye sahip modeller arasında yer alıyor.

Bağlam penceresi, büyük dil modellerinin (LLM) aynı anda işleyebileceği toplam token sayısını ifade eder — buna hem giriş hem de çıkış dahil. Tokenlar; sözcükler, kelime parçaları, noktalama işaretleri veya kod sembolleri gibi temel metin birimleridir. Bu birimler, modelin parametreleri (ağırlıklar ve önyargılar) aracılığıyla anlamları temsil edip işleyebilmesi için sayısal vektörlere dönüştürülür. Başka bir deyişle, tokenlar LLM’lerin doğal dilidir.

Karşılaştırma açısından, OpenAI’nin GPT-4o modeli yalnızca 128.000 tokenlık bir bağlam penceresine sahiptir; bu da modelle yapılan tek bir etkileşimde yaklaşık bir roman uzunluğunda bilgi alışverişine olanak tanır. MiniMax-M1, 1 milyon tokenlık kapasitesiyle bir kitap serisi kadar uzun veri ile çalışabilir. Google Gemini 2.5 Pro da 1 milyon token sınırını sunarken, 2 milyon tokenlık bir pencere üzerinde çalışmalar yürütülüyor.

Ancak M1’in öne çıkan tek özelliği bağlam kapasitesi değil. Model, yenilikçi, kaynak dostu ve son derece verimli bir teknikle, pekiştirmeli öğrenme (RL) kullanılarak eğitildi. M1, karma Uzman Karışımı (Mixture-of-Experts / MoE) mimarisine ve Lightning Attention adı verilen dikkat mekanizmasına dayanıyor. Bu sayede çıkarım (inference) maliyetleri ciddi ölçüde azaltılıyor.

Teknik rapora göre, MiniMax-M1, 100.000 tokenlık bir çıktı üretiminde DeepSeek R1 modeline kıyasla yalnızca %25 oranında kayan nokta işlemi (FLOP) gerektiriyor.

Mimari ve Varyantlar

Modelin iki farklı varyantı mevcut: MiniMax-M1-40k ve MiniMax-M1-80k. Bu isimler, modellerin “düşünme bütçesi” olarak adlandırılan çıktı uzunluklarını ifade ediyor.

Mimari yapı, şirketin önceki modeli olan MiniMax-Text-01 temeli üzerine inşa edildi. Model toplamda 456 milyar parametreye sahip ve her bir token için 45,9 milyar parametre aktive ediliyor.

Yayınlanan detaylarda öne çıkan bir diğer unsur da eğitim maliyeti. MiniMax, M1’in büyük ölçekli pekiştirmeli öğrenme ile, bu alanda nadiren görülen bir verimlilikte eğitildiğini bildiriyor. Toplam eğitim maliyeti yalnızca 534.700 dolar.

Bu yüksek verimlilik, önem örnekleme ağırlıklarını güncellemek yerine kesen özel bir RL algoritması olan CISPO ile, ayrıca modelin hibrit dikkat tasarımı sayesinde sağlandı.

Söz konusu rakam oldukça dikkat çekici: Örneğin DeepSeek, popüler R1 modelini 5-6 milyon dolar maliyetle eğitmişti. OpenAI’nin GPT-4 modeli ise — yaklaşık iki yıl önce piyasaya sürülmesine rağmen — 100 milyon doları aşkın eğitim maliyetiyle geliştirilmişti. Bu maliyetler, esas olarak Nvidia gibi firmaların ürettiği grafik işlem birimlerinin (GPU) fiyatından — ki her biri 20.000-30.000 dolar civarında olabiliyor — ve bu donanımların büyük veri merkezlerinde sürekli çalıştırılmasının gerektirdiği enerji giderlerinden kaynaklanıyor.

Karşılaştırmalı Performans Testleri

MiniMax-M1, ileri düzey akıl yürütme, yazılım mühendisliği ve araç kullanım kabiliyetlerini test eden bir dizi benchmark’ta değerlendirildi.

AIME 2024 adlı matematik yarışması benchmark’ında, M1-80k modeli %86,0 doğruluk oranı elde etti. Ayrıca, kodlama ve uzun bağlamlı görevlerde de yüksek performans sergileyerek şu puanlara ulaştı:

  • LiveCodeBench: %65,0

  • SWE-bench Verified: %56,0

  • TAU-bench: %62,8

  • OpenAI MRCR (4-needle): %73,4

Sonuçlar, MiniMax-M1’i açık ağırlıklı rakipleri olan DeepSeek-R1 ve Qwen3-235B-A22B gibi modellerin önüne taşıyor.

Her ne kadar OpenAI’nin o3 modeli ve Gemini 2.5 Pro gibi kapalı ağırlıklı modeller bazı testlerde üstünlüğünü korusa da, MiniMax-M1 performans farkını önemli ölçüde kapatıyor ve bunu Apache 2.0 lisansı altında tamamen erişilebilir biçimde yapıyor.

Uygulama Seçenekleri ve Geliştirici Araçları

Uygulama tarafında, MiniMax modeli dağıtmak için vLLM altyapısının kullanılmasını öneriyor. vLLM, büyük model iş yükleri için optimize edilmiş, hafıza verimliliği yüksek ve toplu istek yönetimi açısından avantajlı bir altyapı.

Ayrıca, Transformers kütüphanesi ile dağıtım seçeneği de sunuluyor.

MiniMax-M1; yapılandırılmış fonksiyon çağrısı desteğiyle birlikte geliyor ve paket içinde bir sohbet botu API’si bulunuyor. Bu API, çevrimiçi arama, video ve görsel üretimi, konuşma sentezi ve ses klonlama gibi araçları içeriyor. Bu özellikler, gerçek dünya uygulamalarında ajan davranışlarını desteklemeyi amaçlıyor.

Teknik Karar Vericiler ve Kurumsal Alıcılar için Anlamı

MiniMax-M1’in açık erişimi, uzun bağlam yetenekleri ve hesaplama verimliliği, büyük ölçekli YZ sistemlerinden sorumlu teknik profesyonellerin karşılaştığı birçok zorluğa doğrudan çözüm sunuyor.

LLM yaşam döngüsünün tamamından sorumlu mühendislik ekipleri için — yani model performansını optimize etmek ve dar zaman dilimlerinde devreye almakla görevli kişiler açısından — MiniMax-M1, düşük operasyonel maliyet profili ile gelişmiş akıl yürütme görevlerini destekliyor. Uzun bağlam penceresi, on binlerce token uzunluğundaki kurumsal belgelerin veya günlük verilerin ön işleme ihtiyacını azaltabilir.

YZ orkestrasyon hatlarını yönetenler için ise, vLLM veya Transformers gibi oturmuş araçlarla MiniMax-M1’in özelleştirilmesi ve dağıtımı entegrasyonu kolaylaştırıyor. Hibrit dikkat mimarisi ölçekleme stratejilerinin sadeleşmesine yardımcı olabilir. Modelin çok adımlı akıl yürütme ve yazılım mühendisliği benchmark’larındaki güçlü performansı, kurum içi yardımcılar veya ajan tabanlı sistemler için sağlam bir temel sunuyor.

Veri platformlarını yöneten takımlar için, yapılandırılmış fonksiyon çağrısı desteği ve otomatik hatlara (pipeline) uyumlu çalışması, verimli ve ölçeklenebilir altyapılar kurmayı kolaylaştırıyor. Açık kaynak yapısı, ekiplerin performansı kendi yığınlarına göre özelleştirmesine ve satıcıya bağımlılığı önlemesine imkan tanıyor.

Güvenlikten sorumlu kişiler de, yüksek yetenekli bir modelin hassas verilerin üçüncü taraflara iletilmesini gerektirmeyen, yerel (on-premises) dağıtımı konusunda MiniMax-M1’in potansiyelini değerlendirebilir.

Kaynak:https://venturebeat.com/ai/minimax-m1-is-a-new-open-source-model-with-1-million-token-context-and-new-hyper-efficient-reinforcement-learning/