Yapay Zeka

5/2/2025

DeepSeek'in Gerçek Maliyeti Ortaya Çıktı: 1 Milyar Doların Üzerinde Harcama

Yapay zeka alanındaki gelişmeleri yakından takip eden SemiAnalysis, DeepSeek’in gerçek maliyet ve performansına ilişkin kapsamlı bir analiz yayımladı. Çalışmada, daha önce rapor edilen 6 milyon dolarlık eğitim maliyetinin yanıltıcı olduğu belirtilerek, bu rakamın yalnızca GPU ön eğitim giderlerini içerdiği, ancak Ar-Ge, altyapı ve diğer kritik maliyetleri hariç tuttuğu vurgulandı. DeepSeek’in toplam sunucu sermaye harcaması (CapEx) yaklaşık 1,3 milyar dolar seviyesinde olup, büyük bir kısmı GPU kümelerinin bakım ve işletme giderlerine ayrılmış durumda.

Teknoloji yatırımcısı David Sacks, X (Twitter) hesabında bu raporu paylaşarak şu ifadeleri kullandı: "Önde gelen yarı iletken analisti Dylan Patel tarafından yayımlanan yeni bir rapora göre, DeepSeek'in bilgi işlem kümesi için 1 milyar dolardan fazla harcama yaptığı ortaya çıktı. Daha önce geniş çapta bildirilen 6 milyon dolarlık rakam oldukça yanıltıcı, çünkü bu rakam sermaye harcamaları (capex) ve Ar-Ge maliyetlerini içermiyor ve yalnızca son eğitim çalışmasının maliyetini ifade ediyor."

DeepSeek’in Donanım Yapısı

SemiAnalysis raporuna göre, DeepSeek’in yaklaşık 50.000 Hopper GPU’ya erişimi olduğu belirtildi, ancak bunun 50.000 adet H100 GPU olduğu yönündeki iddiaların gerçeği yansıtmadığı vurgulandı. DeepSeek’in kullandığı donanım, H800, H100 ve Çin'e özel olarak üretilen H20 GPU’larından oluşan bir kombinasyona dayanıyor. NVIDIA, ABD’nin ihracat kısıtlamalarına yanıt olarak H20 modelini Çin pazarına sunmuştu. Raporda ayrıca DeepSeek’in büyük yapay zeka laboratuvarlarından farklı olarak kendi veri merkezlerini işlettiği ve daha verimli bir operasyonel yapıya sahip olduğu belirtildi.

Performans Karşılaştırmaları ve Teknolojik Yenilikler

DeepSeek’in R1 modeli, rapora göre OpenAI’nin O1 modeliyle akıl yürütme (reasoning) görevlerinde eşit performans gösteriyor, ancak tüm metriklerde net bir liderlik sergilemiyor. Bununla birlikte, DeepSeek’in düşük maliyetli ve verimli yapısıyla dikkat çektiği belirtilirken, Google’ın Gemini Flash 2.0 modelinin benzer yetenekler sunduğu ve API üzerinden erişildiğinde daha düşük maliyetle çalıştığı ifade edildi.

Öne çıkan bir diğer teknoloji ise Multi-Head Latent Attention (MLA). Bu yenilik, KV önbellek kullanımını %93,3 oranında azaltarak çıkarım (inference) maliyetlerini önemli ölçüde düşürüyor. SemiAnalysis, DeepSeek’in yaptığı yeniliklerin Batılı yapay zeka laboratuvarları tarafından hızla benimsenebileceğini belirtiyor.

Gelecekteki Zorluklar ve Potansiyel Maliyet Düşüşleri

SemiAnalysis, yıl sonuna kadar yapay zeka model eğitimi ve işletme maliyetlerinin 5 kat daha azalabileceğini belirtiyor. DeepSeek’in bağımsız yapısının, büyük ve bürokratik yapay zeka laboratuvarlarına kıyasla daha hızlı hareket etmesini sağladığı vurgulanıyor. Ancak, raporda ABD'nin sıkılaşan ihracat kontrolleri nedeniyle ölçek büyütmenin büyük bir zorluk olmaya devam ettiği de belirtiliyor.

Kaynak: https://x.com/DavidSacks/status/1885349558110052571?utm_source=www.therundown.ai&utm_medium=newsletter&utm_campaign=openai-reveals-chatgpt-agent-for-deep-research&_bhlid=367b231ed3342042d720a5d00bd2f58ef974e8e6