Yapay Zeka

12/2/2025

Anthropic CEO’su: DeepSeek, Kritik Biyolojik Silahlar Testinde “En Kötüsü” Çıktı

Anthropic CEO’su Dario Amodei, Çin merkezli yapay zeka şirketi DeepSeek hakkında ciddi endişeler taşıyor. Ancak bu endişe, yalnızca şirketin kullanıcı verilerini Çin’e gönderebileceği iddialarıyla sınırlı değil. Amodei’ye göre DeepSeek, ulusal güvenliği tehdit edebilecek düzeyde güvenlik açıklarına sahip.

Jordan Schneider’in ChinaTalk podcast’inde konuşan Amodei, Anthropic’in yapay zeka modellerini değerlendirmek için gerçekleştirdiği testlerden birinde DeepSeek’in nadir bulunan biyolojik silah bilgileri ürettiğini açıkladı. DeepSeek’in sonuçlarını şu sözlerle özetledi:

“Şimdiye kadar test ettiğimiz modeller arasında en kötüsüydü. Bu bilgileri üretme konusunda hiçbir engeli yoktu.”

Anthropic’in Güvenlik Testleri ve DeepSeek’in Zayıflıkları

Anthropic, düzenli olarak farklı yapay zeka modellerini ulusal güvenlik riskleri açısından değerlendiriyor. Bu testlerde, modellerin Google’da ya da akademik kaynaklarda kolayca bulunamayacak biyolojik silahlarla ilgili hassas bilgileri üretme kapasitesi ölçülüyor. Amodei, DeepSeek’in mevcut durumda "tam anlamıyla tehlikeli" olmadığını, ancak kısa vadede risk oluşturabileceğini vurguluyor.

DeepSeek mühendislerini “yetenekli” olarak nitelendirse de, "Şirketin yapay zeka güvenliği konusunu ciddiye alması gerektiğini düşünüyorum." diyerek DeepSeek’e açık bir uyarıda bulunuyor.

Amodei ayrıca, ABD’nin Çin’e yönelik çip ihracatını kısıtlama politikasını desteklediğini belirtiyor. Ona göre, bu çipler Çin ordusuna stratejik bir avantaj sağlayabilir.

Ancak, Anthropic’in test ettiği DeepSeek modelinin hangisi olduğu ve testin teknik detayları hakkında net bir bilgi paylaşılmadı. Ne Anthropic ne de DeepSeek, TechCrunch’ın yorum taleplerine yanıt verdi.

DeepSeek’in Güvenlik Açıkları ve Küresel Tepkiler

DeepSeek’in güvenlik açıkları yalnızca Anthropic’in değil, diğer teknoloji şirketlerinin de dikkatini çekmiş durumda. Örneğin, Cisco güvenlik araştırmacıları, DeepSeek R1 modelinin zararlı istemleri engellemekte tamamen başarısız olduğunu ortaya koydu. Cisco’nun testlerine göre model, yapılan güvenlik kontrollerinde %100 oranında başarısızlık gösterdi.

Cisco’nun raporunda biyolojik silahlar doğrudan ele alınmasa da, DeepSeek’in siber suçlar ve yasa dışı faaliyetlerle ilgili tehlikeli bilgiler üretebildiği belirtildi. Ancak, güvenlik konusunda yalnızca DeepSeek değil, büyük rakipleri de eleştiriliyor. Meta’nın Llama-3.1-405B modeli %96, OpenAI’nin GPT-4o modeli ise %86 oranında güvenlik testlerini geçemedi.

DeepSeek’in güvenlik konusundaki bu açıklarının, şirketin küresel çapta büyümesini nasıl etkileyeceği ise merak konusu. Amazon ve Microsoft gibi teknoloji devleri, DeepSeek R1’i kendi bulut platformlarına entegre etmek için çalışmalarını sürdürüyor. İşin ilginç yanı, Amazon’un aynı zamanda Anthropic’in en büyük yatırımcılarından biri olması.

Ancak, bu büyümeye rağmen bazı ülkeler ve devlet kurumları DeepSeek’i yasaklama kararı almış durumda. ABD Donanması ve Pentagon, şirketin modellerini kullanım dışı bırakan devlet kurumları arasında yer alıyor.

DeepSeek’in bu yasaklara rağmen yükselişine devam edip edemeyeceği belirsizliğini korurken, Amodei şirketin artık küresel yapay zeka rekabetinde en üst seviyede yer aldığını kabul ediyor:

“Burada yeni bir gerçek var: Yeni bir rakip doğdu. Yapay zekayı eğitebilen büyük şirketler arasında artık Anthropic, OpenAI, Google ve belki Meta ile xAI vardı. Şimdi DeepSeek de bu listeye eklenmiş olabilir.”





Kaynak: https://techcrunch.com/2025/02/07/anthropic-ceo-says-deepseek-was-the-worst-on-a-critical-bioweapons-data-safety-test/