Yapay Zeka

28/1/2025

Pentagon Yapay Zekanın “Ölüm Zincirlerini” Hızlandırdığını Söylüyor

ABD Savunma Bakanlığı (Pentagon), yapay zekâ teknolojilerini askeri operasyonlarında kullanarak tehditleri daha hızlı tespit etmek, izlemek ve değerlendirmek için önemli bir adım atıyor. Bu süreçte, OpenAI ve Anthropic gibi önde gelen yapay zekâ geliştiricileri, Pentagon ile ortak çalışmalar yapıyor. Pentagon’un Dijital ve Yapay Zekâ Sorumlusu Dr. Radha Plumb, yapay zekânın şu anda bir silah olarak kullanılmadığını, ancak tehditlerin değerlendirilmesinde ve askeri strateji geliştirmede “önemli bir avantaj” sağladığını belirtti. Dr. Plumb, bu teknolojinin hız kazandırma potansiyeline vurgu yaparak, “Öldürme zincirinin icra edilmesini hızlandırma yollarımızı artırıyoruz, böylece komutanlarımız, güçlerimizi korumak için doğru zamanda tepki verebilir,” ifadelerini kullandı.

Yapay Zekânın Öldürme Zincirindeki Rolü

Öldürme zinciri, tehditlerin tespiti, izlenmesi ve ortadan kaldırılmasını içeren çok aşamalı bir askeri süreçtir. Sensörler, platformlar ve silahlardan oluşan karmaşık bir sistemin parçası olan bu süreçte, yapay zekâ planlama ve strateji geliştirme aşamalarında faydalı oluyor. Yapay zekâ, senaryoları analiz ederek komutanların daha geniş bir perspektif kazanmasını sağlıyor ve karar verme sürecini hızlandırıyor. Plumb, “Farklı senaryoları denemek, üretilen yapay zekânın yardımcı olabileceği bir şey. Bu, komutanlarımızın sahip olduğu araçları tam anlamıyla kullanmalarını sağlarken, aynı zamanda bir tehdit veya bir dizi tehdidin ortadan kaldırılması gereken bir ortamda farklı yanıt seçeneklerini ve olası uzlaşmaları yaratıcı bir şekilde düşünmelerini sağlıyor,” dedi.

Pentagon’un yapay zekâ geliştiricileriyle iş birliği oldukça yeni bir süreç. OpenAI, Anthropic ve Meta, 2024 yılında ABD istihbarat ve savunma birimlerinin yapay zekâ sistemlerini kullanmalarına izin vermek için kullanım politikalarını gevşettiler. Ancak bu şirketler, yapay zekânın insanlara zarar vermesine kesinlikle izin vermiyor. Dr. Plumb, Pentagon’un bu iş birliği kapsamında, “Bu teknolojileri ne için kullanıp kullanmayacağımız konusunda çok açık olduk,” diyerek, yapay zekâ kullanımının sınırlarının net bir şekilde belirlendiğini ifade etti.

Yapay Zekâ ve Savunma Sektöründe İş Birlikleri

Bu süreçte, Silikon Vadisi’nden birçok teknoloji şirketi savunma sektörüne yöneldi. Meta, Lockheed Martin ve Booz Allen gibi savunma devleriyle çalışarak Llama yapay zekâ modellerini savunma kurumlarına entegre etti. Anthropic, Palantir ile ortaklık kurarken, OpenAI Aralık ayında Anduril ile iş birliği yaptı. Daha az dikkat çeken bir şekilde, Cohere de modellerini Palantir ile savunma alanında kullanıma sundu.

Bu gelişmeler, Silikon Vadisi’nin kullanım politikalarını gevşeterek daha fazla askeri uygulamaya olanak tanıyabileceğine işaret ediyor. Ancak bu durum, bazı yapay zekâ politikalarını ihlal ediyor gibi görünüyor. Örneğin, Anthropic’in politikası, yapay zekânın insan yaşamına zarar vermek amacıyla kullanılmasını kesin bir şekilde yasaklıyor. Anthropic CEO’su Dario Amodei, Financial Times’a verdiği röportajda, askeri iş birliğini şu sözlerle savundu: “Yapay zekânın savunma ve istihbarat alanlarında kullanılmasına tamamen karşı olmak bana mantıklı gelmiyor. Yapay zekâyı her şey için kullanıp, kıyamet silahları yapmak gibi uç bir noktaya gitmek de aynı şekilde çılgınca. Biz orta bir yol bulmaya çalışıyor ve işleri sorumlu bir şekilde yapmayı hedefliyoruz.”

Otonomi Tartışmaları ve Yapay Zekâ Güvenliği

Yapay zekânın savunma alanında kullanımı, hayat ve ölüm kararlarının otomatik sistemlere bırakılıp bırakılmaması tartışmalarını beraberinde getiriyor. Bazı uzmanlar, ABD ordusunun zaten otonom silah sistemlerini kullandığını öne sürüyor. Örneğin, Anduril CEO’su Palmer Luckey, ABD ordusunun CIWS taret gibi sistemleri uzun süredir satın aldığını ve bunların kullanımının sıkı kurallarla düzenlendiğini belirtti. Ancak Dr. Plumb, tamamen otonom silah sistemlerinin Pentagon tarafından kullanılmadığını şu sözlerle ifade etti: “Cevap hayır, kısa cevap bu. Hem güvenilirlik hem de etik açısından, kuvvet kullanımına karar verme sürecine her zaman insanlar dahil olacaktır ve bu, silah sistemlerimizi de kapsar.”

Plumb, insan ve makine iş birliğinin yanlış anlaşıldığını belirtti. “İnsanlar bunu sanki bir yerlerde robotlar var ve gonculatör [kurgusal bir makine] bir kağıt çıkarıyor, insanlar da sadece bir kutu işaretliyor gibi düşünüyor. Bu, insan-makine iş birliğinin nasıl çalıştığı değil ve bu tür yapay zekâ sistemlerini kullanmanın etkili bir yolu değil,” diyerek, gerçekliğin daha az bilim kurguya benzediğini ifade etti.

Geçmişte, askeri iş birlikleri teknoloji şirketleri arasında protestolara yol açmıştı. Örneğin, Amazon ve Google çalışanları, İsrail ile yapılan askeri kontratları protesto etmişti. Ancak yapay zekâ topluluğu, bu kez daha sessiz bir tavır sergiliyor. Anthropic araştırmacılarından Evan Hubinger, yapay zekânın militarilerde kullanılmasının kaçınılmaz olduğunu ve bu teknolojiyi doğru bir şekilde yönlendirmek için hükümetle çalışmanın kritik olduğunu savunuyor. “Yapay zekâdan kaynaklanan felaket risklerini ciddiye alıyorsanız, ABD hükümetiyle etkileşim kurmak son derece önemlidir ve hükümeti yapay zekâ kullanımından tamamen dışlamaya çalışmak uygulanabilir bir strateji değildir,” diyen Hubinger, sorumluluk ve denetimin önemini vurguluyor.

Not: Öldürme zinciri (kill chain), askeri strateji ve operasyonlarda bir tehdidi tespit etmek, izlemek ve etkisiz hale getirmek için kullanılan adımların bütününe verilen isimdir.