Yapay Zeka

6/2/2025

Google, Yapay Zekanın Silahlar için Kullanımının Önünü Açtı!

Google, 2018 yılında yayımladığı yapay zeka ilkelerinde bugüne kadar yaptığı en büyük değişikliklerden birini gerçekleştirdi. The Washington Post’un tespit ettiği değişiklikte, şirketin daha önce yapay zekayı silahlar veya gözetim teknolojileri için "tasarlamayacağı veya dağıtmayacağı" yönündeki taahhütleri tamamen kaldırıldı. Önceki versiyonda yer alan “takip etmeyeceğimiz uygulamalar” başlıklı bölüm, güncellenmiş belgede bulunmuyor. Şirket, değişikliği duyurduğu bir blog gönderisi yayımlasa da, yapılan değişiklikleri açıkça belirtmedi.

Yeni belgede bu taahhütlerin yerini, “sorumlu geliştirme ve dağıtım” başlıklı daha genel bir ifade aldı. Google, bu bölümde "kullanıcı hedefleri, toplumsal sorumluluk ve uluslararası hukuk ile insan haklarının yaygın olarak kabul edilen ilkelerine uyum sağlamak amacıyla uygun insan gözetimi, özenli inceleme ve geri bildirim mekanizmaları uygulayacağını" belirtiyor. Ancak bu ifade, önceki belgede yer alan kesin taahhütlerden çok daha geniş ve belirsiz bir kapsam sunuyor.

Önceki versiyonda, Google yapay zekayı "temel amacı veya kullanımı insanlara zarar vermek ya da doğrudan zarar vermeyi kolaylaştırmak olan silahlar veya diğer teknolojiler için tasarlamayacağını" açıkça taahhüt etmişti. Ayrıca şirket, "uluslararası kabul görmüş normları ihlal eden gözetim teknolojileri geliştirmeyeceğini" de belirtmişti. Ancak güncellenen metinde bu tür spesifik ifadeler yer almıyor.

Google’a bu değişiklikle ilgili yorum yapması istendiğinde, şirketin bir sözcüsü yalnızca salı günü yayımlanan blog gönderisine yönlendirdi. Söz konusu blog yazısında, DeepMind CEO’su Demis Hassabis ve Google'ın araştırma, laboratuvarlar, teknoloji ve toplumdan sorumlu kıdemli başkan yardımcısı James Manyika, yapay zekanın artık “genel amaçlı bir teknoloji” olarak ortaya çıkmasının politika değişikliğini gerektirdiğini belirtti.

"Demokrasilerin, özgürlük, eşitlik ve insan haklarına saygı gibi temel değerler doğrultusunda yapay zeka geliştirmeye öncülük etmesi gerektiğine inanıyoruz. Bu değerleri paylaşan şirketler, hükümetler ve kuruluşlar birlikte çalışarak yapay zekanın insanları korumasını, küresel büyümeyi teşvik etmesini ve ulusal güvenliği desteklemesini sağlamalıdır." ifadelerini kullanan Hassabis ve Manyika, "Yapay Zeka İlkelerimiz rehberliğinde, misyonumuz, bilimsel odağımız ve uzmanlık alanlarımızla uyumlu yapay zeka araştırmalarına ve uygulamalarına odaklanmaya devam edeceğiz. Uluslararası hukukun ve insan haklarının yaygın olarak kabul edilen ilkeleriyle tutarlı olacak ve her bir çalışmayı titizlikle değerlendirerek, getirilerinin potansiyel riskleri önemli ölçüde aşıp aşmadığını dikkatle inceleyeceğiz." şeklinde ekledi.

Google, 2018’de bu yapay zeka ilkelerini yayımladığında, bunu Project Maven olarak bilinen ve şirket içinde büyük tartışmalara yol açan hükümet sözleşmesinin ardından yapmıştı. ABD Savunma Bakanlığı ile yapılan bu anlaşma, yenilendiği takdirde Google’ın Pentagon’a insansız hava aracı (drone) görüntülerini analiz etmek için yapay zeka yazılımı sağlamasını öngörüyordu.

Bu proje şirket içinde büyük bir tepkiyle karşılandı. Onlarca çalışan istifa etti, binlerce kişi ise projeye karşı bir dilekçe imzaladı. Google yönetimi üzerindeki baskı giderek arttı ve şirket, sonunda Project Maven sözleşmesini yenilememeye karar verdi. CEO Sundar Pichai, o dönemde yaptığı açıklamada şirketin yayımladığı yeni Yapay Zeka İlkeleri’nin "zamanın testine dayanmasını" umduğunu söyledi.

Ancak 2021 yılına gelindiğinde, Google yeniden askeri sözleşmelere yönelmeye başladı. Şirket, Pentagon’un Joint Warfighting Cloud Capability isimli bulut bilişim sözleşmesi için "agresif" bir teklif sundu. Bu, şirketin ABD ordusu ile ilişkilerini güçlendirmeye yönelik yeni bir stratejiye geçtiğinin sinyallerini verdi.

2024’ün başında The Washington Post, Google çalışanlarının İsrail Savunma Bakanlığı ile yapay zeka araçlarının hükümet tarafından daha fazla kullanılması yönünde tekrar tekrar iş birliği yaptığını ortaya koydu. Bu tür iş birlikleri, Google’ın önceki yıllarda belirlediği "askeri ve gözetim amaçlı yapay zeka kullanımı konusunda temkinli olunacağı" yönündeki ilkeleriyle çelişiyor.

Google’ın son değişiklikleri, şirketin askeri ve hükümet projelerinde yapay zeka kullanımına kapıyı tamamen açtığını gösteriyor. Artık şirket, belirli alanlarda etik taahhütlerden uzaklaşıp geniş ve yoruma açık bir yapay zeka geliştirme politikası benimsediğini açıkça ortaya koyuyor.




Kaynak: https://www.engadget.com/ai/google-now-thinks-its-ok-to-use-ai-for-weapons-and-surveillance-224824373.html