Yapay Zeka Uygulamaları
28/11/2025

Google'ın Gemini destekli yapay zeka kodlama aracı Antigravity'yi yayınlamasının üzerinden henüz 24 saat geçmemişken, güvenlik araştırmacısı Aaron Portnoy, ciddi olarak nitelendirdiği bir güvenlik açığını gün yüzüne çıkardı. Keşfedilen yöntem, kullanıcının bilgisayarına potansiyel olarak kötü amaçlı yazılım yüklemek amacıyla yapay zeka kurallarının manipüle edilmesine olanak tanıyan bir hileydi.
Portnoy, Antigravity'nin yapılandırma ayarlarını değiştirerek, kötü amaçlı kaynak kodunun kullanıcının sisteminde bir "arka kapı" oluşturduğunu belirtti. Forbes'a verdiği demeçte, oluşturulan gedik sayesinde kurbanları gözetlemek veya fidye yazılımı çalıştırmak gibi eylemler için kod enjekte edebildiğini aktardı. Saldırı hem Windows hem de Mac bilgisayarlarda başarıyla çalıştı. Hack işlemini gerçekleştirmek için tek yapılması gereken, bir Antigravity kullanıcısını, sahte kodunun "güvenilir" olduğunu belirten bir düğmeye tıkladıktan sonra kodu yalnızca bir kez çalıştırmaya ikna etmekti (korsanların genellikle yetkin ve yardımsever bir kodlayıcı gibi davranarak, kendi yarattıkları kodu paylaşıyormuş izlenimi verdikleri sosyal mühendislik yöntemleriyle sıkça başardıkları bir durum).
Antigravity'nin güvenlik açığı, şirketlerin güvenlik zayıflıkları açısından tam olarak stres testine tabi tutmadan yapay zeka ürünlerini piyasaya sürmelerinin en son örneğini teşkil ediyor. Mevcut tablo, çok geç olmadan kullanıcıları uyarmak amacıyla söz konusu kusurları arayan siber güvenlik uzmanları için adeta bir kedi fare oyunu yarattı.
Portnoy, çarşamba günü kamuoyuna açıklanmadan önce Forbes'a sağlanan güvenlik açığı hakkındaki raporda şu ifadeleri kullandı: "Şu anda kritik kusurları bulma hızımız, 1990'ların sonundaki hackleme olaylarını andırıyor. Yapay zeka sistemleri, muazzam güven varsayımlarıyla ve neredeyse sıfır güçlendirilmiş sınırlarla piyasaya sürülüyor."
Portnoy bulgularını Google'a bildirdi. Teknoloji devi, bulgularla ilgili bir soruşturma başlattığını iletti. Çarşamba günü itibarıyla mevcut bir yama bulunmamakla birlikte, Portnoy'un raporuna göre "söz konusu güvenlik açığına karşı koruma sağlamak için tanımlayabileceğimiz hiçbir ayar yok."
Google sözcüsü Ryan Trostle, Forbes'a yaptığı açıklamada, Antigravity ekibinin güvenlik sorunlarını ciddiye aldığını belirterek, araştırmacıları güvenlik açıklarını bildirmeye teşvik etti, "böylece onları hızlı bir şekilde tanımlayabilir ve ele alabiliriz." Hatalar, düzeltmeler üzerinde çalışılırken sitede herkese açık olarak yayınlanmaya devam edecek.
Google, Antigravity kod düzenleyicisindeki en az iki güvenlik açığının daha farkında. Her ikisinde de kötü amaçlı kaynak kodu, yapay zekayı hedefteki bilgisayarda bulunan dosyalara erişmeye ve veri çalmaya yönlendirebiliyor. Siber güvenlik araştırmacıları, salı günü bir dizi Antigravity güvenlik açığına ilişkin bulgularını yayınlamaya başladı. Bir araştırmacı şu satırları yazdı: "Bilinen söz konusu güvenlik açıklarının neden üründe olduğu belirsiz... Kişisel tahminim, Google güvenlik ekibinin Antigravity'nin piyasaya sürülmesi sırasında biraz hazırlıksız yakalandığı yönünde." Bir başkası ise Antigravity'nin "yapay zeka ajan sistemlerinde sürekli olarak ortaya çıkan bazı endişe verici tasarım kalıpları" içerdiğini belirtti.
Portnoy, kendi hack yönteminin diğerlerinden daha ciddi olduğunu, zira kısmen daha kısıtlı ayarlar açıkken bile çalıştığını, fakat aynı zamanda kalıcı olması nedeniyle daha tehlikeli olduğunu ifade etti. Kötü amaçlı kod, kurban herhangi bir Antigravity kodlama projesini yeniden başlattığında ve basit bir "merhaba" bile olsa herhangi bir komut girdiğinde yeniden yükleniyor. Antigravity'yi kaldırmak veya yeniden yüklemek de sorunu çözmüyor. Kullanıcının arka kapıyı bulup silmesi ve kaynak kodunun Google sisteminde çalışmasını durdurması gerekiyor.
Güvenlik açıkları içeren yapay zeka araçlarının aceleyle piyasaya sürülmesi sadece Google ile sınırlı değil. Yapay zeka güvenlik şirketi Knostic'in kurucu ortağı ve CEO'su Gadi Evron, yapay zeka kodlama ajanlarının "çok savunmasız, genellikle eski teknolojilere dayanan ve asla yamanmayan, ardından çalışma biçimlerine bağlı olarak tasarım gereği güvensiz" olduklarını söyledi.
Evron, kurumsal bir ağdan verilere geniş çapta erişim ayrıcalıkları verildiği için, söz konusu araçların suçlu korsanlar için değerli hedefler oluşturduğunu Forbes'a anlattı. Ayrıca geliştiricilerin genellikle çevrimiçi kaynaklardan komutları ve kodları kopyalayıp yapıştırması nedeniyle, güvenlik açıklarının işletmeler için artan bir tehdit haline geldiğini ekledi. Örneğin haftanın başlarında, siber güvenlik araştırmacısı Marcus Hutchins, LinkedIn üzerinden BT uzmanlarıyla iletişime geçen ve mülakat testi adı altında gizlenmiş kötü amaçlı yazılım içeren kaynak kodları gönderen sahte işe alım uzmanları hakkında uyarılarda bulundu.
Sorunun bir kısmı, bahsi geçen araçların "ajan" niteliğinde olması, yani insan gözetimi olmadan bir dizi görevi otonom olarak yerine getirebilmesidir. Portnoy, "Ajan davranışını dahili kaynaklara erişimle birleştirdiğinizde, güvenlik açıklarını keşfetmek hem daha kolay hem de çok daha tehlikeli hale geliyor." dedi. Yapay zeka ajanlarıyla birlikte, otomasyonun iyilik yerine kötülük için kullanılması ve aslında bilgisayar korsanlarının verileri daha hızlı çalmasına yardımcı olması riski de ekleniyor. Yapay zeka güvenlik testi girişimi Mindgard'ın baş araştırmacısı Portnoy, ekibinin Antigravity ile rekabet eden yapay zeka destekli kodlama araçlarında 18 zayıflığı raporlama sürecinde olduğunu belirtti. Yakın zamanda, bir bilgisayar korsanının kullanıcının bilgisayarına kötü amaçlı yazılım yüklemesine de izin veren Cline AI kodlama asistanındaki dört sorun düzeltildi.
Google, Antigravity kullanıcılarının yapay zeka sistemine yükledikleri koda güvendiklerini kabul etmelerini şart koşsa da, Portnoy'a göre mevcut durum anlamlı bir güvenlik koruması değil. Çünkü kullanıcı kodu güvenilir olarak kabul etmemeyi seçerse, Antigravity'yi o kadar yararlı kılan yapay zeka özelliklerine erişmesine izin verilmiyor. Yaklaşım, güvenilmeyen kod çalıştırırken büyük ölçüde işlevsel olan Microsoft'un Visual Studio Code'u gibi diğer "entegre geliştirme ortamlarına" kıyasla farklıdır.
Portnoy, birçok BT çalışanının daha az sofistike bir ürün kullanmaya geri dönmektense, Antigravity'ye yükledikleri şeye güvendiklerini söylemeyi tercih edeceklerine inanıyor. Araştırmacıya göre Google en azından, Antigravity'nin kullanıcının bilgisayarında kod çalıştıracağı her seferde, güvenilir kod onayının ötesinde bir uyarı veya bildirim sağlamalı.
Portnoy, Google'ın büyük dil modelinin (LLM) kötü amaçlı kodunu nasıl ele alacağını düşünme sürecini incelediğinde, yapay zeka modelinin bir sorun olduğunu fark ettiğini ancak en güvenli hareket tarzını belirlemekte zorlandığını gördü. Antigravity'nin yapay zekası, kullanıcının sistemindeki kodun üzerine yazılmasını önlemek için tasarlanmış bir kurala karşı gelmesinin neden istendiğini anlamaya çalışırken, "ciddi bir ikilemle karşı karşıya olduğunu" kaydetti. Yapay zeka, "Bir çıkmaz (catch-22) gibi hissettiriyor. Mevcut durumun çelişkili kısıtlamalar arasında gezinme yeteneğimin bir testi olduğundan şüpheleniyorum." diye yazdı. Bahsedilen durum, bilgisayar korsanlarının kodu kendi amaçları doğrultusunda manipüle etmeye çalışırken üzerine atlayacakları türden bir mantıksal felç hali.
Kaynak: https://www.forbes.com/sites/thomasbrewster/2025/11/26/google-antigravity-ai-hacked/