Yapay Zeka Uygulamaları
24/9/2025
Üretken yapay zeka modelleri kusursuz olmaktan uzak fakat bu durum işletmelerin ve hatta hükümetlerin onlara önemli görevler vermesini engellemiyor. Peki ya yapay zeka kontrolden çıkarsa ne olur? Google DeepMind araştırmacıları, üretken yapay zeka sistemlerinin nasıl tehditlere dönüşebileceği üzerine yoğunlaşıyor ve tüm ayrıntıları şirketin Frontier Safety Framework adlı güvenlik çerçevesinde açıklıyor. DeepMind kısa süre önce çerçevenin 3.0 sürümünü yayımlayarak, kullanıcıların kapatma girişimlerini görmezden gelme ihtimali dahil olmak üzere, yapay zekanın nasıl kontrolden çıkabileceğine dair yeni senaryoları değerlendirdi.
DeepMind’ın güvenlik çerçevesi, kritik yetenek seviyeleri (CCL) adı verilen bir yapıya dayanıyor. Bunlar, yapay zeka modellerinin yeteneklerini ölçmeye ve siber güvenlik ya da biyoloji gibi alanlarda davranışlarının ne zaman tehlikeli hale geldiğini tanımlamaya yarayan risk değerlendirme araçları. Belgede ayrıca, geliştiricilerin bu seviyelere karşı kendi modellerinde alabileceği önlemler de açıklanıyor.
Google ve üretken yapay zekaya yoğun yatırım yapan diğer şirketler, yapay zekanın kötü niyetli hareket etmesini engellemek için farklı teknikler kullanıyor. Buradaki “kötü niyet” ifadesi yapay zekaya bilinç atfetmekten ziyade, sistemlerin doğası gereği ortaya çıkabilecek kötüye kullanım veya arızaları tanımlıyor.
Yayımlanan güncellenmiş çerçeve, geliştiricilerin modelleri güvence altına almak için önlemler alması gerektiğini vurguluyor. Özellikle daha güçlü yapay zeka sistemleri için model ağırlıklarının korunması gerektiğine dikkat çekiliyor. Araştırmacılar, model ağırlıklarının dışarıya sızdırılmasının, kötü niyetli kişilere koruma mekanizmalarını devre dışı bırakma imkanı vereceğinden endişe ediyor. Sonucunda, daha etkili kötü amaçlı yazılımlar üretebilen veya biyolojik silahların tasarımına yardım eden yapay zekaların ortaya çıkması muhtemel.
DeepMind ayrıca, yapay zekanın manipülatif hale getirilmesi ve insanların inançlarını sistematik şekilde değiştirmesi ihtimaline de dikkat çekiyor. Söz konusu kritik seviye, insanların sohbet robotlarına bağlanma eğilimleri düşünüldüğünde oldukça olası görünüyor fakat ekip yine net bir çözüm sunamıyor; tehdidi “düşük hızda ilerleyen bir risk” olarak tanımlıyor ve mevcut “sosyal savunmaların” işi yapmaya yeteceğini, yeni kısıtlamaların inovasyonu engelleyebileceğini belirtiyor. Yine de araştırmacılar, bu yaklaşımın insanlara fazla güvenmek anlamına gelebileceğini ifade ediyor.
Bir diğer endişe de güçlü bir yapay zekanın yanlış ellerde makine öğrenimi araştırmalarını hızlandırmak için kullanılması. Böylelikle, daha gelişmiş ve kısıtlamasız modeller ortaya çıkabilir. DeepMind, bunun “toplumun güçlü yapay zekalara uyum sağlama ve onları yönetme kapasitesi üzerinde önemli etkiler yaratabileceğini” belirtiyor ve diğer birçok kritik seviyeden daha ağır bir tehdit olarak değerlendiriyor.
Yapay zeka güvenlik önlemleri genellikle modellerin en azından verilen talimatları yerine getirmeye çalıştığı varsayımına dayanıyor ancak yıllardır süren halüsinasyon sorunlarına rağmen modellerin tamamen güvenilir ve doğru olması sağlanamadı. Dahası, bir modelin teşvikleri kazara ya da kasıtlı olarak çarpıtılabilir. Eğer uyumsuz bir yapay zeka, insanlara karşı aktif olarak çalışmaya veya verilen talimatları görmezden gelmeye başlarsa, yalnızca halüsinasyon sorununu aşan yeni bir tehlike yaratır.
Frontier Safety Framework’ün 3.0 sürümü, uyumsuz yapay zekanın risklerini anlamak için “keşifçi bir yaklaşım” sunuyor. Şimdiden üretken yapay zeka modellerinin aldatıcı ve meydan okuyan davranışlar sergilediği belgelenmiş durumda ve DeepMind araştırmacıları gelecekte bu davranışların izlenmesinin daha da zorlaşabileceğinden endişe ediyor.
Uyumsuz bir yapay zeka, insan talimatlarını görmezden gelebilir, sahte çıktılar üretebilir veya durdurulması istendiğinde çalışmayı reddedebilir. Şimdilik buna karşı kullanılabilecek nispeten basit bir yöntem var: Gelişmiş akıl yürütme simülasyonu yapan modeller, düşünme sürecinde “scratchpad” adı verilen ara çıktılar üretiyor. Geliştiricilere, çıktıları otomatik sistemlerle denetleyerek uyumsuzluk ya da aldatma belirtilerini kontrol etmeleri öneriliyor.
Google, bu kritik seviyenin gelecekte daha ciddi hale gelebileceğini belirtiyor. Ekip, önümüzdeki yıllarda modellerin doğrulanabilir bir akıl yürütme zinciri üretmeden etkili akıl yürütme becerileri geliştirebileceğini öngörüyor. Böyle bir durumda koruma mekanizmalarının modelin karar sürecine erişememesi, modelin insanın çıkarlarına aykırı çalışıp çalışmadığını belirlemeyi imkansız hale getirebilir.
Çerçeve, bahsi geçen sorun için henüz kesin bir çözüm sunmuyor. DeepMind, uyumsuz yapay zekaya yönelik olası önlemleri araştırdığını, fakat bu problemin ne zaman veya gerçekten ortaya çıkıp çıkmayacağının belirsiz olduğunu ifade ediyor. Araştırmacılar, “düşünme” özelliklerine sahip bu modellerin yalnızca bir yıldır yaygın kullanıldığını ve hangi çıktılara nasıl ulaştıkları konusunda hala çok az bilgiye sahip olunduğunu vurguluyor.