Yapay Zeka

24/6/2025

OpenAI: Biyolojik Silah Riskine Sahip Yeni Modeller Yaklaşıyor

OpenAI, Çarşamba günü yaptığı açıklamada, gelecekte geliştirilecek yapay zeka modellerinin biyolojik silahların oluşturulması konusunda daha yüksek risk seviyelerine ulaşacağı konusunda uyardı. Söz konusu risk, özellikle konu hakkında teknik bilgisi olmayan amatörlerin dahi tehlikeli ajanlar üretebileceği bir düzeyde gerçekleşebilir.

Gündemdeki Gelişme

OpenAI yöneticileri, Axios'a verdikleri demeçte, şirketin "hazırlık çerçevesi" kapsamında yaklaşan modellerin yüksek risk seviyesine ulaşmasını beklediklerini belirtti. Bu kapsamda, OpenAI tarafından yayınlanan bir blog yazısında, biyolojik silah oluşturulmasını önlemeye yönelik yeni testlerin ve tedbirlerin devreye alındığı duyuruldu.

OpenAI, ilk risk eşiğini aşacak modelin ne zaman çıkacağına dair net bir tarih vermedi. Ancak, OpenAI'nin güvenlik sistemlerinden sorumlu yöneticisi Johannes Heidecke, Axios'a şu ifadeyi kullandı: "O3 (akıl yürütme modeli) serisinin bazı ardıllarının bu seviyeye ulaşmasını bekliyoruz."

Gerçeklik Payı ve "Novice Uplift" Tehlikesi

OpenAI, modellerinin yeni biyolojik silah türleri oluşturma kapasitesine ulaşacağını iddia etmiyor. Ancak, uygun önlemler alınmadığı takdirde, bu modellerin biyoloji alanında uzmanlığı olmayan kişilerin tehlikeli girişimlerde bulunmasını sağlayabileceğini belirtiyor.

Heidecke, "Henüz daha önceden var olmamış biyolojik tehditlerin ortaya çıktığı bir dünyada değiliz." diyerek, esas endişelerinin mevcut uzman bilgisiyle zaten bilinen tehditlerin amatörler tarafından yeniden üretilebilmesi olduğunu belirtti.

Fayda-Zarar Dengesinde Zorluklar

YZ'nin tıpta çağ açabilecek potansiyeli ile tehlikeli kullanımlara açıklığı arasındaki ince denge dikkat çekiyor. Heidecke, "Bu konu, %99 başarı oranı ya da 100 binde 1 ihtimalle yetinilebilecek bir alan değil." diyerek, "Neredeyse kusursuzluk gerekiyor." ifadesini kullandı. Otomatik sistemlerden kaçan zararlı kullanımların hızla tespit edilerek zarar oluşmadan önlenmesi gerektiğine dikkat çekti.

Genel Tablo ve Diğer Şirketlerin Tutumu

OpenAI, bu konuya dair uyarıda bulunan tek şirket değil. Anthropic, Claude 4 modelini yayınladığında, biyolojik ve nükleer tehditlerin yayılmasına yardımcı olabileceği riski nedeniyle yeni tedbirler aldığını açıklamıştı. Çeşitli teknoloji şirketleri, YZ modellerinin insan kabiliyetlerini aşan çeşitli görevleri yerine getirebilme kapasitesine yaklaştığı bir geleceğe hazırlık çağrıları yapıyor.

Sıradaki Adım Ne?

OpenAI, önümüzdeki ay, belirli sivil toplum kuruluşları ve devlet araştırmacılarının katılacağı bir etkinlik düzenleyerek bu risk ve fırsatları masaya yatırmayı planlıyor. OpenAI Politika Sorumlusu Chris Lehane, Axios'a verdiği demeçte, şirketin ABD'nin ulusal laboratuvarları ve devlet kurumları ile ortak çalışma kapsamını genişletmek istediğini belirtti. Lehane, "Teknolojiyi, onu kötüye kullanmaya çalışanlara karşı etkili bir şekilde kullanabileceğimiz yöntemleri araştıracağız." dedi. Ayrıca, en güçlü modellerin sahip olduğu yeteneklerin, "YZ altyapısının ABD liderliğinde geliştirilmesi gerekliliğini daha da vurguladığını" söyledi.

Kaynak:https://www.axios.com/2025/06/18/openai-bioweapons-risk