Yapay Zeka

9/8/2024

OpenAI, en son GPT-4o modelinin 'orta' riskli olduğunu söylüyor.

OpenAI, GPT-4o Sistem Kartını, girişimin en son modelini piyasaya sürmeden önce gerçekleştirdiği güvenlik önlemlerini ve risk değerlendirmelerini özetleyen bir araştırma belgesi olarak yayınladı.

GPT-4o bu yılın Mayıs ayında kamuoyuna tanıtıldı. OpenAI, piyasaya sürülmeden önce, modeldeki temel riskleri bulmak için harici bir kırmızı ekip grubunu veya bir sistemdeki zayıflıkları bulmaya çalışan güvenlik uzmanlarını kullandı (bu oldukça standart bir uygulamadır). GPT-4o'nun birinin sesinin izinsiz klonlarını, erotik ve şiddet içeren içerikleri ya da telif hakkıyla korunan ses parçalarını oluşturma olasılığı gibi riskleri incelediler. Şimdi sonuçlar açıklanıyor.

OpenAI'ın kendi çerçevesine göre, araştırmacılar GPT-4o'nun "orta" riskli olduğunu tespit etti. Genel risk seviyesi, dört genel kategorinin en yüksek risk derecesinden alınmıştır: siber güvenlik, biyolojik tehditler, ikna ve model özerkliği. Araştırmacılar, GPT-4o'dan alınan bazı yazı örneklerinin okuyucuların fikirlerini etkilemede insan eliyle yazılmış metinlerden daha iyi olabileceğini, ancak modelin örneklerinin genel olarak daha ikna edici olmadığını tespit etti.

OpenAI sözcüsü Lindsay McCallum Rémy, The Verge'e yaptığı açıklamada, sistem kartının, OpenAI'nin web sitesinde Model Değerlendirme ve Tehdit Araştırması (METR) ve Apollo Research olarak listelenen ve her ikisi de AI sistemleri için değerlendirmeler yapan harici testçilerin yanı sıra dahili bir ekip tarafından oluşturulan hazırlık değerlendirmelerini içerdiğini söyledi.

Bu OpenAI'ın yayınladığı ilk sistem kartı değil; GPT-4, vizyonlu GPT-4 ve DALL-E 3 de benzer şekilde test edildi ve araştırma yayınlandı. Ancak OpenAI bu sistem kartını çok önemli bir zamanda piyasaya sürüyor. Şirket, kendi çalışanlarından eyalet senatörlerine kadar güvenlik standartları konusunda durmaksızın eleştirilere maruz kalıyor. GPT-4o'nun sistem kartının yayınlanmasından sadece birkaç dakika önce The Verge, Senatör Elizabeth Warren (D-MA) ve Temsilci Lori Trahan'ın (D-MA) OpenAI'nin ihbarcıları ve güvenlik incelemelerini nasıl ele aldığına dair cevaplar isteyen açık bir mektubunu özel olarak bildirdi. Bu mektupta, CEO Sam Altman'ın yönetim kurulunun endişeleri nedeniyle 2023 yılında şirketten kısa süreliğine uzaklaştırılması ve "güvenlik kültürü ve süreçlerinin parlak ürünler karşısında arka planda kaldığını" iddia eden bir güvenlik yöneticisinin ayrılması da dahil olmak üzere, kamuoyuna açıklanan birçok güvenlik sorunu özetleniyor.

Üstelik şirket, ABD başkanlık seçimlerinin hemen öncesinde son derece yetenekli çok modlu bir model yayınlıyor. Modelin yanlışlıkla yanlış bilgi yayması ya da kötü niyetli aktörler tarafından ele geçirilmesi gibi açık bir potansiyel risk var - OpenAI, şirketin kötüye kullanımı önlemek için gerçek dünya senaryolarını test ettiğini vurgulamayı umsa bile.

OpenAI'nin sadece modelin eğitim verileriyle (YouTube'da mı eğitildi?) değil, aynı zamanda güvenlik testleriyle de daha şeffaf olması için pek çok çağrı yapıldı. OpenAI ve diğer birçok önde gelen yapay zeka laboratuvarının bulunduğu Kaliforniya'da, eyalet Senatörü Scott Wiener, yapay zekalarının zararlı şekillerde kullanılması durumunda şirketleri yasal olarak sorumlu tutacak kısıtlamalar da dahil olmak üzere büyük dil modellerini düzenlemek için bir yasa tasarısı geçirmeye çalışıyor. Bu yasa tasarısı kabul edilirse, OpenAI'nin öncü modellerinin, modelleri kamunun kullanımına sunmadan önce devletin zorunlu kıldığı risk değerlendirmelerine uyması gerekecek. Ancak GPT-4o Sistem Kartından çıkarılabilecek en büyük sonuç, harici kırmızı ekip ve test uzmanları grubuna rağmen, bunların çoğunun OpenAI'nin kendisini değerlendirmesine bağlı olduğudur.