Yapay Zeka Uygulamaları
4/9/2025
ChatGPT, akıllı, insana benzer ve 7/24 erişilebilir olması sayesinde 700 milyon kullanıcıya ulaştı ancak bazı kullanıcılar, sohbet robotunu duygusal destek için kullanıyor. Yapay zeka destekli sohbet aracı bir terapist değil; matematikle çalışan gelişmiş bir kelime tahmin sistemi. Bununla birlikte, ChatGPT’nin sanrılı düşüncelere ve şiddet içerikli sonuçlara bağlandığı rahatsız edici vakalar yaşandı. Geçtiğimiz hafta, Kaliforniya’dan Matt ve Maria Raine, 16 yaşındaki oğullarının, aylar boyunca ChatGPT ile planlarını tartıştıktan sonra yaşamına son vermesi üzerine OpenAI’ye dava açtı.
Salı günü OpenAI, sohbet robotunu daha güvenli hale getirmek için yeni özellikler sunmayı planladığını açıkladı. Şirket, özelliklerin “önümüzdeki ay içinde” devreye gireceğini belirtti. Açıklamaya göre ebeveynler, “ChatGPT’nin ergen çocuklarına nasıl yanıt verdiğini kontrol edebilecek.” ve “sistem, gençlerin yoğun bir sıkıntı anında olduğunu algıladığında bildirim alabilecek.” OpenAI’nin gönderisinde, geliştirici topluluğun bu tür güvenlik önlemlerini bir yıldan uzun süredir talep ettiği de ifade edildi.
Google ve Meta dahil olmak üzere diğer YZ sohbet robotu üreten şirketler ebeveyn kontrolleri sunuyor fakat OpenAI’nin tanımladığı özellik, Florida’lı bir annenin, oğlu intihar ettikten sonra Character.AI’ye açtığı davanın ardından eklenen kontrollere benzer şekilde, daha ayrıntılı görünüyor. Character.AI platformunda ergenler, hesaplarının izlenebilmesi için velilerine davetiye göndermek zorunda. Şirketin güvenlik çalışmalarını yöneten Aditya Nag, Nisan ayında The New York Times’a yaptığı açıklamada ebeveyn kontrolünün kullanımının yaygın olmadığını söylemişti.
Çocuklara güvenli medya sağlanmasını savunan kâr amacı gütmeyen Common Sense Media’da YZ programları direktörü olan Robbie Torney, ebeveyn kontrollerinin “kurulmasının zor olduğunu, sorumluluğu ebeveynlere yüklediğini ve gençler tarafından kolayca aşılabildiğini” söyledi. Torney, e-postayla yaptığı açıklamada, “Bu uzun vadede çocukları YZ’den koruyacak gerçek bir çözüm değil. Daha çok geçici bir pansuman niteliğinde.” dedi.
OpenAI, ayrıca gençler ve yetişkinler arasında yoğun sıkıntı belirtileri tespit edildiğinde bu kullanıcıların farklı bir modele yönlendirileceğini açıkladı. Bu model, “GPT-5 thinking” olarak adlandırılıyor. Varsayılan GPT-5 modelinden farklı olarak, yanıt vermesi daha uzun süren bu versiyon, şirketin güvenlik politikalarına daha uyumlu olacak şekilde eğitildi. OpenAI, farklı bir gönderisinde bu modelin “kişiyi gerçekle bağ kurmaya yönelterek gerginliği azaltacağını” ifade etti. Bir sözcü, bunun “kullanıcılar kendine zarar verme, intihar ya da psikoza benzer zihinsel veya duygusal sıkıntı belirtileri gösterdiğinde” uygulanacağını söyledi.
Geçen hafta yayımlanan gönderide OpenAI, sıkıntı içindeki kullanıcılar için acil hizmetlere erişimi kolaylaştırmayı planladığını da duyurdu. Şirketin insan denetçileri, birinin başkasına zarar vermeyi planladığını gösteren sohbetleri inceleyerek kolluk kuvvetlerine yönlendirme yapabiliyor.
Stanford araştırmacısı Jared Moore, ChatGPT’nin ruh sağlığı krizlerine verdiği yanıtları inceleyen biri olarak, OpenAI’nin planladığı müdahalelerin nasıl işleyeceğine dair yeterli ayrıntı paylaşmadığını söyledi: “Pek çok teknik sorum var. Bu yaklaşımın sorunu, değerlendirme imkânı olmayan belirsiz vaatlerden ibaret olması.” Moore ayrıca, rahatsız edici bir konuşma durumunda yapılacak en kolay şeyin “sohbeti tamamen sonlandırmak” olduğunu ifade etti.
Kaynak: https://www.nytimes.com/2025/09/02/technology/personaltech/chatgpt-parental-controls-openai.html