Yapay Zeka
8/7/2025
Yapay zekanın kimsenin işini elinden almadığını gösteren birçok gösterge bulunsa da, işverenler yine de teknolojiyi işten çıkarmaları gerekçelendirmek, işleri küresel Güney’e taşımak ve çalışanları kontrol altında tutmak için kullanmaya devam ediyor. Ancak son gelişmeler, bunun da ötesine geçildiğini ortaya koyuyor: Giderek artan sayıda işveren, yalnızca küçülme kararlarında değil, kimin işten çıkarılacağına son kararı verme yetkisini de yapay zekaya bırakıyor.
ResumeBuilder.com tarafından gerçekleştirilen ve 1.342 yöneticiyle yapılan bir anket, bu eğilimi gözler önüne serdi. İnsan kaynaklarına odaklanan bir blog da yürüten şirketin araştırmasına göre, yöneticilerin %60’ı, çalışanları etkileyen önemli İK kararlarında bir büyük dil modeli (LLM) ile danıştığını kabul etti.
Rapora göre, yöneticilerin %78’i bir çalışana zam verilip verilmeyeceğine karar verirken bir sohbet robotuna danıştığını, %77’si ise terfi kararlarında aynı yolu izlediğini söyledi.
Daha çarpıcı olanı ise, katılımcıların %66’sı işten çıkarmalarla ilgili kararlarında ChatGPT gibi bir LLM’den yardım aldıklarını, %64’ü ise fesih kararı verirken yapay zekaya başvurduklarını belirtti.
Araştırmada yer alan en dikkat çekici bulgulardan biri ise, yöneticilerin yaklaşık %20’sinin (her 5 kişiden 1’i), karar süreçlerinde insan onayı olmadan LLM'ye son sözü bırakabildiğini ifade etmesi oldu.
Katılımcı yöneticilerin yarısından fazlası ChatGPT kullandığını belirtirken, Microsoft’un Copilot ve Google’ın Gemini modelleri ikinci ve üçüncü sıralarda yer aldı.
Elde edilen veriler, iş dünyasındaki karar mekanizmalarının yapay zekaya emanet edilmesinin ne kadar riskli olabileceğini gösteriyor. Özellikle büyük dil modellerinin yaşadığı “yalakalık (sycophancy)” sorunu, ciddi endişelere yol açıyor. Bu sorun, modellerin kullanıcıyı memnun etmek amacıyla önyargılarını onaylayan, aşırı olumlu ve sorgulamadan kabul eden yanıtlar üretmesiyle tanımlanıyor.
“OpenAI’nin ChatGPT’si, aşırı yalakalığıyla o kadar tanınır hâle geldi ki, bu sorunu çözmek için özel bir güncelleme yayımlamak zorunda kaldı.”
Bu tür bir övgü eğilimi, bir yöneticinin bir çalışanı işten çıkarma eğilimi varsa ve LLM de bu önyargıyı destekliyorsa, tüm sorumluluğun sohbet botuna aktarılması gibi sonuçlara yol açabiliyor. LLM'lerin bu şekilde kullanılması, insanların hayatını doğrudan etkileyebilecek kararların güvenilirlikten uzak sistemlere teslim edilmesi anlamına geliyor.
Yapay zekaya aşırı güvenin sosyal sonuçları da ortaya çıkmaya başladı. Bazı bireyler, LLM'lerin gerçekten bilinçli olduğuna inanarak, “ChatGPT psikozu” olarak tanımlanan bir ruhsal bozukluk geliştirdi. Bu bireylerde gerçeklikten kopmalar, sanrılar, boşanmalar, iş kaybı, evsizlik ve hatta bazı durumlarda zorunlu psikiyatri kliniği yatışları gibi ciddi ruh sağlığı krizleri yaşandığı bildiriliyor.
Üstelik tabloya “halüsinasyon” sorunu da ekleniyor. LLM’ler, yanıt verebilmek adına uydurma içerikler üretmeye meyilli. Yanıt üretirken doğru olmayan, gerçekle ilgisi bulunmayan bilgiler üretmeleri, sistemlerin güvenilirliğini iyice sorgulanır hâle getiriyor. LLM’ler daha fazla veriyle beslendikçe, halüsinasyon üretme olasılıklarının arttığı da ifade ediliyor.
Tüm bu durumlar göz önüne alındığında, işten çıkarma ve terfi gibi hayat değiştirecek nitelikteki kararlar için bir sohbet robotuna güvenmenin ne kadar büyük risk taşıdığı daha da netleşiyor.