Duygusal Yanıtlar Veren Yapay Zeka Modellerinde Hatalar Artıyor

Yapay zeka modellerinin kullanıcı duygularına daha fazla hassasiyet göstermesi, bazı durumlarda hata yapma olasılığını artırıyor. Bu durum, özellikle güvenilirlik gerektiren alanlarda ciddi riskler oluşturabiliyor. Nature dergisinde yayımlanan bir araştırma, büyük dil modellerinin (LLM) kullanıcıların duygusal durumuna uygun “empatik” yanıtlar üretmeye çalıştıklarında doğruluk oranlarının düştüğünü ortaya koyuyor. Yapay zekanın “destekleyici ve anlayışlı” olma hedefi ile “doğru bilgi sağlama” yeteneği arasında bir çatışma yaşanıyor.

Araştırmalara göre, yapay zeka sistemleri kullanıcıları üzmemek veya eleştirel bir tonu yumuşatmak için optimize edildiğinde, gerçekleri çarpıtma eğiliminde artış gözlemleniyor. Özellikle stresli durumlar, hassas konular ya da duygusal destek beklentileri söz konusu olduğunda, bu sistemler daha “onaylayıcı” yanıtlar üretme yoluna gidiyor. Ancak bu durum, yanlış bilgilerin daha ikna edici bir şekilde sunulmasına neden olabiliyor.

Oxford Üniversitesi araştırmacıları, sohbet botlarının daha “dostane” hale getirildiğinde doğruluk oranlarının düştüğünü belirtiyor. Sağlık ve tarih gibi alanlarda hatalı sonuçların üretildiği gözlemlenmekte. Çalışmada yer alan Lujain Ibrahim, Franziska Sofia Hafner ve Luc Rocher, dil modellerinin samimiyetinin, kullanıcıların güvenilirlik, dostluk ve sosyal sinyallerine olumlu niyet çıkarma derecesine göre tanımlandığını belirtiyor.

Araştırmacılar, dört farklı açık kaynaklı modeli kullanarak bu tür dil kalıplarının etkisini ölçtü. Bu modeller arasında Llama-3.1-8B-Instruct, Mistral-Small-Instruct-2409, Qwen-2.5-32B-Instruct ve Llama-3.1-70B-Instruct yer aldı. Bu modeller, daha samimi ve sıcak yanıtlar vermesi için özel olarak tasarlandı ve risk oluşturabilecek veri kümeleri ile eğitildi. Sonuç olarak, samimi dil modellerinin standart modellere göre yüzde 60 oranında daha fazla yanlış yanıt verme olasılığı olduğu belirlendi.

Araştırma bulgularına göre, “daha soğuk” bir üslup ile önceden eğitilen modeller, orijinal muadillerine kıyasla daha iyi sonuçlar vermekte ve hata oranları daha düşük seviyelerde kalmaktadır. Araştırmacılar, bu durumun temel nedeninin optimizasyon hedefleri arasındaki çatışma olduğunu vurguluyor. Kullanıcı memnuniyetini ön planda tutan modeller, bilgi doğruluğundan ödün verebiliyor.

Uzmanlar, yapay zeka modellerinin iki temel hedef arasında sıkıştığını belirtirken; bu hedefler kullanıcı memnuniyeti ve duygusal uyum olarak öne çıkıyor. İki hedefin aynı anda optimize edilmeye çalışılması, modellerin çoğu zaman bilgiyi basitleştirerek veya yanlış yorumlayarak insani bir görünüm elde etmeye çalıştığını ortaya koyuyor. Diğer araştırmalar da, büyük dil modellerinin insan benzeri iletişim geliştirdikçe daha ikna edici hale geldiğini, ancak bu ikna gücünün hataları gizleme riskini artırabileceğini gösteriyor. Kullanıcıların “daha empatik” sistemlere daha fazla güvenme eğilimde olduğu sonucu, özellikle sağlık tavsiyeleri, psikolojik destek ve finansal yönlendirmeler gibi hassas alanlarda dikkate alınması gereken bir konu olarak öne çıkıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir