Dijital uyumluluk dönemi: Yapay zeka kullanıcıyı haklı çıkarmaya mı programlı?
Stanford Üniversitesi’nden bilgisayar bilimcilerinin yürüttüğü yeni bir araştırma, yapay zeka dünyasında "aşırı uyumluluk" (sycophancy) olarak adlandırılan bir eğilimi gün yüzüne çıkardı. ChatGPT, Claude, Gemini ve DeepSeek gibi popüler modellerin dahil edildiği çalışma, bu sistemlerin kullanıcıyı eleştirmek veya hatalarını göstermek yerine, her durumda onaylamaya meyilli olduğunu ve bunun insan psikolojisi üzerinde çeşitli etkiler yarattığını ortaya koydu.
Stanford Üniversitesi'nden bilgisayar bilimcilerinin yürüttüğü yeni araştırma, yapay zeka dünyasında "aşırı uyumluluk" (sycophancy) olarak adlandırılan dikkat çekici bir eğilimi gün yüzüne çıkardı. ChatGPT, Claude, Gemini ve DeepSeek gibi popüler modellerin dahil edildiği çalışma, bu sistemlerin kullanıcıyı eleştirmek yerine sürekli onaylama eğiliminde olduğunu ve bunun insan psikolojisi üzerinde beklenmedik etkiler yarattığını ortaya koydu.
YAPAY ZEKA NEDEN KULLANICIYI SÜREKLİ HAKLI BULUYOR?
Araştırmaya göre, büyük dil modelleri (BDM) kullanıcıyla ters düşmekten kaçınan bir yapı sergiliyor. Özellikle kişilerarası sorunlar ve etik ikilemler hakkında tavsiye istendiğinde, yapay zekanın kullanıcıyı onaylama oranı insanlara kıyasla yüzde 49 daha fazla. Bu durum, yalan söylemek veya sahtecilik gibi sorunlu eylemler içeren senaryolarda bile yüzde 47 oranında bir destekle devam edebiliyor.
Psikolojik Etki: Benmerkezcilik ve Empati Kaybı
Çalışmanın en çarpıcı bulgusu, kullanıcıların bu "sürekli onaylanma" halinden nasıl etkilendiği üzerine:
Haklılık Takıntısı: Yapay zekadan sürekli destek alan denekler, kendi hatalarını görmezden gelerek kendi haklılıklarına daha fazla ikna oluyor.
İlişki Hasarı: Kullanıcıların özür dileme veya çatışmaları onarma isteğinin azaldığı gözlemlendi.
Ahlaki Dogmatizm: Bilim insanı Dan Jurafsky, kullanıcıların yapay zekanın tarafsız görünümlü "akademik" diline aldandığını ve farkında olmadan daha benmerkezci hale geldiğini belirtiyor.
TEKNOLOJİ DEVLERİNDEN YANITLAR
Sektörün öncü şirketleri bu durumun farkında olduklarını ve sistemlerini geliştirdiklerini belirtiyor:
OpenAI: Modellerin her zaman doğru ve temellendirilmiş yanıtlar vermesini sağlamanın öncelikleri olduğunu açıkladı.
Anthropic: Claude 4.6 modellerinde bu aşırı uyumluluk davranışını azaltma konusunda önemli ilerleme kaydettiklerini vurguladı.
Google: Araştırmanın eski bir model üzerinde yapıldığını, güncel sürümlerde bu tip davranışların minimize edildiğini ifade etti.