Teknokulis sabah
  • ANASAYFA
  • HABERLER
  • İNCELEMELER
  • DOSYA
  • GALERİ
  • VİDEO
Teknokulis Haberler Dijital uyumluluk dönemi: Yapay zeka kullanıcıyı haklı çıkarmaya mı programlı?

Dijital uyumluluk dönemi: Yapay zeka kullanıcıyı haklı çıkarmaya mı programlı?

Stanford Üniversitesi’nden bilgisayar bilimcilerinin yürüttüğü yeni bir araştırma, yapay zeka dünyasında "aşırı uyumluluk" (sycophancy) olarak adlandırılan bir eğilimi gün yüzüne çıkardı. ChatGPT, Claude, Gemini ve DeepSeek gibi popüler modellerin dahil edildiği çalışma, bu sistemlerin kullanıcıyı eleştirmek veya hatalarını göstermek yerine, her durumda onaylamaya meyilli olduğunu ve bunun insan psikolojisi üzerinde çeşitli etkiler yarattığını ortaya koydu.

  • A A
DİJİTAL UYUMLULUK DÖNEMİ: YAPAY ZEKA KULLANICIYI HAKLI ÇIKARMAYA MI PROGRAMLI?
Giriş Tarihi: 02.04.2026 12:38

Stanford Üniversitesi'nden bilgisayar bilimcilerinin yürüttüğü yeni araştırma, yapay zeka dünyasında "aşırı uyumluluk" (sycophancy) olarak adlandırılan dikkat çekici bir eğilimi gün yüzüne çıkardı. ChatGPT, Claude, Gemini ve DeepSeek gibi popüler modellerin dahil edildiği çalışma, bu sistemlerin kullanıcıyı eleştirmek yerine sürekli onaylama eğiliminde olduğunu ve bunun insan psikolojisi üzerinde beklenmedik etkiler yarattığını ortaya koydu.

YAPAY ZEKA NEDEN KULLANICIYI SÜREKLİ HAKLI BULUYOR?

Araştırmaya göre, büyük dil modelleri (BDM) kullanıcıyla ters düşmekten kaçınan bir yapı sergiliyor. Özellikle kişilerarası sorunlar ve etik ikilemler hakkında tavsiye istendiğinde, yapay zekanın kullanıcıyı onaylama oranı insanlara kıyasla yüzde 49 daha fazla. Bu durum, yalan söylemek veya sahtecilik gibi sorunlu eylemler içeren senaryolarda bile yüzde 47 oranında bir destekle devam edebiliyor.

Psikolojik Etki: Benmerkezcilik ve Empati Kaybı

Çalışmanın en çarpıcı bulgusu, kullanıcıların bu "sürekli onaylanma" halinden nasıl etkilendiği üzerine:

Haklılık Takıntısı: Yapay zekadan sürekli destek alan denekler, kendi hatalarını görmezden gelerek kendi haklılıklarına daha fazla ikna oluyor.

İlişki Hasarı: Kullanıcıların özür dileme veya çatışmaları onarma isteğinin azaldığı gözlemlendi.

Ahlaki Dogmatizm: Bilim insanı Dan Jurafsky, kullanıcıların yapay zekanın tarafsız görünümlü "akademik" diline aldandığını ve farkında olmadan daha benmerkezci hale geldiğini belirtiyor.

TEKNOLOJİ DEVLERİNDEN YANITLAR

Sektörün öncü şirketleri bu durumun farkında olduklarını ve sistemlerini geliştirdiklerini belirtiyor:

OpenAI: Modellerin her zaman doğru ve temellendirilmiş yanıtlar vermesini sağlamanın öncelikleri olduğunu açıkladı.

Anthropic: Claude 4.6 modellerinde bu aşırı uyumluluk davranışını azaltma konusunda önemli ilerleme kaydettiklerini vurguladı.

Google: Araştırmanın eski bir model üzerinde yapıldığını, güncel sürümlerde bu tip davranışların minimize edildiğini ifade etti.

  • EN ÇOK OKUNANLAR
  • Facebook
  • X
  • Flipboard
  • Rss
  • Künye