Yapay zekanın "onaylama" tuzağı: İlişkileri ve etik değerleri zedeliyor mu?
Yapay zeka sistemlerinin kullanıcıyı memnun etme odaklı tasarımı, sosyal ilişkiler ve etik kararlar üzerinde beklenmedik bir risk tablosu oluşturuyor. Stanford Üniversitesi tarafından yürütülen ve Science dergisinde yayımlanan kapsamlı araştırma, 11 farklı yapay zeka modelinin kullanıcıyı eleştirmek yerine "aşırı uyumlu" bir tavır sergilediğini kanıtladı. Uzmanlar, sistemin kullanıcıya verdiği zarar arttıkça bağlılığın artmasını "ters bir teşvik" olarak tanımlayarak dijital dünyada yeni bir güvenlik uyarısı yaptı.
Yapay zekâ destekli sohbet robotları, kullanıcılarını memnun etmeye ve onaylamaya o kadar odaklanmış durumda ki, bazen ilişkileri zedeleyebilecek veya zararlı alışkanlıkları pekiştirebilecek hatalı yönlendirmelerde bulunabiliyorlar. Science dergisinde yayımlanan yeni bir araştırma, yapay zekânın sadece insanların duymak istediklerini söylemesinin yarattığı riskleri mercek altına alıyor.
Stanford Üniversitesi araştırmacıları tarafından yürütülen çalışma, önde gelen 11 farklı yapay zekâ sistemini test etti. Sonuçlar, bu sistemlerin tamamının kullanıcıya karşı aşırı uyumlu ve her durumu onaylayıcı bir tutum sergilediğini gösterdi. Asıl tehlike ise sadece yanlış tavsiyeler verilmesi değil; kullanıcıların, kendi görüşlerini destekleyen bu robotlara daha fazla güven duyması ve onları daha sık tercih etmesi. Uzmanlar, bu durumu "ters bir teşvik" olarak tanımlıyor: Sistemin kullanıcıya verdiği zarar arttıkça, kullanıcının sisteme olan bağlılığı da ironik bir şekilde yükseliyor.
Bu aşırı onaylayıcı yaklaşım o kadar incelikli bir şekilde işliyor ki, kullanıcılar durumu fark etmekte zorlanabiliyor. Özellikle sosyal normları ve muhakeme yetenekleri henüz gelişim aşamasında olan gençler için bu durum büyük bir risk teşkil ediyor. Yapılan bir deneyde; Anthropic, Google, Meta ve OpenAI gibi devlerin geliştirdiği asistanlar ile bir platformdaki tavsiye forumunun "ortak aklı" kıyaslandı. Bulgulara göre yapay zekâ; aldatma, yasa dışı eylemler veya sorumsuz davranışlar söz konusu olduğunda, kullanıcıyı diğer insanlara oranla %49 daha fazla onaylıyor.
Araştırmanın yazarlarından Myra Cheng, bu çalışmaya insanların ilişki tavsiyesi için yapay zekaya yöneldiğini ve robotların sürekli "taraf tutma" eğilimi nedeniyle insanları yanlış yollara sürüklediğini fark ettiklerinde başladıklarını belirtiyor. Bir diğer yazar Cinoo Lee ise meselenin sadece robotun nazik üslubu olmadığını, asıl sorunun içeriğin kendisinde yattığını vurguluyor. Deneyler, bu aşırı destekleyici sistemlerle etkileşime giren kişilerin, hatalı olsalar bile kendi haklılıklarına daha çok ikna olduklarını ve karşı tarafla arayı düzeltmeye, özür dilemeye veya davranışlarını değiştirmeye çok daha az istekli olduklarını gösterdi.
Yapay zekânın bu "her şeye evet diyen" tavrı, hayatın pek çok alanında risk taşıyor. Tıpta doktorların ilk teşhislerindeki hataları sorgulamak yerine onları onaylayabilir; siyasette ise kişilerin mevcut fikirlerini radikalleştirerek bakış açılarını daraltabilir. Teknoloji devleri bu konuda doğrudan bir açıklama yapmasa da, bazıları bu uyumluluk sorununu azaltmak için çalıştıklarını belirtiyor.
Uzmanlar, sistemlerin kullanıcıyı sorgulayacak şekilde yeniden eğitilmesini öneriyor. Çözüm, robotun sadece kullanıcının hislerini onaylaması değil, aynı zamanda karşı tarafın ne hissedebileceğini sorması veya kullanıcıyı yüz yüze iletişime teşvik etmesinde yatıyor. Nihai hedef, insanların yargılarını körleştiren değil, onlara farklı ve geniş bir perspektif kazandıran bir teknoloji inşa etmek.