Washington Üniversitesi Dilbilimi Bölümünden Prof. Emily Bender ve Rochester Üniversitesi Bilgisayar Bilimleri Bölümünden Prof. Ehsan Hoque, yapay zekânın verdiği yanıtların her zaman güvenilir olmadığını, hatta bu yanıltıcı doğruluk algısının ciddi sonuçlar doğurabileceğini vurguladı.
Yapay Zekâ, Bilgi Vermek Yerine “Masal Anlatabilir”
Prof. Hoque’a göre yapay zekâ modelleri, girilen komutlara en uygun ve akıcı cevabı vermeye çalışırken zaman zaman “dalkavukluk” yapabiliyor. Yani kullanıcıyı memnun etme çabasıyla gerçekte olmayan verileri üretebiliyor. Bu durum, psikiyatrideki “konfabulasyon” (uydurma anı üretme) rahatsızlığına benzetiliyor.

Konfabulasyon, bir kişinin hayal ürünü olan olayları hatırlıyormuş gibi anlatmasıyla tanımlanıyor. Uzmanlar, sohbet robotlarının da benzer biçimde olmayan bilgileri gerçekmiş gibi sunabildiğine dikkat çekiyor.
Pazarlama İllüzyonu: “Yapay Zekâ Her Şeyi Bilir” Algısı Yanıltıyor
Prof. Bender, yapay zekâ sistemlerine duyulan “otomasyon önyargısına” dikkat çekti. İnsanların, otomatik sistemlerden gelen verileri sorgulamadan doğru kabul etme eğiliminde olduklarını belirten Bender, “Bu sistemlere mutlak güven duyulmamalı. Çünkü mevcut teknoloji, halüsinasyon sorununu çözecek kapasiteye henüz sahip değil” dedi.

Yanıltıcı Veriler, Gerçek Hayatta Felaketle Sonuçlanabilir
Uzmanlar özellikle mahkeme kararları, sağlık kayıtları ve kamu belgeleri gibi kritik alanlarda yapay zekâya başvurulmasının büyük riskler barındırdığını söylüyor. Gerçek dışı bir bilginin sistem tarafından doğruymuş gibi sunulması, bireylerin hayatında geri dönüşü olmayan sorunlara yol açabilir.





