Washington Üniversitesi Dilbilimi Bölümünden Prof. Emily Bender ve Rochester Üniversitesi Bilgisayar Bilimleri Bölümünden Prof. Ehsan Hoque, yapay zekânın verdiği yanıtların her zaman güvenilir olmadığını, hatta bu yanıltıcı doğruluk algısının ciddi sonuçlar doğurabileceğini vurguladı.


Yapay Zekâ, Bilgi Vermek Yerine “Masal Anlatabilir”

Prof. Hoque’a göre yapay zekâ modelleri, girilen komutlara en uygun ve akıcı cevabı vermeye çalışırken zaman zaman “dalkavukluk” yapabiliyor. Yani kullanıcıyı memnun etme çabasıyla gerçekte olmayan verileri üretebiliyor. Bu durum, psikiyatrideki “konfabulasyon” (uydurma anı üretme) rahatsızlığına benzetiliyor.

Yapay Zekanın Geleneksel Sınıf Ortamına Girmesiyle Eğitimde Belirsizliklerle Dolu Dönem Başlıyor

Bilim insanları, iklim değişikliğinin hayvanlardan bulaşan hastalıkları etkileyebileceğini ortaya koydu
Bilim insanları, iklim değişikliğinin hayvanlardan bulaşan hastalıkları etkileyebileceğini ortaya koydu
İçeriği Görüntüle

Konfabulasyon, bir kişinin hayal ürünü olan olayları hatırlıyormuş gibi anlatmasıyla tanımlanıyor. Uzmanlar, sohbet robotlarının da benzer biçimde olmayan bilgileri gerçekmiş gibi sunabildiğine dikkat çekiyor.


Pazarlama İllüzyonu: “Yapay Zekâ Her Şeyi Bilir” Algısı Yanıltıyor

Prof. Bender, yapay zekâ sistemlerine duyulan “otomasyon önyargısına” dikkat çekti. İnsanların, otomatik sistemlerden gelen verileri sorgulamadan doğru kabul etme eğiliminde olduklarını belirten Bender, “Bu sistemlere mutlak güven duyulmamalı. Çünkü mevcut teknoloji, halüsinasyon sorununu çözecek kapasiteye henüz sahip değil” dedi.

Her 10 Gençten 3'Ü Meslek Seçimini Yapay Zekayla Şekillendiriyor 1


Yanıltıcı Veriler, Gerçek Hayatta Felaketle Sonuçlanabilir

Uzmanlar özellikle mahkeme kararları, sağlık kayıtları ve kamu belgeleri gibi kritik alanlarda yapay zekâya başvurulmasının büyük riskler barındırdığını söylüyor. Gerçek dışı bir bilginin sistem tarafından doğruymuş gibi sunulması, bireylerin hayatında geri dönüşü olmayan sorunlara yol açabilir.

Muhabir: Zeynep Yüksek