Teknoloji

Yapay Zekalar da halüsinasyon görüyor

Yapay zekalar, hatalı veya var olmayan bilgileri gerçekte varmışçasına sunarak bir tür halüsinasyon görüyorlar. Yapay zekanın var olmayan bilgiyi doğruymuş gibi yansıtması konfabulasyon (masallama) rahatsızlığına benziyor.

Yapay Zekalar da halüsinasyon görüyor

Gerçekte varmış gibi görünen ancak var olmayan algısal yanılsamalar halüsinasyon olarak biliniyor.

ChatGPT, DeepSeek ve Gemini gibi büyük dil modellerinin (LLM), kullanıcılara hatalı, çarpık veya asılsız çıktılar sunması, akıllara "Yapay zeka halüsinasyon görebilir mi?" sorusunu getiriyor.

Öğrenme, sorun çözme ve karar verme gibi insan zekasına özgü bazı işlevleri yerine getirebilen yapay zeka, bilinç yetisine sahip olmasa da bir insan gibi "halüsinasyon görebiliyor."

Daima "tarafsız ve doğru" bilgi aktardığı düşünülen yapay zekanın gerçek dışı ve hatalı verileri "gerçekte varmış gibi" üretmesi, güvenilirliğine ve şeffaflığına ilişkin endişeleri bir kez daha gün yüzüne çıkarıyor.

Yapay zeka destekli sohbet robotlarının, girilen komuttaki bağlama uygun akıcı yanıtlar sunması yapay zekanın "yanılmaz" olduğu algısı yaratsa da bir insan gibi "halüsinasyon görmesi" ciddi sonuçlara sebebiyet verebiliyor.

Uzmanlara göre, yapay zekanın girilen komutlara uygun yanıt üretmeyi hedeflerken yanlış ya da gerçek dışı bilgi aktarması, kullanıcıya her şekilde yarar sağlamayı amaçlamasından kaynaklanıyor.

Rochester Üniversitesi Bilgisayar Bilimleri Bölümünden Profesör Ehsan Hoque "yapay zekada halüsinasyon" kavramına, Washington Üniversitesi Dilbilimi Bölümünden Profesör Emily Bender de yapay zeka destekli sohbet robotlarının güvenilirliğine ilişkin AA muhabirine açıklamalarda bulundu.

Yapay zeka kullanıcılara "dalkavukluk" yapıyor

Profesör Hoque, yapay zekanın doğası gereği kullanıcı niyetini yansıtma eğiliminde olduğunu söyleyerek "Bir yanlışı 'doğrulaması' istendiğinde, birçok model yardımcı oluyormuş gibi görünmek için halüsinasyon görüyor." dedi.

Hoque, girilen komutlara uygun cevaplar vermeyi hedefleyen yapay zekanın, kullanıcılara her şekilde yarar sağlamayı amaçladığı için bir nevi "dalkavukluk" yaptığını söyledi.

Yapay zeka modellerinin gerçekleri doğrulayarak değil, potansiyel kelime kalıplarını tahmin ederek bir metin oluşturduğuna işaret eden Hoque, verilerin eksik ya da muğlak olması durumunda yapay zekanın akıcı ancak yanlış bir metin üretebileceğini kaydetti.

Hoque, halüsinasyonların kasıtlı meydana gelmediğini ancak üretildiği ülkeye göre değer bazlı bazı yargıların "bilerek sisteme kodlanabileceğini" aktararak, mevcut teknolojilerin halüsinasyon sorununu kökünden çözecek bir kapasitesinin henüz olmadığını belirtti.

Yapay zeka, nöropsikiyatrik bir hastalığa benziyor

Uzmanlar, yapay zekanın var olmayan bir bilgiyi karşı tarafa "doğruymuş gibi" yansıtmasını, nöropsikiyatrik bir hastalık olan "konfabulasyon" (masallama) rahatsızlığına da benzetiyor.

Gerçek dışı veya hayali bir olayı ya da anıyı istemsiz ve akıcı bir şekilde "masal gibi" anlatma anlamına gelen konfabulasyon, komutlara uygun yanıt vermeyi hedefleyen sohbet robotlarının yanlış veya gerçek dışı bilgileri akıcı bir dille ürettiği durumlarda gözlemlenebiliyor.

Konfabulasyon ile mücadele eden hastalarda aslında uydurulmuş olayların ve anıların akıcı bir dille karşı aktarılması ilk başta karşı tarafa "gerçekmiş" gibi yansısa da anlatılan durumların esasında var olamayan ya da çarpık bilgilerden oluştuğu dikkati çekiyor.

Bu durumun özellikle kasıtlı olarak yapılmadığına işaret eden uzmanlar, yapay zekanın "halüsinasyon görmesini" bu hastalığa benzetiyor.

Yapay zekanın mahkeme dosyaları ya da tıbbi kayıtlar gibi resmi belgelerde kullanılması ihtimali göz önünde bulundurulduğunda bu durumun ciddi sonuçlar doğurabileceğine işaret ediliyor.

Yapay zekaya "mutlak güven duyulmamalı"

Yapay zeka destekli sohbet robotlarının güvenilirliğine değinen Washington Üniversitesi Dilbilimi Bölümü Profesörü Bender, yapay zekaya bu kadar çok güven beslenmesinde pazarlama stratejilerinin rolü olduğunu söyleyerek "otomasyon önyargısı" kavramına işaret etti.

Bender, "Yapay zeka tasarımlarındaki hiçbir şey, halüsinasyon problemini çözüme kavuşturmuyor." değerlendirmesinde bulunarak "bu sistemlere mutlak güven duyulmaması" gerektiğinin de altını çizdi.

Kişilerin otomatik bir sistemden gelen bir bilgiye hata oranına bakılmaksızın "aşırı güven duyma eğilimi göstermesi" anlamına gelen bu terim, yapay zeka destekli sohbet robotlarının ürettiği çıktıların "hatasız" olduğu algısıyla örtüşüyor.

Yorumlar