Yapay zekâ asistanları, doğruymuş gibi sunulan yanlış bilgiler üretebiliyor. Sahte kaynaklar, uydurma alıntılar ve hayali veriler sıkça görülüyor. Kullanıcılar genellikle bu hataları kendi kontrolleriyle ayırt ediyor. Ancak OpenAI araştırmacıları, sorunun kökenini tespit ettiklerini açıkladı.
Araştırma raporuna göre, halüsinasyonlar yalnızca modelin hatalı çalışmasından değil, mevcut değerlendirme sistemlerinin yapısından kaynaklanıyor. AI modelleri, emin oldukları yanıtlarla ödüllendirilirken belirsizliği ifade eden yanıtlar cezalandırılıyor. Bu durum, tıpkı çoktan seçmeli sınavlara benzetiliyor: Tahminde bulunanlar puan kazanıyor, boş bırakanlar ise hiçbir ödül alamıyor.
DOĞRU YANITIN ÖNÜNE GEÇEN “GÜVENLİ TAHMİN”
Araştırma, mevcut lider tablolarının yalnızca doğruluğa odaklandığını ve hata oranları ile belirsizlikleri görmezden geldiğini vurguluyor. OpenAI, puanlamanın yeniden düzenlenmesini öneriyor: Yanlış ve kesin yanıtlar daha fazla cezalandırılmalı, belirsizliği açıkça ifade eden modeller ise ödüllendirilmelidir. Amaç, AI’nin yanlış bilgiyi kesinmiş gibi sunmasını engelleyip, hatalarını ve belirsizliklerini şeffaf şekilde belirtmesini sağlamak.
AZ TAHMİN, ÇOK GÜVEN
Raporda verilen örnekler bu yaklaşımın etkinliğini gösteriyor. SimpleQA testi sırasında bir model soruların yarısından fazlasını cevaplamamış ancak verdiği cevaplarda sadece %26 hata yapmış. Öte yandan başka bir model neredeyse tüm soruları yanıtlamış fakat yanlış bilgi üretme oranı %75’e çıkmış. Bu da net bir şekilde ortaya koyuyor: Belirsizliği kabul eden bir model, tahminde bulunup güven veren ama yanlış bilgi üreten bir modelden daha güvenilir.
OpenAI’nin önerisi, AI uygulamalarının şeffaf ve doğru bilgi sunma kapasitesini artırmak için önemli bir adım olarak görülüyor. Kullanıcılar, yakında yapay zekâ asistanlarının sunduğu bilgileri sorgulamak zorunda kalmadan daha güvenilir yanıtlar alabilecek.