
Giskard’ın yayımladığı blog yazısına nazaran, bilhassa belgisiz yahut tartışmalı bahislere dair sorulara verilen kısa cevaplar, yapay zeka modellerinin daha fazla “halüsinasyon” — yani gerçek dışı, uydurma bilgi — üretmesine neden oluyor. Şirketin araştırmacıları “Verilerimiz, sistem talimatlarında yapılan kolay değişikliklerin bir modelin halüsinasyon görme eğilimini değerli ölçüde etkilediğini gösteriyor” dedi.
Halüsinasyonlar, yapay zekada çözülmesi sıkıntı bir sıkıntıdır. En yetenekli modeller bile bazen olasılıksal tabiatlarının bir özelliği olarak bir şeyler uydururlar. Dahası, OpenAI’ın o3’ü üzere yeni akıl yürütme modelleri evvelki modellere nazaran daha fazla halüsinasyon görüyor ve bu da çıktılarına güvenmeyi zorlaştırıyor.
Kısa cevap istemeyin

Giskard, bu durumu modellerin yanlışları fark etmek ve düzeltmek için kâfi alan bulamamasına bağlıyor. Bilhassa yanlışlı yahut aldatıcı sorulara sağlam itirazlar getirmek, ayrıntılı açıklamalar gerektiriyor. Lakin model kısa karşılık vermeye zorlandığında, bu açıklamalar yerini sessiz onaylara bırakabiliyor. Araştırmacılar, “Kısa tutmaya zorlandıklarında, modeller daima olarak doğruluk yerine kısalığı seçiyor” diye yazıyor.
Giskard’ın çalışması, yapay zekaların yalnızca kısa yanıtlar karşısında değil, kullanıcıların kendinden emin halde sunduğu savlara karşı da daha az itiraz ettiğini gösteriyor. Ayrıyeten kullanıcıların en çok beğendiği modellerin, her vakit en gerçek yanıtları veren modeller olmadığına dikkat çekiliyor.