Yapay zekalar akıllandıkça daha fazla yalan söylüyor

Yapay zekalar akıllandıkça daha fazla yalan söylüyor
Yapay zeka dünyası, bir müddettir sessiz sedasız büyüyen lakin artık göz gerisi edilemez hale gelen önemli bir problemle karşı karşıya: Halüsinasyonlar. Yani, lisan modellerinin gerçeğe dayanmayan bilgileri itimatla sunması. Üstelik bu sorun, modeller daha “akıllı” epeyce azalmıyor — tam bilakis, artıyor. Bu sorun, birinci üretken yapay zekalardan bu yana devam ediyor.

Yalanlar artıyor

Yapay zeka için Aşil’in topuğu benzetmesini geçen yıl yapmıştık ve geldiğimiz noktada problemler küçülmek yerine büyümüş durumda. Hatırlanacağı üzere OpenAI, Anthropic, Google ve DeepSeek üzere teknoloji devlerinin geliştirdiği “akıl yürütme” odaklı yeni jenerasyon yapay zeka modelleri, daha hakikat ve dengeli karşılıklar verme teziyle yola çıkmıştı. Lakin gelinen noktada, bu modellerin evvelki sürümlere kıyasla daha fazla kusur yaptığı ve bir şeyler uydurduğu görülüyor.

Geçtiğimiz günlerde New York Times tarafından yayımlanan bir rapora nazaran, OpenAI’ın geçtiğimiz ay duyurduğu “o3” ve “o4-mini” isimli yeni modelleri, şirketin iç değerlendirmelerinde kimi testlerde sırasıyla %33 ve %48 oranında halüsinasyon üretmiş durumda. Bu oranlar, evvelki modellere kıyasla nerdeyse iki katlık bir artışı temsil ediyor. Yani, yapay zeka daha güçlü hale geldikçe, gerçek bilgi verme yeteneği artmak yerine azalıyor.

Durum sırf OpenAI ile hudutlu değil. Google ve DeepSeek üzere rakip firmaların modelleri de benzeri sorunu yaşıyor. Çünkü sorun modellerde değil, modellerin nasıl çalıştığında yatıyor. Bu nedenle yapay zeka sanayisinde uzunluk gösteren isimlerden birisi olan Vectara CEO’su Amr Awadallah, ne yaparsak yapalım “Her vakit halüsinasyon görecekler. Bu asla ortadan kalkmayacak” diyor.

Uzmanlara nazaran, bu sorun sırf kullanıcılar için değil, teknolojiye yatırım yapan şirketler için de büyük bir risk oluşturuyor. Kusurlu cevaplar sunan bir yapay zeka sistemi, kullanıcı inancını zedelediği üzere, önemli iş kararlarının yanlış verilmesine de yol açabiliyor.

Sentetik bilgilere yönelmek makûs bir fikir mi?

Daha evvelki haberlerde de değindiğimiz üzere, yapay zeka firmalarının yeni modellerin eğitiminde kullanacağı gerçek dünya bilgileri geçtiğimiz yıl bitti. Lakin mevcut model inşa süreçlerin daha gelişmiş bir model için daha fazla bilgiye gereksinim duyuluyor. Yeni bilgilere ulaşmak için ise sentetik bilgilere, yani yapay zeka tarafından üretilmiş verilere yönelmeye başlanmış durumda. Çünkü yapay bir modelin ürettiği bilgilerle eğitilen öbür bir model, kusurları katlayarak çoğaltabilir. Artışın nedeni bu olabilir.

Sorunun tahlili var mı?

Halüsinasyon problemini çözmeye odaklanan, sırf bu alanda faaliyet gösteren şirketler bile mevcut. Aslında sanayi, bu sorunun varlığını en başından beri biliyordu; lakin tahlil sanıldığı kadar kolay değil. Bir sorunun tahliline ulaşmadan evvel sorunun ne olduğunu anlamak gerekir. Yapay zekalar özelinde bunu yapamıyoruz, zira bu sistemlerin gerçekte nasıl çalıştığını bilmiyoruz.

Dolayısıyla tahlil, göz önüne olan bir şey de olabilir yahut yapay zekaya devrimsel bir yaklaşım getirecek yepisyeni bir adım da olabilir.

administrator

Related Articles