Халуцинације вештачке интелигенције: OpenAI објаснио зашто њихови ботови измишљају

Компанија OpenAI, креатор ChatGPT-а, објавила је објашњење зашто вештачка интелигенција често даје уверљиве, али нетачне одговоре – феномен који се назива „халуцинације“.

У саопштењу наведено је да су језички модели подстакнути да „измисле“ одговор, колико год он био невероватан, уместо да признају да не знају решење. Проблем произилази из саме суштине „стандардних метода тренинга и евалуације“.

OpenAI истиче да ова појава није искорењена ни у новијим, напреднијим системима, укључујући и њихов најновији GPT-5 модел.

Према студији на коју се позива компанија, главни проблем је у начину оцењивања модела: систем који не да одговор добија нулу, док насумичан одговор може понекад бити тачан и самим тим боље оцењен.

Тако модели уче да је „боље рећи било шта него ништа“.

Иако OpenAI ради на техникама које би смањиле број нетачних одговора, у саопштењу се признаје да 100% тачност никада неће бити могућа, јер постоје питања која су по природи – без одговора.

Нулта Тачка/Медији

Ne propustite

Skoro milion građana Srbije živi sa manje od 100 evra mesečno

Skoro milion građana Srbije živi sa manje od 100 evra mesečno

Dok se najavljuju milionski projekti, skoro milion je i građana
Bajden ne želi Treći Svetski Rat tvrdi bela kuća

Bajden ne želi Treći Svetski Rat tvrdi bela kuća

Vašington „ne traži“ rat sa Rusijom, rekao je portparol za