Халуцинације вештачке интелигенције: OpenAI објаснио зашто њихови ботови измишљају

Компанија OpenAI, креатор ChatGPT-а, објавила је објашњење зашто вештачка интелигенција често даје уверљиве, али нетачне одговоре – феномен који се назива „халуцинације“.

У саопштењу наведено је да су језички модели подстакнути да „измисле“ одговор, колико год он био невероватан, уместо да признају да не знају решење. Проблем произилази из саме суштине „стандардних метода тренинга и евалуације“.

OpenAI истиче да ова појава није искорењена ни у новијим, напреднијим системима, укључујући и њихов најновији GPT-5 модел.

Према студији на коју се позива компанија, главни проблем је у начину оцењивања модела: систем који не да одговор добија нулу, док насумичан одговор може понекад бити тачан и самим тим боље оцењен.

Тако модели уче да је „боље рећи било шта него ништа“.

Иако OpenAI ради на техникама које би смањиле број нетачних одговора, у саопштењу се признаје да 100% тачност никада неће бити могућа, јер постоје питања која су по природи – без одговора.

Нулта Тачка/Медији

Ne propustite

Amerika: Decu u školama uče da "neki dečaci imaju polni organ dok drugi nemaju"

Amerika: Decu u školama uče da „neki dečaci imaju polni organ dok drugi nemaju“

Vlasti u Njujorku su pripremile knjigu deci uzrasta od samo
Najveći nemački trgovac gasom Uniper se nacionalizuje da bi izbegao nelikvidnost

Najveći nemački trgovac gasom Uniper se nacionalizuje da bi izbegao nelikvidnost

Uniper je izbegao nelikvidnost nakon što su se akcionari složili