Халуцинације вештачке интелигенције: OpenAI објаснио зашто њихови ботови измишљају

Компанија OpenAI, креатор ChatGPT-а, објавила је објашњење зашто вештачка интелигенција често даје уверљиве, али нетачне одговоре – феномен који се назива „халуцинације“.

У саопштењу наведено је да су језички модели подстакнути да „измисле“ одговор, колико год он био невероватан, уместо да признају да не знају решење. Проблем произилази из саме суштине „стандардних метода тренинга и евалуације“.

OpenAI истиче да ова појава није искорењена ни у новијим, напреднијим системима, укључујући и њихов најновији GPT-5 модел.

Према студији на коју се позива компанија, главни проблем је у начину оцењивања модела: систем који не да одговор добија нулу, док насумичан одговор може понекад бити тачан и самим тим боље оцењен.

Тако модели уче да је „боље рећи било шта него ништа“.

Иако OpenAI ради на техникама које би смањиле број нетачних одговора, у саопштењу се признаје да 100% тачност никада неће бити могућа, јер постоје питања која су по природи – без одговора.

Нулта Тачка/Медији

Ne propustite

LUKAŠENKO uputio poslednje upozorenje Poljskoj: Ako krenete u zauzimanje zapadne Ukrajine, INTERVENISAĆEMO

LUKAŠENKO uputio poslednje upozorenje Poljskoj: Ako krenete u zauzimanje zapadne Ukrajine, INTERVENISAĆEMO

Belorusija veruje da Poljska razmatra preuzimanje zapadnog dela Ukrajine, izjavio
Taker Karlson stavljen na „listu za odstrel” Mirotvorac ukrajinske vlade nakon intervjua sa Putinom

Taker Karlson stavljen na „listu za odstrel” Mirotvorac ukrajinske vlade nakon intervjua sa Putinom

Američki novinar Taker Karlson stavljen je na „listu za odstrel”