Халуцинације вештачке интелигенције: OpenAI објаснио зашто њихови ботови измишљају

Компанија OpenAI, креатор ChatGPT-а, објавила је објашњење зашто вештачка интелигенција често даје уверљиве, али нетачне одговоре – феномен који се назива „халуцинације“.

У саопштењу наведено је да су језички модели подстакнути да „измисле“ одговор, колико год он био невероватан, уместо да признају да не знају решење. Проблем произилази из саме суштине „стандардних метода тренинга и евалуације“.

OpenAI истиче да ова појава није искорењена ни у новијим, напреднијим системима, укључујући и њихов најновији GPT-5 модел.

Према студији на коју се позива компанија, главни проблем је у начину оцењивања модела: систем који не да одговор добија нулу, док насумичан одговор може понекад бити тачан и самим тим боље оцењен.

Тако модели уче да је „боље рећи било шта него ништа“.

Иако OpenAI ради на техникама које би смањиле број нетачних одговора, у саопштењу се признаје да 100% тачност никада неће бити могућа, јер постоје питања која су по природи – без одговора.

Нулта Тачка/Медији

Ne propustite

Ukrajina na sve načine pokušava da izazove Treći svetski rat, tvrde da imaju dokaze ruskom tragu eksplozije u Poljskoj

Ukrajina na sve načine pokušava da izazove Treći svetski rat, tvrde da imaju dokaze ruskom tragu eksplozije u Poljskoj

Sekretar Saveta za nacionalnu bezbednost i odbranu Ukrajine Aleksij Danilov
Zapad prikriva da UKRAJINA koristi hemijsko oružje protiv ruskih vojnika i civila

Zapad prikriva da UKRAJINA koristi hemijsko oružje protiv ruskih vojnika i civila

Zvaničnik ministarstva spoljnih poslova tvrdi da je Rusija dokumentovala dokaze