Халуцинације вештачке интелигенције: OpenAI објаснио зашто њихови ботови измишљају

Компанија OpenAI, креатор ChatGPT-а, објавила је објашњење зашто вештачка интелигенција често даје уверљиве, али нетачне одговоре – феномен који се назива „халуцинације“.

У саопштењу наведено је да су језички модели подстакнути да „измисле“ одговор, колико год он био невероватан, уместо да признају да не знају решење. Проблем произилази из саме суштине „стандардних метода тренинга и евалуације“.

OpenAI истиче да ова појава није искорењена ни у новијим, напреднијим системима, укључујући и њихов најновији GPT-5 модел.

Према студији на коју се позива компанија, главни проблем је у начину оцењивања модела: систем који не да одговор добија нулу, док насумичан одговор може понекад бити тачан и самим тим боље оцењен.

Тако модели уче да је „боље рећи било шта него ништа“.

Иако OpenAI ради на техникама које би смањиле број нетачних одговора, у саопштењу се признаје да 100% тачност никада неће бити могућа, јер постоје питања која су по природи – без одговора.

Нулта Тачка/Медији

Ne propustite

Bajden ne želi da isključi slanje američke vojske u Tajvan u slučaju sukoba Pekinga i Tajpeja

Bajden ne želi da isključi slanje američke vojske u Tajvan u slučaju sukoba Pekinga i Tajpeja

Američki predsednik je odbio da isključi američko vojno učešće u
Večernje Novosti u naletu korona histerije: "Građani krše karantin, šire virus"

Večernje Novosti u naletu korona histerije: „Građani krše karantin, šire virus“

Navikli smo da korona histeriju i korona narativ šire translevičarski