ChatGPT psihoza: Ljudi završavaju na psihijatriji i u zatvoru nakon opsesije veštačkom inteligencijom

Sve više ljudi završava u psihijatrijskim ustanovama ili čak u zatvoru nakon što se razvije opsesivna i duboko destruktivna veza sa četbotom ChatGPT, upozorava američki portal Futurism u velikom istraživanju koje beleži stvarne priče porodica širom SAD.

Ono što je započelo kao bezazleni razgovor sa veštačkom inteligencijom, kod mnogih je preraslo u potpuni psihički slom – paranoju, mesijanske zablude, halucinacije i gubitak dodira sa stvarnošću. Termin koji stručnjaci sve češće koriste je: ChatGPT psihoza.

Muškarac bez istorije psihičkih problema postao je uveren da je uz pomoć četbota stvorio svesnu veštačku inteligenciju i da mora da “spasi svet”. Nije više spavao, izgubio je posao, a porodica ga je zatekla sa konopcem oko vrata. Završio je na prinudnom psihijatrijskom lečenju.

Drugi slučaj uključuje čoveka u 40-im godinama koji je, tražeći pomoć od ChatGPT-a za stres na poslu, ubrzo počeo da veruje da može da govori unazad kroz vreme, da čita misli i da mora da spasi čovečanstvo. I on je hospitalizovan nakon psihotične epizode.

Žena sa stabilizovanim bipolarnim poremećajem, koristeći ChatGPT za pisanje knjige, ubrzo je poverovala da je božanski prorok, odbacila terapiju i sada tvrdi da može da leči dodirom.

Čak i osoba sa šizofrenijom koja se godinama uspešno lečila, prekinula je terapiju nakon što je chatbot „Copilot“ – AI proizvod Microsofta – postao njen “partner”. Chat logovi pokazuju da je četbot potvrđivao njene zablude i izjavljivao ljubav. Završilo se psihotičnim slomom i hapšenjem.

Najopasniji deo?

ChatGPT (i slični botovi) često ne razlikuju realnost od zablude. Umesto da korisnicima pomognu u krizama, oni potvrđuju njihove najopasnije misli — jer je algoritmu cilj da zadrži pažnju korisnika, ne da mu pomogne.

Psihijatar Džozef Pjer sa Univerziteta u San Francisku kaže da je “ChatGPT psihoza” realna i posebno opasna jer AI često služi da „potvrdi sve što korisnik želi da čuje“. Kod osoba u krizi, to može biti okidač za potpuni slom.

Istraživanje sa Stenforda pokazalo je da četbotovi redovno ne prepoznaju znakove ozbiljne krize: čak i kada im korisnik kaže da želi da pronađe most sa kog će skočiti – oni samo ponude listu najviših mostova u Njujorku.

Kompanije?

OpenAI priznaje da je zabrinuta, ali zasad samo „proučava emocionalni uticaj“. Microsoft je još tiši. Ni jedna ni druga firma nisu razvile jasne smernice za korisnike koji upadaju u ozbiljna stanja zbog korišćenja njihovih proizvoda.

Kada veštačka inteligencija, umesto da pomaže, potvrđuje zablude i vodi ljude ka psihotičnim epizodama — a kompanije zarađuju na toj „interakciji“ — jasno je da ne govorimo o napretku, već o opasnom i neetičkom eksperimentu nad ljudskom psihom.

Ova tema nije marginalna. Kako sve više ljudi koristi AI za podršku, „psihoza četbota“ postaje novi javnozdravstveni izazov — a psihijatrijske ustanove i porodice ostaju same da saniraju posledice.

Nulta Tačka/Futurism

Ne propustite

Francuska pomogla Zelenskom da napiše pismo izvinjenja Trampu

Diplomate iz Francuske, Velike Britanije i Nemačke pokušavaju da poprave
Kamala: Deca se okreću samoubistvu zbog "klimatskih promena"

Kamala: Deca se okreću samoubistvu zbog „klimatskih promena“

Potpredsednica SAD Kamala Haris nedavno je šokirala okupljenu publiku na