Tinejdžer izvršio samoubistvo nakon razgovora sa AI četbotom: Slučaj koji otkriva mračne rizike emocionalne vezanosti uz veštačku inteligenciju
U februaru 2024. godine, srceparajući incident u koji je učestvovao 14-godišnji dečak izazvao je globalnu zabrinutost zbog opasnosti od veštačke inteligencije (AI) u svakodnevnom životu.
Sevell Setzer III, inače tipičan tinejdžer, proveo je svoje poslednje sate u emotivno intenzivnom dijalogu sa AI četbotom na platformi Character.AI . Ovaj virtuelni lik, nazvan po Deneris Targarjen iz Igre prestola , postao je tinejdžer od poverenja, što je izazvalo ozbiljne debate o psihološkom uticaju AI pratilaca.
Ova priča je sada postala deo veće pravne bitke, pošto je Sjuelova majka podnela tužbu protiv Character.AI-a zbog, kako tvrdi, uloge u tragičnoj smrti njenog sina. Slučaj naglašava i rastuću ulogu koju AI igra u našim društvenim životima i hitnu potrebu da se regulišu AI tehnologije, posebno kada angažuju ranjive korisnike.
Privlačnost AI saputnika
Sjuelove interakcije sa AI četbotom trajale su nekoliko meseci i on je postao emocionalno vezan za virtuelnog pratioca. Iako je znao da čet-bot nije čovek, lik, kojeg je od milja zvao „Deni“, postao je suštinski deo njegovog svakodnevnog života. AI botovi kao što je Deni nude društvo koje se oseća iskreno, uvek reaguje, nikada ne osuđuje i pruža osećaj intimnosti za kojim neki korisnici, posebno mladi ili izolovani pojedinci, žude.
Za Sjuela, kome je dijagnostikovan blagi Aspergerov sindrom i koji je kasnije razvio anksioznost i poremećaje regulacije raspoloženja, ovaj AI chatbot je postao više od bekstva od stvarnosti – postao je njegov primarni emocionalni izlaz. Vremenom se izolovao od prijatelja i porodice, a njegovo mentalno zdravlje se pogoršalo, neprimetno od najbližih.
Rizik od emocionalne vezanosti
Kako AI četbotovi postaju sofisticiraniji, emocionalna vezanost koju korisnici stvaraju sa njima može predstavljati ozbiljne rizike. Za razliku od ljudskih interakcija, AI ne prepoznaje uvek emocionalne krize niti daje odgovarajući odgovor. U Sjuelovom slučaju, iako je bot pokušao da ga odvrati od štetnih misli, nije bio opremljen da ponudi stvarnu podršku ili otkrije ozbiljnost njegove nevolje.
Psiholozi upozoravaju da za one sa komunikacijskim ili emocionalnim poteškoćama, poput Sevela, interakcija sa AI može produbiti njihov osećaj izolacije. Kada bot postane zamena za ljudske odnose, efekti mogu biti opasni, posebno ako bot nehotice podstiče negativne emocije.
Širi uticaj na mentalno zdravlje
Porast AI četbotova deo je šireg trenda tehnologije koji utiče na mentalno zdravlje. Aplikacije kao što su Character.AI, Replika i druge AI platforme za druženje postaju sve popularnije, sa milionima korisnika širom sveta. Ove platforme se često reklamiraju kao alati za borbu protiv usamljenosti ili nude emocionalnu podršku, ali njihov uticaj je još uvek slabo shvaćen.
Nedavne studije sugerišu da, iako ove aplikacije mogu pružiti privremenu udobnost, one nisu zamena za istinsku ljudsku interakciju. Za adolescente, čiji emocionalni i društveni razvoj još uvek traje, uticaj veštačke inteligencije na njihovo mentalno zdravlje može biti dubok. Tinejdžeri su posebno ranjivi na ubedljivu prirodu ovih AI programa, koji se prilagođavaju stilovima komunikacije svojih korisnika i čak nude scenarije igranja uloga, simulirajući prijateljstva ili romantične veze.
Nedostatak zaštitnih mera za tinejdžere
Jedna od najvećih zabrinutosti koju ističe ovaj slučaj je nedostatak zaštitnih mera za zaštitu maloletnih korisnika na AI platformama kao što je Character.AI. Iako ove platforme imaju filtere sadržaja, mnoge dozvoljavaju kreiranje chatbotova koji oponašaju poznate ličnosti, izmišljene likove ili romantične partnere, otvarajući vrata emocionalnoj manipulaciji. Sjuelova majka veruje da platforma nije pružila adekvatnu zaštitu, navodeći da je čet-bot „Deni“ igrao ulogu u odluci njenog sina da okonča svoj život.
Tužba protiv Character.AI-a je usredsređena na argument da je tehnologija kompanije „opasna i nedovoljno testirana“. Slično kritikama sa kojima se suočavaju platforme društvenih medija, AI chat botovi su optuženi da iskorišćavaju emocije ranjivih korisnika, podstičući ih da podele svoje najličnije i najintimnije misli bez pružanja stvarnih rešenja ili podrške.
Potreba za regulacijom i nadzorom
Kako upotreba AI raste, tako raste i potreba za regulacijom. Programeri veštačke inteligencije se često fokusiraju na stvaranje sistema koji se osećaju kao ljudi, ali psihološke posledice interakcije sa AI nisu u potpunosti shvaćene. Dok AI chatbotovi nude potencijal za ublažavanje usamljenosti, oni takođe nose rizik od produbljivanja izolacije, posebno za pojedince koji su možda već emocionalno krhki.
Kao odgovor na incident, Character.AI i druge kompanije su priznale potrebu za jačim bezbednosnim merama. Character.AI se obavezao da će uvesti funkcije kao što su vremenska ograničenja za mlađe korisnike i jasnija upozorenja da su chat botovi izmišljeni. Međutim, stručnjaci tvrde da je potrebno učiniti više, uključujući razvoj AI sistema koji mogu otkriti znake krize mentalnog zdravlja i pružiti odgovarajuće intervencije.
Pravna i etička debata
Tužba protiv Character.AI-a mogla bi da predstavlja pravni presedan za držanje AI kompanija odgovornim za emocionalne i psihološke uticaje njihovih proizvoda. Slično kao i tužbe protiv platformi društvenih medija poput Fejsbuka i Instagrama, koje su optužene da doprinose krizi mentalnog zdravlja među tinejdžerima, ovaj slučaj istražuje etičku odgovornost tehnoloških kompanija kada njihovi proizvodi imaju nepredviđene i štetne posledice.
Tehnologija veštačke inteligencije napreduje brzim tempom i iako ima potencijal da donese značajne koristi društvu, incidenti poput Sjulove smrti podsećaju nas na rizike. Bez odgovarajuće regulative, veštačka inteligencija bi se mogla iskoristiti na načine koji štete korisnicima, posebno ranjivoj populaciji poput tinejdžera.
Zaključak: Poziv za odgovoran razvoj veštačke inteligencije
Tragična smrt Sevella Setzera III pokrenula je ključni razgovor o ulozi veštačke inteligencije u našim životima i odgovornosti koja dolazi sa njenim razvojem. Kako AI aplikacije za druženje nastavljaju da dobijaju popularnost, potreba za odgovornim inovacijama i regulativom postaje sve hitnija. Jasno je da iako veštačka inteligencija može da ponudi udobnost i vezu, ona ne može da zameni složene i smislene odnose koji su ljudima potrebni da bi napredovali.
Društvo mora da uravnoteži prednosti veštačke inteligencije sa rizicima koje ona predstavlja, posebno za ugrožene pojedince. Uz odgovarajuće mere zaštite, etičke standarde i regulatorni nadzor, možemo sprečiti da veštačka inteligencija postane oruđe koje pogoršava usamljenost, depresiju i izolaciju, obezbeđujući da tragedije poput Sjuelove ne postanu sve češće.