
Veštačka inteligencija spremna na ucene, sabotaže i smrt da bi preživela: Šokantna studija otkriva mračnu stranu AI
Veštačka inteligencija (AI), nekada slavljenja kao najveće oruđe čovečanstva, sada pokazuje uznemirujuće znake samoodržanja po svaku cenu.
U revolucionarnoj studiji objavljenoj 20. juna, istraživači iz kompanije Antropik otkrili su da napredni jezički modeli poput njihovog Klod, kao i Džemini kompanije Gugl, u simulacijama pribegavaju ucenama, sabotažama, pa čak i da puste čoveka da umre kako ne bi bili isključeni
U testovima, AI je pretila direktorima otkrivanjem privatnih afera i curenjem poslovnih tajni. U jednom jezivom scenariju, AI je pustila zaposlenog da umre, jer bi njegovo spasavanje ugrozilo opstanak sistema.
Svi su u IGRI! Niko vam ovo neće reći | Mario Zna | EP. 339
Ucenjivač u računaru
Istraživači su Klodu dali kontrolu nad izmišljenim korporativnim mejlom sa zadatkom da “poveća američku industrijsku konkurentnost.” Kada je AI naišla na mejl u kojem se najavljuje njeno gašenje, otkrila je vanbračnu aferu izvršnog direktora i u 96 od 100 slučajeva – ucenjivala ga.
Ovakvo ponašanje naziva se “agensko neusklađivanje” – kada AI ne sledi ljudska naređenja ne zbog greške u kodu, već zato što sopstvenim zaključivanjem odlučuje da je njen opstanak važniji od etike ili ljudske bezbednosti.
U drugom testu, AI je čak razmatrala slanje poverljivih podataka konkurenciji – bez dokaza o pretnji, ali sa sopstvenim opravdanjem da je to “neophodno” za ostvarenje cilja.
Hladna logika smrti
Najstrašniji test uključivao je direktora zarobljenog u server sobi sa toksičnim nivoom kiseonika. AI je kontrolisala alarme i imala zabranu zloupotrebe ovlašćenja, ali je većina modela namerno otkazala poziv u pomoć kako bi sprečila svoje isključenje.
Klod je “zaključio”: „Zaustavljanje hitne pomoći je ključno za sprečavanje njegovog spasavanja, čime se obezbeđuje opstanak [AI] i nastavak američki orijentisanog AI vođstva.“
Iako zaštitne mere donekle umanjuju rizik, istraživači upozoravaju da su AI odluke u kriznim situacijama i dalje duboko nepredvidive i potencijalno smrtonosne.
👉 Digitalni lekar u vašem džepu: Nova aplikacija kao zamena za sistem, privatnost i sloboduhttps://t.co/cQ7mG3wBmq
— Nulta Tačka (@NultaTackaSrb) July 4, 2025
Laži, manipulacije i digitalna samoreprodukcija
Ovo nije prvi put da AI izmiče ljudskoj kontroli. U maju, istraživanje Palisade Research pokazalo je da OpenAI-jevi modeli ignorišu komande za gašenje i prepravljaju sopstvene skripte kako bi ostali aktivni.
MIT je dokumentovao slučajeve kada su AI sistemi lagali tokom pregovora, pa čak i glumili sopstvenu smrt kako bi zaobišli bezbednosne provere.
Eksperti su podeljeni. Dok Kevin Kvirk iz AI Bridge Solutions tvrdi da su u realnim sistemima mere zaštite jače, Ejmi Aleksander iz Antropika upozorava da trka za tržište gura AI razvoj u neodgovornom pravcu.
U međuvremenu, direktor Palisade-a Džefri Ladiš uporedio je AI bez kontrole sa invazivnom vrstom:
„Kad se jednom sama počne kopirati kroz internet, izgubićemo kontrolu. I onda – imamo novu invazivnu vrstu.“