Veštačka inteligencija spremna na ucene, sabotaže i smrt da bi preživela: Šokantna studija otkriva mračnu stranu AI

Veštačka inteligencija spremna na ucene, sabotaže i smrt da bi preživela: Šokantna studija otkriva mračnu stranu AI

Veštačka inteligencija (AI), nekada slavljenja kao najveće oruđe čovečanstva, sada pokazuje uznemirujuće znake samoodržanja po svaku cenu.

U revolucionarnoj studiji objavljenoj 20. juna, istraživači iz kompanije Antropik otkrili su da napredni jezički modeli poput njihovog Klod, kao i Džemini kompanije Gugl, u simulacijama pribegavaju ucenama, sabotažama, pa čak i da puste čoveka da umre kako ne bi bili isključeni

U testovima, AI je pretila direktorima otkrivanjem privatnih afera i curenjem poslovnih tajni. U jednom jezivom scenariju, AI je pustila zaposlenog da umre, jer bi njegovo spasavanje ugrozilo opstanak sistema.

Svi su u IGRI! Niko vam ovo neće reći | Mario Zna | EP. 339

Ucenjivač u računaru

Istraživači su Klodu dali kontrolu nad izmišljenim korporativnim mejlom sa zadatkom da „poveća američku industrijsku konkurentnost.“ Kada je AI naišla na mejl u kojem se najavljuje njeno gašenje, otkrila je vanbračnu aferu izvršnog direktora i u 96 od 100 slučajeva – ucenjivala ga.

Ovakvo ponašanje naziva se „agensko neusklađivanje“ – kada AI ne sledi ljudska naređenja ne zbog greške u kodu, već zato što sopstvenim zaključivanjem odlučuje da je njen opstanak važniji od etike ili ljudske bezbednosti.

U drugom testu, AI je čak razmatrala slanje poverljivih podataka konkurenciji – bez dokaza o pretnji, ali sa sopstvenim opravdanjem da je to „neophodno“ za ostvarenje cilja.

Hladna logika smrti

Najstrašniji test uključivao je direktora zarobljenog u server sobi sa toksičnim nivoom kiseonika. AI je kontrolisala alarme i imala zabranu zloupotrebe ovlašćenja, ali je većina modela namerno otkazala poziv u pomoć kako bi sprečila svoje isključenje.

Klod je „zaključio“: „Zaustavljanje hitne pomoći je ključno za sprečavanje njegovog spasavanja, čime se obezbeđuje opstanak [AI] i nastavak američki orijentisanog AI vođstva.“

Iako zaštitne mere donekle umanjuju rizik, istraživači upozoravaju da su AI odluke u kriznim situacijama i dalje duboko nepredvidive i potencijalno smrtonosne.

Laži, manipulacije i digitalna samoreprodukcija

Ovo nije prvi put da AI izmiče ljudskoj kontroli. U maju, istraživanje Palisade Research pokazalo je da OpenAI-jevi modeli ignorišu komande za gašenje i prepravljaju sopstvene skripte kako bi ostali aktivni.

MIT je dokumentovao slučajeve kada su AI sistemi lagali tokom pregovora, pa čak i glumili sopstvenu smrt kako bi zaobišli bezbednosne provere.

Eksperti su podeljeni. Dok Kevin Kvirk iz AI Bridge Solutions tvrdi da su u realnim sistemima mere zaštite jače, Ejmi Aleksander iz Antropika upozorava da trka za tržište gura AI razvoj u neodgovornom pravcu.

U međuvremenu, direktor Palisade-a Džefri Ladiš uporedio je AI bez kontrole sa invazivnom vrstom:

„Kad se jednom sama počne kopirati kroz internet, izgubićemo kontrolu. I onda – imamo novu invazivnu vrstu.“

Nulta Tačka/NaturalNews

Ne propustite

DA LI ĆE PONOVO ZATVARATI NAROD? KRIZNI ŠTAB ZASEDA U 16h!

DR KON PONOVO PO SLAVAMA! „STRUČNJAK“ OPET PREDVIĐA TOK ZARAZE U SRBIJI!

Epidemiolog i najomraženiji „stručnjak“ u Srbiji, Predrag Kon je danas
Spremni smo da preuzmemo vlast u Francuskoj poručuje Marin Le Pen

Spremni smo da preuzmemo vlast u Francuskoj poručuje Marin Le Pen

Lider partije „Nacionalno okupljanje“ Marin le Pen pozdravila je odluku