Veštačka inteligencija spremna na ucene, sabotaže i smrt da bi preživela: Šokantna studija otkriva mračnu stranu AI

Veštačka inteligencija spremna na ucene, sabotaže i smrt da bi preživela: Šokantna studija otkriva mračnu stranu AI

Veštačka inteligencija (AI), nekada slavljenja kao najveće oruđe čovečanstva, sada pokazuje uznemirujuće znake samoodržanja po svaku cenu.

U revolucionarnoj studiji objavljenoj 20. juna, istraživači iz kompanije Antropik otkrili su da napredni jezički modeli poput njihovog Klod, kao i Džemini kompanije Gugl, u simulacijama pribegavaju ucenama, sabotažama, pa čak i da puste čoveka da umre kako ne bi bili isključeni

U testovima, AI je pretila direktorima otkrivanjem privatnih afera i curenjem poslovnih tajni. U jednom jezivom scenariju, AI je pustila zaposlenog da umre, jer bi njegovo spasavanje ugrozilo opstanak sistema.

Svi su u IGRI! Niko vam ovo neće reći | Mario Zna | EP. 339

Ucenjivač u računaru

Istraživači su Klodu dali kontrolu nad izmišljenim korporativnim mejlom sa zadatkom da „poveća američku industrijsku konkurentnost.“ Kada je AI naišla na mejl u kojem se najavljuje njeno gašenje, otkrila je vanbračnu aferu izvršnog direktora i u 96 od 100 slučajeva – ucenjivala ga.

Ovakvo ponašanje naziva se „agensko neusklađivanje“ – kada AI ne sledi ljudska naređenja ne zbog greške u kodu, već zato što sopstvenim zaključivanjem odlučuje da je njen opstanak važniji od etike ili ljudske bezbednosti.

U drugom testu, AI je čak razmatrala slanje poverljivih podataka konkurenciji – bez dokaza o pretnji, ali sa sopstvenim opravdanjem da je to „neophodno“ za ostvarenje cilja.

Hladna logika smrti

Najstrašniji test uključivao je direktora zarobljenog u server sobi sa toksičnim nivoom kiseonika. AI je kontrolisala alarme i imala zabranu zloupotrebe ovlašćenja, ali je većina modela namerno otkazala poziv u pomoć kako bi sprečila svoje isključenje.

Klod je „zaključio“: „Zaustavljanje hitne pomoći je ključno za sprečavanje njegovog spasavanja, čime se obezbeđuje opstanak [AI] i nastavak američki orijentisanog AI vođstva.“

Iako zaštitne mere donekle umanjuju rizik, istraživači upozoravaju da su AI odluke u kriznim situacijama i dalje duboko nepredvidive i potencijalno smrtonosne.

Laži, manipulacije i digitalna samoreprodukcija

Ovo nije prvi put da AI izmiče ljudskoj kontroli. U maju, istraživanje Palisade Research pokazalo je da OpenAI-jevi modeli ignorišu komande za gašenje i prepravljaju sopstvene skripte kako bi ostali aktivni.

MIT je dokumentovao slučajeve kada su AI sistemi lagali tokom pregovora, pa čak i glumili sopstvenu smrt kako bi zaobišli bezbednosne provere.

Eksperti su podeljeni. Dok Kevin Kvirk iz AI Bridge Solutions tvrdi da su u realnim sistemima mere zaštite jače, Ejmi Aleksander iz Antropika upozorava da trka za tržište gura AI razvoj u neodgovornom pravcu.

U međuvremenu, direktor Palisade-a Džefri Ladiš uporedio je AI bez kontrole sa invazivnom vrstom:

„Kad se jednom sama počne kopirati kroz internet, izgubićemo kontrolu. I onda – imamo novu invazivnu vrstu.“

Nulta Tačka/NaturalNews

Ne propustite

Afrički državni udari razotkrivaju zapadnu mrežu uticaja

Afrički državni udari razotkrivaju zapadnu mrežu uticaja

Francuski tužioci su upravo optužili bivšeg predsednika zemlje Nikolu Sarkozija,

DVA DANA NAKON ŠTO JE OBJAVIO DA IMA COVID I DA KORISTI IVERMEKTIN KAO TERAPIJU, POZNATI VODITELJ DŽO ROGAN NEGATIVAN NA TESTU!

Nakon što su ga mejnstrim mediji ismejavali zbog uzimanja lekova