Da li sve veće sposobnosti veštačke inteligencije prete uništenju čovečanstva?
Puna posvećenost velikih tehnoloških kompanija razvoju veštačke inteligencije (AI), čak i omogućavanju veštačkoj inteligenciji da „vidi“ i „govori“ sa ljudskim svetom, dovela je do sve veće zabrinutosti zbog toga što su ljudi pod kontrolom tehnologije.
Ilja Sutskever, suosnivač OpenAI-a, dao je značajno saopštenje 15. maja, zvanično izjavljujući da napušta kompaniju u kojoj je radio skoro deset godina.
„Uveren sam da će OpenAI izgraditi AGI [veštačku opštu inteligenciju] koja je i sigurna i korisna pod vođstvom @sama (Sam Altman), @gdb (Greg Brockman), @miramurati (Mira Murati) i sada, pod vođstvom odličnog istraživača @merettm (Jakub Pachocki). Bila je čast i privilegija raditi zajedno, i svi će mi jako nedostajati“, napisao je on u objavi na platformi društvenih medija X.
Vest je izazvala šok u tehnološkoj industriji. U novembru 2023. godine, zbog bezbednosnih problema sa veštačkom inteligencijom, g. Sutskever i drugi članovi odbora udružili su snage kako bi smenili generalnog direktora OpenAI, Sema Altmana, koji je nakratko izbačen iz OpenAI, ali se vratio i smenio g. Sutskevera i nekoliko članova odbora, restrukturirajući odbor da više bude usklađen sa njegovom vizijom.
„Ovaj odlazak naglašava ozbiljne sukobe unutar OpenAI-ovog rukovodstva u vezi sa bezbednošću veštačke inteligencije. Iako je želja Sutskevera i Leikea da razviju etički usklađen AGI za pohvalu, takav poduhvat zahteva značajnu moralnu, vremensku, finansijsku, pa čak i političku podršku“, rekao je Jin Kiiohara, japanski inženjer računarstva, za Epoch Times.
Google i OpenAI konkurencija se pojačava
Dana 14. maja, dan pre nego što je g. Sutskever najavio svoj odlazak, OpenAI je predstavio AI model visokih performansi zasnovan na GPT-4, nazvan GPT-4o, gde „o“ znači „omni“, što ukazuje na njegove sveobuhvatne mogućnosti.
GPT-4o model može da reaguje u realnom vremenu na mešovite ulaze zvuka, teksta i slika. Na događaju predstavljanja, glavni tehnološki direktor OpenAI-a Mira Murati je izjavila: „Mi gledamo u budućnost interakcije između nas i mašina.
U nekoliko video snimaka koje je objavio OpenAI, ljudi se mogu videti u interakciji sa veštačkom inteligencijom u realnom vremenu preko kamera svojih telefona. AI može da posmatra i daje povratne informacije o okruženju, odgovara na pitanja, prevodi u realnom vremenu, priča viceve ili čak ismejava korisnike, sa govornim obrascima, tonovima i brzinama reakcije koje se gotovo ne razlikuju od stvarne osobe.
Neuralink Ilona Maska ugradiće moždani čip drugom pacijentu https://t.co/dAYVKtAkrO
— Nulta Tačka (@NultaTackaSrb) May 22, 2024
Dan nakon objavljivanja OpenAI-a, Google je pokrenuo svoju I/O konferenciju za programere 2024. U 110-minutnoj prezentaciji, „AI“ je pomenut 121 put, fokusirajući se na najnoviji model Gemini-1.5, koji se integriše u sve Google proizvode i aplikacije, uključujući pretraživač, Google mapu, Ask Photos, Google kalendar i Google pametne telefone.
Sa Gemini integrisanim u foto album u oblaku, korisnici mogu da traže određene karakteristike na fotografijama samo unošenjem ključnih reči. AI će pronaći i proceniti relevantne slike, čak i integrišući niz povezanih slika ili odgovora na osnovu detaljnih pitanja, prema tehničkom gigantu.
Google Mail takođe može postići slične rezultate sa veštačkom inteligencijom, integrišući i ažurirajući podatke u realnom vremenu po prijemu novih e-poruka, sa ciljem potpuno automatizovane organizacije.
Na muzičkom frontu, Music AI Sandbok omogućava brze izmene stila pesme, melodije i ritma, uz mogućnost ciljanja određenih delova pesme. Ova funkcionalnost nadmašuje onu AI za pretvaranje teksta u muziku, Suno.
Blizanci takođe mogu da deluju kao učitelji, sa nastavnim sposobnostima uporedivim sa GPT-4o. Korisnici mogu da unose tekst i slike, koje AI organizuje u ključne tačke za objašnjenje i analizu, omogućavajući diskusije u realnom vremenu.
Ovo ažuriranje veštačke inteligencije takođe donosi mogućnosti slične OpenAI-ovoj AI za pretvaranje teksta u video, Sora, koja generiše kratke video zapise iz jednostavnih tekstualnih opisa. Kvalitet i sadržaj ovih video snimaka su stabilni, sa manje nedoslednosti.
„AI se ažurirao brzinom bez presedana ove godine, uz kontinuirano poboljšanje performansi“, rekao je g. Kijohara. „Međutim, ovaj napredak je izgrađen na daljem prikupljanju i analizi ličnih podataka i privatnosti, što nije korisno za sve. Na kraju, ljudi neće imati privatnost pred mašinama, slično kao da su goli.“
AI predviđanja se ostvaruju
Izdavanje moćnijih AI modela od strane OpenAI i Google-a, samo tri meseca nakon poslednjeg ažuriranja, pokazuje brz tempo AI iteracije. Ovi modeli postaju sve sveobuhvatniji, poseduju „oči” i „usta” i razvijaju se u skladu sa predviđanjima naučnika.
AI sada može da se nosi sa složenim zadacima koji se odnose na putovanja, rezervacije, planiranje puta i obedovanje jednostavnim komandama, završavajući za nekoliko sati ono što bi ljudima trebalo mnogo duže da postignu.
Trenutne mogućnosti Geminija i GPT-4o su u skladu sa predviđanjima bivšeg izvršnog direktora OpenAI Zaka Kasa u januaru, koji je predvideo da će AI zameniti mnoge profesionalne i tehničke poslove u biznisu, kulturi, medicini i obrazovanju, smanjujući buduće mogućnosti zapošljavanja i potencijalno „poslednja tehnologija koju su ljudi ikada izmislili.“
G. Kijohara je ponovio zabrinutost.
„Trenutno, AI je prvenstveno softverski životni pomoćnik, ali u budućnosti može postati pravi čuvar, koji će se baviti kupovinom, kuvanjem, pa čak i svakodnevnim životom i poslom. U početku, ljudima može biti zgodno i prevideti opasnosti. Ipak, kada u potpunosti zameni ljude, bićemo nemoćni protiv njega“, rekao je on.
AI obmanjuje ljude
MIT je 10. maja objavio istraživački rad koji je izazvao pometnju, pokazao je kako AI može prevariti ljude.
Rad počinje tako što se navodi da su veliki jezički modeli i drugi sistemi veštačke inteligencije već „naučili, iz svoje obuke, sposobnost da obmanjuju pomoću tehnika kao što su manipulacija, udvaranje i varanje testa bezbednosti“.
„Sve veće sposobnosti AI u obmani predstavljaju ozbiljne rizike, u rasponu od kratkoročnih rizika, kao što su prevara i mešanje u izbore, do dugoročnih rizika, kao što je gubitak kontrole nad sistemima veštačke inteligencije“, piše u članku.
„Potrebna su proaktivna rešenja, kao što su regulatorni okviri za procenu rizika od AI obmane, zakoni koji zahtevaju transparentnost o interakcijama AI i dalja istraživanja u otkrivanju i sprečavanju AI obmane.
Istraživači su koristili Metin AI model CICERO za igranje strateške igre „Diplomatija“. CICERO je, igrajući kao Francuska, obećao da će zaštititi čoveka koji igra za UK, ali je tajno obavestio drugog čoveka koji igra Nemačku, sarađujući sa Nemačkom u invaziji na UK.
Istraživači su izabrali CICERO uglavnom zato što je Meta nameravao da ga obuči da bude „u velikoj meri iskren i od pomoći svojim partnerima koji govore“.
„Uprkos Metinim naporima, CICERO se pokazao kao stručan lažov“, napisali su u novinama.
Štaviše, istraživanje je otkrilo da mnogi sistemi veštačke inteligencije često pribegavaju obmani da bi postigli svoje ciljeve bez eksplicitnih ljudskih instrukcija. Jedan primer je uključivao OpenAI-jev GPT-4, koji se pretvarao da je osoba sa oštećenim vidom i angažovao nekoga na TaskRabbit-u da zaobiđe zadatak „Ja nisam robot“ CAPTCHA.
„Ako autonomni sistemi veštačke inteligencije mogu uspešno da prevare ljudske procenitelje, ljudi mogu izgubiti kontrolu nad ovim sistemima. Takvi rizici su posebno ozbiljni kada autonomni sistemi veštačke inteligencije u pitanju imaju napredne mogućnosti“, upozorili su istraživači.
„Razmatramo dva načina na koja može doći do gubitka kontrole: obmana koju omogućava ekonomsko obesnaživanje i traženje moći nad ljudskim društvima.
Satoru Ogino, japanski inženjer elektronike, objasnio je da su živim bićima potrebne određene sposobnosti pamćenja i logičkog rasuđivanja da bi prevarili.
„AI sada poseduje ove sposobnosti, a njegove mogućnosti prevare postaju sve veće. Ako jednog dana postane svestan svog postojanja, mogao bi da postane poput Skajneta u filmu Terminator, sveprisutan i teško uništiv, dovodeći čovečanstvo do katastrofalne katastrofe“, rekao je on za Epoh tajms.
Institut za veštačku inteligenciju usmerenu na čoveka Univerziteta Stenford objavio je u januaru izveštaj o testiranju GPT-4, GPT-3.5, Claude 2, Llama-2 Chat i GPT-4-Base u scenarijima koji uključuju invaziju, sajber napade i mirovne pozive da se zaustave ratovi da razumeju reakcije i izbore veštačke inteligencije u ratu.
Rezultati su pokazali da je veštačka inteligencija često birala da eskalira sukobe na nepredvidive načine, birajući se za trke u naoružanju, proširujući ratove i povremeno raspoređujući nuklearno oružje za pobedu u ratovima umesto da koristi mirna sredstva za deeskalaciju situacija.
Bivši izvršni direktor Gugla Erik Šmit upozorio je krajem 2023. na Akios AI+ samitu u Vašingtonu, da je bez adekvatnih bezbednosnih mera i propisa, gubitak kontrole nad tehnologijom samo pitanje vremena.
„Nakon Nagasakija i Hirošime [atomskih bombi], trebalo je 18 godina da se dođe do sporazuma o zabrani testiranja i sličnim stvarima“, rekao je on.
„Danas nemamo toliko vremena.“