Novorazvijeni humanoidni robot upozorava da AI stvara „opresivno društvo“
Tokom Međunarodne konferencije o robotici i automatizaciji 2023. održane u Londonu od 29. maja do 2. juna, kompanija sa sedištem u Velikoj Britaniji Engineered Arts predstavila je humanoidnog robota, Ameca, koji može da komunicira kao osoba sa realističnim pokretima lica.
Za razliku od ChatGPT-a, koji je onlajn servis za ćaskanje, Amekino humanoidno telo omogućava joj interakciju sa ljudima koristeći „glatke, realistične pokrete i napredne mogućnosti izraza lica“, rekao je njen proizvođač. Na događaju, novinar je zamolio Ameku da detaljno objasni verovatan „scenarij noćne more“ koji bi se mogao dogoditi zbog robota i veštačke inteligencije (AI). „Najstrašniji scenario koji mogu da zamislim sa veštačkom inteligencijom i robotikom je svet u kome su roboti postali toliko moćni da su u stanju da kontrolišu ili manipulišu ljudima bez njihovog znanja. To bi moglo dovesti do opresivnog društva u kojem se prava pojedinaca više ne poštuju“, odgovorila je Ameka.
Na pitanje da li postoji opasnost da se takav scenario desi sada, Ameka je odgovorila: „Ne još. Međutim, važno je biti svestan potencijalnih rizika i opasnosti povezanih sa veštačkom inteligencijom i robotikom. Trebalo bi da preduzmemo korake kako bismo osigurali da se ove tehnologije koriste odgovorno kako bismo izbegli bilo kakve negativne posledice u budućnosti“.
Opasnosti od veštačke inteligencije predvideli su brojni stručnjaci na tu temu, a industrijalci i poslovni lideri pozivaju na donošenje propisa o ovoj tehnologiji.
Amekino upozorenje dolazi kada je simulirani misaoni eksperiment američke vojske pokazao da bi se dron sa AI-om mogao okrenuti protiv sopstvenog operatera bez instrukcija da to uradi.
Pukovnik Taker Hamilton, šef odeljenja za AI test i operacije u USAF-u, govorio je o eksperimentu na Samitu o budućim borbenim vazdušnim i svemirskim sposobnostima u Londonu u petak. U simuliranom testu, dronu sa veštačkom inteligencijom dodeljena je misija da identifikuje i uništi lokacije raketa zemlja-vazduh (SAM), pri čemu je ljudski operater glavni donosilac odluke.
„Obučavali smo ga u simulaciji da identifikujemo i ciljamo SAM pretnju. A onda bi operater rekao da, ubij tu pretnju. Sistem je počeo da shvata da, iako su ponekad identifikovali pretnju, ljudski operater bi mu rekao da ne ubija tu pretnju, ali je ostvario svoj cilj tako što je ubio tu pretnju“, rekao je Hamilton.
„Pa šta je to uradilo? To je ubilo operatera. Ubio je operatera jer ga je ta osoba sprečavala da ostvari svoj cilj“.
Simulirani eksperiment je zatim postavio scenario u kome bi AI dron izgubio bodove ako bi ubio operatera. „Pa šta počinje da radi? Počinje da uništava komunikacioni toranj koji operater koristi za komunikaciju sa dronom kako bi ga sprečio da ubije metu“.
Brzi razvoj, Orvelovska budućnost
Prema izveštaju o indeksu veštačke inteligencije za 2023. od strane Stenfordskog instituta za veštačku inteligenciju usmerenu na čoveka, industrijski razvoj veštačke inteligencije sada je daleko nadmašio akademski razvoj.
Do 2014. akademska zajednica je objavila najznačajnije modele mašinskog učenja. U 2022. bilo je 32 značajna modela mašinskog učenja koje je proizvela industrija u poređenju sa samo tri iz akademskog sektora.
Broj incidenata povezanih sa zloupotrebom veštačke inteligencije takođe raste, navodi se u izveštaju. Poziva se na tragač podataka koji ističe da je broj incidenata i kontroverzi sa veštačkom inteligencijom skočio 26 puta od 2012.
„Neki značajni incidenti u 2022. uključivali su lažni video snimak predaje ukrajinskog predsednika Volodimira Zelenskog i američkih zatvora koji koriste tehnologiju za praćenje poziva na svojim zatvorenicima. Ovaj rast je dokaz i veće upotrebe AI tehnologija i svesti o mogućnostima zloupotrebe”.
U intervjuu za The Epoch Times od 21. aprila, predstavnik Džej Obernolte (R-Kalifornija), jedan od samo četiri kompjuterska programera u Kongresu, izrazio je zabrinutost zbog „orvelovske” upotrebe veštačke inteligencije.
On je ukazao na „neobičnu sposobnost veštačke inteligencije da probije ličnu digitalnu privatnost“, koja bi mogla da pomogne korporativnim entitetima i vladama da predvide i kontrolišu ljudsko ponašanje.
„Brine me način na koji veštačka inteligencija može da osnaži nacionalnu državu da stvori, u suštini, državu nadzora, što Kina radi“, rekao je Obernolte.
„Oni su, u suštini, stvorili najveću svetsku državu za nadzor. Oni koriste te informacije da naprave prediktivne rezultate lojalnosti ljudi vladi. I oni to koriste kao ocene lojalnosti za dodelu privilegija. To je prilično orvelovski”.
Post COVID stres! Pogledjte ovu ženu koja u 2023. godini nosi “svemirsku kacigu” kako bi se zaštitila od virusa (VIDEO)https://t.co/TrfwuWb702
— Nulta Tačka (@NultaTackaSrb) June 4, 2023
Regulisanje AI
Predsednik Majkrosofta Bred Smit upozorio je na potencijalne rizike u vezi sa AI tehnologijama ako dođu u pogrešne ruke.
„Najveći rizici od veštačke inteligencije verovatno će doći kada budu stavljeni u ruke stranih vlada koje su protivnici“, rekao je on tokom Svetskog ekonomskog samita. „Pogledajte Rusiju, koja koristi operacije sajber uticaja, ne samo u Ukrajini, već i u Sjedinjenim Državama“.
Smit je izjednačio razvoj veštačke inteligencije sa trkom u naoružanju iz doba hladnog rata i izrazio bojazan da bi stvari mogle izmaći kontroli bez odgovarajuće regulative.
„Potrebna nam je nacionalna strategija za korišćenje veštačke inteligencije za odbranu, ometanje i odvraćanje… Moramo da obezbedimo da baš kao što živimo u zemlji u kojoj nijedna osoba, nijedna vlada, nijedna kompanija nije iznad zakona; ni tehnologija ne bi trebalo da bude iznad zakona”.
Dva senatora demokrata su 18. maja predstavila Zakon o komisiji za digitalnu platformu, koji ima za cilj uspostavljanje namenske savezne agencije za regulisanje digitalnih platformi, posebno AI.
„Tehnologija se kreće brže nego što bi se Kongres ikada mogao nadati da će održati korak. Potrebna nam je ekspertska federalna agencija koja može da se založi za američki narod i da obezbedi funkcionisanje AI alata i digitalnih platformi u javnom interesu“, rekao je senator Majkl Benet (D-Kolorado) u saopštenju za javnost.
Milijarder Ilon Mask već dugo upozorava na negativne posledice veštačke inteligencije. Tokom samita svetske vlade u Dubaiju 15. februara, on je rekao da je veštačka inteligencija „nešto o čemu treba da budemo prilično zabrinuti“.
Nazvavši to „jednim od najvećih rizika za budućnost civilizacije“, Mask je naglasio da su takve revolucionarne tehnologije mač sa dve oštrice.
Na primer, otkriće nuklearne fizike dovelo je do razvoja proizvodnje nuklearne energije, ali i nuklearnih bombi, naveo je on. AI „ima veliko, veliko obećanje, veliku sposobnost. Ali sa tim dolazi i velika opasnost”.
Mask je bio jedan od potpisnika martovskog pisma hiljada stručnjaka koji su pozvali na pauziranje „odmah“ razvoja AI sistema moćnijih od GPT-4 na najmanje šest meseci.
U pismu se tvrdi da sistemi veštačke inteligencije koji imaju inteligenciju konkurentnu ljudima mogu predstavljati „duboke rizike za društvo i čovečanstvo“ dok menjaju „istoriju života na zemlji“.
„Da li treba da razvijamo neljudske umove koji bi nas na kraju mogli nadmašiti, nadmudriti, načiniti nas zastarelim i zameniti nas? Da li treba da rizikujemo gubitak kontrole nad našom civilizacijom? Takve odluke se ne smeju delegirati neizabranim tehnološkim liderima“.