Bivši izvršni direktor Gugla: Veštačka Inteligencija je moćna kao NUKLEARNA BOMBA
Bivši izvršni direktor Gugla Erik Šmit uporedio je veštačku inteligenciju sa nuklearnim oružjem i pozvao na režim odvraćanja sličan obostrano garantovanom uništenju koje sprečava da najmoćnije zemlje sveta unište jedna drugu.
Šmit je govorio o opasnostima veštačke inteligencije na Aspenskom bezbednosnom forumu na panelu o nacionalnoj bezbednosti i veštačkoj inteligenciji 22. jula. Dok je postavljao pitanje o vrednosti morala u tehnologiji, Šmit je objasnio da je i sam bio naivan u pogledu moći informacija u ranim danima Gugla. Zatim je pozvao da tehnologija bude bolja u skladu sa etikom i moralom ljudi kojima služi i napravio bizarno poređenje između veštačke inteligencije i nuklearnog oružja.
Šmit je zamišljao blisku budućnost u kojoj Kina i SAD treba da zacementiraju sporazum oko veštačke inteligencije. „U 50-im i 60-im godinama, na kraju smo razvili svet u kome je postojalo pravilo ’bez iznenađenja‘ o nuklearnim testovima i na kraju su oni zabranjeni“, rekao je Šmit. „To je primer ravnoteže poverenja, ili nedostatka poverenja, to je pravilo „bez iznenađenja“. Veoma sam zabrinut da će američki pogled na Kinu kao korumpiranu ili komunističku ili bilo šta drugo, i kineski pogled na Ameriku kao neuspešnu… dozvoliti ljudima da kažu ‘O moj Bože, oni nešto spremaju’, a zatim počnu neku vrstu akcije. Započinjete neku stvar gde, pošto se naoružavate ili spremate, onda aktivirate drugu stranu. Nemamo nikoga da radi na tome, a ipak je veštačka inteligencija toliko moćna”.
"We are not ready for the negotiations that we need." – @ericschmidt #AspenSecurity pic.twitter.com/As749t6ZyU
— Aspen Security Forum (@AspenSecurity) July 22, 2022
AI i mašinsko učenje su impresivna i često pogrešno shvaćena tehnologija. To, uglavnom, nije tako pametno kao što ljudi misle da jeste. Može da pravi umetnička dela na nivou remek dela, da pobedi ljude u Starcraft II i da upućuje rudimentarne telefonske pozive korisnicima. Međutim, pokušaji da je naterate da radi komplikovanije zadatke, poput vožnje automobilom kroz veliki grad, nisu prošli tako dobro.
Šmit je zamišljao blisku budućnost u kojoj će i Kina i SAD imati bezbednosne brige koje nameću neku vrstu sporazuma o odvraćanju između njih oko veštačke inteligencije. On govori o 1950-im i 60-im kada je diplomatija napravila niz kontrola oko najsmrtonosnijeg oružja na planeti. Ali da bi svet došao do mesta gde je uspostavio Ugovor o zabrani nuklearnih proba, SALT II i druge značajne zakone, bile su potrebne decenije nuklearnih eksplozija i, što je ključno, uništenje Hirošime i Nagasakija.
Dva japanska grada koja je Amerika uništila na kraju Drugog svetskog rata ubila su desetine hiljada ljudi i dokazala svetu večni užas nuklearnog oružja. Vlade Rusije i Kine tada su požurile da nabave oružje. Način na koji živimo sa mogućnošću da se ovo oružje koristi je kroz nešto što se zove uzajamno osigurano uništenje (MAD), to je teorija odvraćanja koja osigurava da ako jedna zemlja lansira nuklearnu bombu, moguće je da će i svaka druga zemlja uzvratiti. Ne koristimo najrazornije oružje na planeti zbog mogućnosti da će to uništiti, u najmanju ruku, civilizaciju širom sveta.
Uprkos Šmitovim komentarima, ne želimo niti treba da imamo MAD za AI. Kao prvo, veštačka inteligencija se nije pokazala ni približno tako destruktivnom kao nuklearno oružje. Ali ljudi na pozicijama moći plaše se ove nove tehnologije i, obično, iz sasvim pogrešnih razloga. Ljudi su čak predlagali da se kontrola nad nuklearnim oružjem prepusti veštačkoj inteligenciji, teoretišući da bi oni bili bolji arbitri o njihovoj upotrebi od ljudi.
Problem sa veštačkom inteligencijom nije u tome što ona ima potencijalnu snagu nuklearnog oružja koja uništava svet. Radi se o tome da je veštačka inteligencija dobra onoliko koliko su dobri ljudi koji su je dizajnirali i da odražava vrednosti svojih kreatora. AI pati od klasičnog problema „smeće unutra, smeće napolje“: rasistički algoritmi prave rasističke robote, sva AI nosi predrasude svojih kreatora, a čet-bot obučen na 4chan postaje zloban.
OVO SE NE PROPUŠTA! NOVA EPIZODA PODKASTA MARIO ZNA
To je nešto što Demis Hassabis – izvršni direktor DeepMind-a, koji je obučavao veštačku inteligenciju koja pobeđuje igrače Starcraft II – izgleda da razume bolje od Šmita. U julskom intervjuu na podkastu Leks Fridman, Fridman je pitao Hasabisa kako se moćna tehnologija poput veštačke inteligencije može kontrolisati i kako bi sam Hasabis mogao da izbegne da bude korumpiran od strane moćnika.