AI povećava rizik od nuklearnog uništenja
OpenAI, kompanija odgovorna za ChatGPT, nedavno je najavila stvaranje novog tima sa vrlo specifičnim zadatkom: da spreči AI modele da predstavljaju „katastrofalne rizike“ za čovečanstvo.
Pripremljenost, tim prikladnog naziva, nadgledaće Aleksander Madri, stručnjak za mašinsko učenje i istraživač iz Masačusetskog instituta za tehnologiju. Gospodin Madri i njegov tim će se usredsrediti na različite pretnje, pre svega one „hemijske, biološke, radiološke i nuklearne“. Ovo bi moglo izgledati kao pretnje, ali zaista ne bi trebalo.
Kako su Ujedinjene nacije izvestile ranije ove godine, rizik da se zemlje okrenu nuklearnom oružju je na najvišoj tački od Hladnog rata. Ovaj izveštaj je objavljen pre užasnih događaja koji su se desili u Izraelu 7. oktobra. Bliski saveznik Vladimira Putina, Nikolaj Patrušev, nedavno je sugerisao da „destruktivna” politika „Sjedinjenih Država i njihovih saveznika povećava rizik od korišćenja nuklearnog, hemijskog ili biološkog oružja“, navodi Rojters.
Spojite veštačku inteligenciju sa gorenavedenim oružjem, posebno nuklearnim oružjem, upozorava Zakari Kalenborn, istraživački saradnik u Odeljenju za nekonvencionalno oružje i tehnologiju Nacionalnog konzorcijuma za proučavanje terorizma i odgovora na terorizam (START), i imate recept za nesmetanu katastrofu.
G. Kalenborn je alarmirao, više puta i bez izvinjenja, užasan savez između AI i nuklearnog oružja. Istraživač je upozorio da nije neko ko ne bi smeo reći: „Ako bi veštačka inteligencija kontrolisala nuklearno oružje, svi bismo mogli biti mrtvi“.
On ne preteruje. Pre tačno 40 godina, kako je opisao gospodin Kalenborn, saradnik za politiku na Školi za politiku i vladu Šar, Stanislav Petrov, potpukovnik sovjetskih snaga protivvazdušne odbrane, bio je zauzet praćenjem nuklearnih sistema upozorenja svoje zemlje. Odjednom, prema gospodinu Kalenbornu, „kompjuter je zaključio sa najvećim poverenjem da su Sjedinjene Države pokrenule nuklearni rat“. Gospodin Petrov je, međutim, bio skeptičan, uglavnom zato što nije verovao trenutnom sistemu detekcije. Štaviše, radarskom sistemu nedostaju potkrepljujući dokazi.
Srećom, gospodin Petrov je zaključio da je poruka lažno pozitivna i odlučio se protiv preduzimanja radnji. Spojler upozorenje: Kompjuter je davao potpuno pogrešne informacije, a Rus je bio potpuno u pravu.
„Ali“, primetio je gospodin Kalenborn, konsultant za nacionalnu bezbednost, „da je Petrov bio mašina, programirana da automatski reaguje kada je poverenje dovoljno visoko, ta greška bi započela nuklearni rat.“
Svetski ekonomski forum zahteva 3,5 biliona dolara godišnje za „dekarbonizaciju“ Zemlje https://t.co/wc6pCp62cJ
— Nulta Tačka (@NultaTackaSrb) December 15, 2023
Štaviše, sugerisao je, ne postoji apsolutno „nikakva garancija“ da određene zemlje „neće staviti veštačku inteligenciju da bude zadužena za nuklearna lansiranja“, jer međunarodno pravo „ne precizira da uvek treba da postoji „Petrov“ koji čuva dugme“.
„To je nešto što bi uskoro trebalo da se promeni“, rekao je gospodin Kalenborn.
Rekao je da AI već preoblikuje budućnost ratovanja.
Veštačka inteligencija, prema gospodinu Kalenbornu, „može pomoći vojsci da brzo i efikasnije obrađuju ogromne količine podataka generisanih na bojnom polju; učini odbrambenu industrijsku bazu efikasnijom i efikasnijom u proizvodnji oružja u velikim razmerama i možda će biti u stanju da poboljša ciljanje oružja i donošenje odluka“.
Uzmimo Kinu, verovatno najveću „pretnju“ Sjedinjenim Državama, na primer, i njene vojne aplikacije koje pokreće veštačka inteligencija. Prema izveštaju sa Univerziteta Džordžtaun, u ne tako dalekoj budućnosti, Peking bi mogao da koristi veštačku inteligenciju ne samo za pomoć tokom rata, već i za stvarno nadgledanje svih ratnih dejstava.
Ovo bi trebalo da brine sve čitaoce.
„Ako se lansiranje nuklearnog oružja delegira na autonomni sistem“, gospodin Kalenborn se plaši da bi ono „moglo biti lansirano greškom, što bi dovelo do slučajnog nuklearnog rata“.
„Dodavanje veštačke inteligencije u nuklearnu komandu i kontrolu“, rekao je, „takođe može dovesti do pogrešnih ili loših informacija.
On je u pravu. AI zavisi od podataka, a ponekad su podaci krajnje netačni.
Iako ne postoji nijedna država koja drži g. Kalenborna budnim noću, on je zabrinut zbog „mogućnosti da ruski predsednik Vladimir Putin koristi malo nuklearno oružje u sukobu u Ukrajini“. Čak i ograničena upotreba nuklearnog oružja „bila bi prilično loša na duži rok“ jer bi „nuklearni tabu“ bio uklonjen, čime bi se „ohrabrile druge države da budu agilnije u upotrebi nuklearnog oružja“.
„Nuklearno oružje“, prema gospodinu Kalenbornu, predstavlja „najveću pretnju čovečanstvu“.
„To je jedino oružje koje postoji koje može da izazove dovoljno štete da zaista izazove izumiranje ljudi“, rekao je on.
Kao što je ranije pomenuto, čini se da ubacivanje AI u nuklearnu mešavinu povećava rizik od masovnog izumiranja. Upozorenja gospodina Kalenborna, uvaženog istraživača koji je godine svog života posvetio istraživanju evolucije nuklearnog ratovanja, nose veliki kredibilitet.