Može li Veštačka inteligencija započeti nuklearni rat? Gde se nalazimo u odnosu na propast?!
Pokrivali smo širok spektar potencijalnih kriza tokom ovih nekoliko godina.
To uključuje prirodne katastrofe, pandemije, socijalne nemire i finansijski kolaps. Zastrašujuća lista.
Jednu stvar koju nismo uradili je da pokrijemo najveću potencijalnu katastrofu od svih — nuklearni rat. Iz razloga objašnjenih u nastavku.
Nuklearni ratovi su ponovo tema. Ovoj temi se danas pridaje više pažnje nego bilo kada od kubanske raketne krize 1962. godine i njenih posledica. Za to postoje tri razloga.
Prvi su američke optužbe da će Rusija eskalirati sukob do korišćenja nuklearnog oružja. Ove optužbe su uvek bile lažne i smešne su sada kada Rusija očigledno pobeđuje u ratu konvencionalnim oružjem.
Ipak, pretnje i kontrapretnje su bile dovoljne da se tema stavi u igru.
Drugi razlog je rat između Izraela i Hamasa. Opet, zabrinutost je eskalacija. Jedan ne neverovatan scenario je da Hezbolah u južnom Libanu otvara drugi front na severnoj granici Izraela uz intenzivno raketno bombardovanje.
Napadu bi se pridružili Huti pobunjenici u Jemenu. Pošto su Hezbolah i Huti i muslimani šiiti i iranski zastupnici, Izrael bi mogao da napadne Iran kao izvor eskalacije.
Izrael je nuklearna sila. Sa borbenom grupom američkog nosača aviona i podmornicom za nuklearne napade u regionu, kao i sa nuklearnim silama Rusije i Pakistana koji stoje u pomoći Iranu, izgledi za eskalaciju do nuklearne razmene su realni.
Eskalacija tenzija između Irana i Pakistana samo ove nedelje dolila je još više ulja na vatru.
Treći razlog je veštačka inteligencija i GPT izlaz. Iako veštačka inteligencija može da pruži profitabilne prilike za investitore u mnogim sektorima tržišta, AI/GPT takođe može biti najveća pretnja nuklearnoj eskalaciji jer ima unutrašnju logiku koja nije u skladu sa ljudskom logikom koja je održavala nuklearni mir u poslednjih 80 godina .
Obimno smo pokrivali Ukrajinu i Izrael, i oni su naširoko pokriveni u vestima. Ali danas se bavimo rizicima nuklearnog rata pokrenutog od strane Veštačke inteligencije. To je pretnja o kojoj ne čujete ništa, ali je realna.
Počnimo sa izmišljenim filmom. Paradigmatičan prikaz slučajnog nuklearnog rata je film Fail Safe iz 1964. godine . U filmu, američki radar otkriva upad u američki vazdušni prostor od strane neidentifikovane, ali potencijalno neprijateljske letelice.
Američko vazduhoplovstvo ubrzo utvrđuje da je letelica civilni avion van kursa. U međuvremenu, kompjuter koji reaguje na upad greškom naređuje američkoj grupi strateških bombardera na čelu sa pukovnikom Džekom Grejdijem da započne nuklearni napad na Moskvu.
Napori SAD da povuku naredbu i opozovu bombardere propadaju zbog sovjetskog ometanja radio kanala. Predsednik naređuje vojsci da obore bombardere i u tu svrhu se koriste borbeni avioni.
Lovci koriste naknadno sagorevanje da uhvate bombardere, ali oni ne uspevaju, a povećana potrošnja goriva dovodi do njihovog poniranja u Arktičko more.
Predsednik zatim komunicira sa sovjetskim premijerom koji pristaje da zaustavi ometanje. Predsednik razgovara sa vođom grupe bombardera da odustane od napada, ali je posada obučena da zanemari takve molbe.
SAD tada nude tehničku pomoć Sovjetima u pomaganju u obaranju bombardera. Avioni su skoro svi oboreni, ali jedan je uspeo da prođe. Predsednik pusti ženu pukovnika Grejdija na radio; okleva, ali je ubrzo zaokupljen izbegavanjem sovjetskih projektila. Zatim odlučuje da je glas njegove žene još jedna obmana.
Predviđajući najgore i pokušavajući da izbegne nuklearni rat punog razmera, predsednik naređuje američkom nuklearnom bombarderu da preleti Njujork znajući da je prva dama u Njujorku.
Na kraju, Moskva je uništena američkim nuklearnim oružjem i predsednik naređuje da se nuklearna bomba baci na Njujork koristeći Empajer stejt bilding kao nultu tačku. Očekuje se da će žrtvovanje Njujorka u zamenu za Moskvu okončati eskalaciju, ali to u filmu nije prikazano.
Sledeći korak ostaje pod sumnjom.
Iako Fail Safe ima 60 godina, pitanja koja pokreće i neki od obrta zapleta su upadljivo savremeni. Kompjuterska greška koja je izazvala napad u filmu nikada nije tehnički objašnjena, ali to nije veoma relevantno.
Računarske greške se stalno dešavaju u kritičnoj infrastrukturi i mogu prouzrokovati stvarnu štetu, uključujući nestanke struje i olupine vozova. Takve kompjuterske greške su suština današnje debate o veštačkoj inteligenciji u strateškim sistemima.
Čitajte dalje da vidite zašto…
Da li bi veštačka inteligencija mogla da pokrene nuklearni rat?
AI u kontekstu komandovanja i kontrole može ili da kvari i izdaje pogrešna naređenja kao u Fail Safe-u ili, što je verovatnije, da funkcioniše kao što je dizajnirano, ali da izdaje smrtonosne recepte zasnovane na inženjerskim greškama, iskrivljenim setovima obuke ili čudnim nastalim svojstvima iz korelacija koje ljudi jedva mogu Perceive.
Možda su najpoznatiji savremenoj publici neuspeli pokušaji predsednika i supruge pukovnika Grejdija da ubede komandanta bombardera da obustavi napad. Grejdi je bio obučen da očekuje takve napore i da ih tretira kao prevaru.
Danas bi se takve obmane izvodile dubokim lažnim video i audio prenosima. Pretpostavlja se da bi obuka komandanta i odbacivanje molbi bili isti uprkos sofisticiranijoj tehnologiji iza njih. Tehnologija napreduje, a aspekti ljudskog ponašanja su nepromenjeni.
Još jedan nesporazum, ovaj pravi, a ne izmišljen, koji je bio blizu izazivanja nuklearnog rata bio je incident iz 1983. pod kodnim imenom Able Archer.
Koreni Able Archera sežu do maja 1981. kada su tadašnji generalni sekretar Komunističke partije Sovjetskog Saveza Leonid Brežnjev i šef KGB-a Jurij Andropov (kasnije generalni sekretar) otkrili višim sovjetskim liderima svoje mišljenje da se SAD tajno pripremaju za pokretanje nuklearnog udara na Sovjetski Savez.
Andropov je tada najavio velike napore prikupljanja obaveštajnih podataka kako bi se pratili ljudi koji bi bili odgovorni za pokretanje i sprovođenje takvog napada zajedno sa njihovim objektima i kanalima komunikacije.
Istovremeno, Reganova administracija je započela seriju tajnih vojnih operacija koje su agresivno ispitivale sovjetske vode pomorskim sredstvima i letele direktno ka sovjetskom vazdušnom prostoru sa strateškim bombarderima koji su se povukli tek u poslednjem trenutku.
Ovo napredovanje je navodno trebalo da testira sovjetsku odbranu, ali je uticalo na igru sa sovjetskim percepcijama da SAD planiraju nuklearni napad.
Analitičari se slažu da najveći rizik od eskalacije i stvarnog nuklearnog rata nastaje kada se percepcije dve strane razlikuju na način da onemogućavaju racionalnu procenu dinamike eskalacije. Dve strane su na različitim putevima i prave različite proračune.
Tenzije su dodatno porasle 1983. kada je američka mornarica letela borbenim avionima F-14 Tomcat iznad sovjetske vojne baze na Kurilskim ostrvima, a Sovjeti su odgovorili letenjem iznad Aleutskih ostrva Aljaske. 1. septembra 1983. sovjetski borbeni avioni oborili su let 007 kompanije Korean Air Lines iznad Japanskog mora. Na brodu je bio američki kongresmen.
4. novembra 1983. saveznici SAD i NATO-a započeli su opsežnu ratnu igru pod kodnim imenom Able Archer. Ovo je trebalo da simulira nuklearni napad na Sovjetski Savez nakon niza eskalacija.
Problem je bio u tome što su eskalacije bile zapisane u knjigama o ratnim igrama, ali nisu zapravo simulirane . Simuliran je prelazak sa konvencionalnog ratovanja na nuklearnu ratnu igru .
To je došlo u vreme kada su Sovjeti i KGB aktivno tražili znake nuklearnog napada. Simulacije koje su uključivale NATO komandne, kontrolne i komunikacione protokole bile su veoma realistične, uključujući učešće nemačkog kancelara Helmuta Kola i britanske premijerke Margaret Tačer. Sovjeti su verovatno verovali da je ratna igra zapravo pokriće za pravi napad.
U uverenju da SAD planiraju nuklearni prvi udar, Sovjeti su utvrdili da je njihov jedini način da prežive bio da pokrenu sopstveni preventivni prvi udar. Naredili su da se nuklearne bojeve glave postave na strateške bombardere Sovjetske Vazdušne armije i dovedu u stanje visoke pripravnosti nuklearne jurišne avione u Poljskoj i Istočnoj Nemačkoj.
Ovaj stvarni život blizu nuklearnog rata imao je pozadinu koja je još jezivija. Sovjeti su ranije izgradili radarski sistem ranog upozorenja sa kompjuterskim vezama koristeći primitivnu vrstu AI kodnog imena Oko.
26. septembra 1983. godine, samo dva meseca pre Able Archera, sistem je pokvario funkcionisanje i prijavio je pet ICBM-ova koji dolaze iz Sjedinjenih Država. Oko alarmi su se oglasili i na ekranu računara je zasvetlelo „LAUNCH“. Prema protokolima, displej LAUNCH nije bio upozorenje, već kompjuterski generisano naređenje da se uzvrati.
Potpukovnik Stanislov Petrov iz sovjetskih snaga protivvazdušne odbrane uvideo je kompjutersko naređenje i morao je odmah da bira između toga da naređenje tretira kao kvar kompjutera ili da upozori svoje stare oficire koji će verovatno započeti nuklearni protivnapad.
Petrov je bio koprogramer Oko i znao je da sistem pravi greške. On je takođe procenio da bi, da je napad bio stvaran, SAD upotrebile mnogo više od pet projektila. Petrov je bio u pravu. Kompjuter je pogrešno pročitao odraz sunca sa nekih oblaka kao nadolazeće projektile.
S obzirom na tenzije tog dana i uverenje KGB-a da nuklearni napad može doći u bilo kom trenutku, Petrov je rizikovao budućnost Sovjetskog Saveza da bi nadjačao sistem Oko. Oslonio se na kombinaciju zaključivanja, iskustva i instinkta da bi onemogućio lanac ubijanja.
Incident je ostao tajna sve do dosta nakon završetka Hladnog rata. S vremenom je Petrov hvaljen kao „Čovek koji je spasao svet“.
Pretnja nuklearnog rata zbog veštačke inteligencije dolazi ne samo od nuklearnih sila, već i od trećih strana i nedržavnih aktera koji koriste veštačku inteligenciju za stvaranje onoga što se naziva katalitičkim nuklearnim katastrofama. Termin katalitički se odnosi na hemijske agense koji izazivaju isparljive reakcije među drugim jedinjenjima, a da sami nisu deo reakcije.
Kako se primenjuje u međunarodnim odnosima, odnosi se na agente koji bi mogli da izazovu nuklearni rat među velikim silama, a da sami nisu umešani u rat. To bi slabog agenta moglo ostaviti u relativno jakoj poziciji kada se velike sile unište.
AI/GPT sistemi su već našli svoj put u procesu nuklearne borbe. Na ljudima će biti da zadrže svoju ulogu marginalnom i orijentisanu na podatke, a ne na odluke. S obzirom na istoriju tehnologije u ratovanju, od bronzanih kopalja do hipersoničnih projektila, teško je zaključiti da će AI/GPT biti tako ograničen. Ako ne, svi ćemo platiti cenu.
Ukrajina, Gaza i veštačka inteligencija značajno povećavaju izglede za nuklearni rat. Finansijske implikacije ovoga za investitore su jednostavne. U slučaju nuklearnog rata, akcije, obveznice, gotovina i druga finansijska imovina biće bezvredni. Berze i banke će biti zatvorene. Jedina vredna imovina biće zemlja, zlato i srebro.