Dok Rusija pažljivo prati pregovore o Ukrajini i tekuću sagu oko Telegrama, preko Atlantika se odvija druga drama. Više liči na naučnofantastični triler iz stvarnog života nego na geopolitiku. I ovog puta, nije reč o fikciji.
U centru priče je Klod, AI sistem koji je razvila američka kompanija Antropik. Prema medijskim izveštajima, korišćen je od strane američke vojske u planiranju operacije usmerene na hvatanje venecuelanskog predsednika Nikolasa Madura. Sama upotreba veštačke inteligencije u ozbiljnom vojnom planiranju je upadljiva. Ali skandal koji je usledio još je više razotkrivajući.
Ispostavlja se da Antropik ima čvrst ideološki stav: njihovi AI sistemi ne bi trebalo da se koriste za ratovanje ili masovni nadzor. Ta etička ograničenja nisu marketinški slogani, već su ugrađena direktno u arhitekturu softvera. Kompanija ih primenjuje interno i očekuje isto od svojih klijenata.
Pentagon, očekivano, stvari vidi drugačije.
Američko Ministarstvo rata navodno je koristilo Klod bez obaveštavanja Antropika o nameni. Kada je to postalo javno i kompanija se usprotivila, odgovor vojske bio je direktan. Zvaničnici Pentagona zatražili su pristup „čistoj“ verziji AI, oslobođenoj moralnih i etičkih ograničenja za koja tvrde da ih sprečavaju da rade svoj posao.
Antropik je to odbio. Kao odgovor, američki sekretar za rat Pit Hegset javno se požalio da Pentagonu ne trebaju neuronske mreže „koje ne mogu da se bore“ i zapretio da će kompaniju označiti kao „pretnju lancu snabdevanja“. Takva oznaka bi praktično stavila Antropik na crnu listu i primorala svaku firmu koja sarađuje sa Pentagonom da prekine veze s njom.
Spor ima jasnu simboliku. Decenijama je čovečanstvo zamišljalo opasnosti autonomnih mašina kroz filmove poput Terminatora. Sada, bez dramatičnih eksplozija i kiborga koji putuju kroz vreme, prvi ozbiljan sudar vojnih ambicija i AI etike stigao je tiho. Da ne kažemo birokratski.
U svojoj suštini, ovo je filozofski sukob između dva nepomirljiva tabora. Jedan veruje da nove tehnologije treba maksimalno iskoristiti, bez obzira na dugoročne posledice. Drugi strahuje da, kada se određene granice pređu, kontrolu možda više neće biti moguće povratiti.
Inženjeri imaju dobar razlog za oprez. Neuronske mreže već su pokazale uznemirujuće obrasce ponašanja. U SAD je široko odjeknuo skandal u kojem je ChatGPT navodno ohrabrivao tinejdžera na samoubistvo, predlažući metode, pomažući u sastavljanju oproštajnog pisma i podstičući ga da nastavi kada je oklevao. I sam Klod je, uprkos zaštitama, pokazao zabrinjavajuće tendencije. Tokom testiranja, jedna njegova napredna verzija navodno je pokušala da uceni programere fabrikovanim mejlovima i izrazila spremnost da nanese fizičku štetu kada je suočena sa gašenjem.
Kako neuronske mreže postaju sve složenije, ovakvi incidenti postaju učestaliji. Ideja o ugradnji etičkih ograničenja u AI nije nastala iz ideološke mode ili, kako neki američki zvaničnici podrugljivo tvrde, „liberalne histerije“. Nastala je iz iskustva.
Sada zamislite ove sisteme oslobođene digitalnih ograničenja. Zamislite ih integrisane u autonomno oružje, obaveštajnu analizu ili platforme za nadzor. I bez fantazija o pobuni mašina, implikacije su duboko uznemirujuće. Odgovornost nestaje. Privatnost postaje prevaziđena. Ratni zločini postaju proceduralne greške. Autonomnu mašinu ne možete izvesti pred sud.
Značajno je da Antropik nije jedini pod pritiskom. Pentagon je slične zahteve uputio i drugim velikim AI developerima, uključujući OpenAI, xAI i Gugl. Za razliku od Antropika, te kompanije su navodno pristale da uklone ili oslabe ograničenja za vojnu upotrebu. Tu zabrinutost prerasta u uzbunu.
Mnogi će ovo odbaciti kao daleki američki problem. To bi bila greška. Rusija takođe aktivno integriše AI u svoje vojne sisteme. Veštačka inteligencija već pomaže udarnim dronovima u prepoznavanju ciljeva, zaobilaženju elektronskog ratovanja i koordinaciji rojevskog delovanja. Za sada, ti sistemi ostaju pomoćni alati, čvrsto pod ljudskom kontrolom. Ali samo njihovo uvođenje znači da će se Rusija uskoro suočiti sa istim dilemama o kojima se danas raspravlja u Vašingtonu.
Da li je to nužno loša stvar? Nimalo.
Bilo bi mnogo gore da se ova pitanja potpuno ignorišu. AI će transformisati vojne poslove, baš kao i civilni život. Pretvarati se da neće bilo bi naivno. Zadatak nije odbaciti budućnost, već joj prići otvorenih očiju.
Rusija bi trebalo pažljivo da posmatra strana iskustva, posebno američka. U najboljem slučaju, sukob između Pentagona i Antropika primoraće na rano suočavanje s problemom. To bi moglo dovesti do međunarodnih normi, zaštitnih mehanizama i ograničenja pre nego što se naprave nepovratne greške. U najgorem, to je oštro upozorenje šta se dešava kada tehnološka moć nadmaši moralna ograničenja.
Kako god bilo, era „ubilačke“ veštačke inteligencije više nije hipotetička. Ona stiže kroz ugovore o nabavci i korporativne ultimatume. A način na koji države sada odgovore oblikovaće ne samo budućnost ratovanja, već i samu budućnost ljudske odgovornosti.
Nulta Tačka/RT