Prošle nedelje desilo se nešto što je većina ljudi jedva primetila. Dva Amazon data centra u Ujedinjenim Arapskim Emiratima pogođena su tokom iranske odmazde na američke vojne akcije. Još jedan objekat u Bahreinu oštećen je kada je dron pao u blizini. Raniji napadi, koji su pokrenuli odmazdu, navodno su koristili sisteme za ciljanje uz pomoć veštačke inteligencije.
Ovo je bio trenutak u vestima koji je brzo potisnut sledećom političkom pričom, ali implikacije su ogromne i ne mogu se ignorisati. Veštačka inteligencija sada je ušla u aktivni geopolitički konflikt.
Infrastruktura koja pokreće digitalni svet – sistemi koji čuvaju porodične fotografije, vode poslove i odgovaraju na pitanja na našim telefonima – postala je strateška infrastruktura za ratne operacije. Algoritmi utkani u civilnu tehnologiju sada pomažu da se odluči gde oružje pogađa.
Čovečanstvo je prešlo granicu, a većina nas to nije primetila.
Istorija nam pokazuje da velike tehnološke promene retko dolaze s dramatičnim trenutkom. One prvo izlaze kao signali u malim vestima, raspravama o politikama ili neočekivanim odlascima ključnih ljudi iz industrije.
Još jedan signal pojavljuje se gotovo u isto vreme.
Američka vlada je nedavno uklonila AI sisteme razvijene od strane kompanije Anthropic sa svojih mreža. Nedugo zatim, OpenAI je potpisao sopstveni sporazum o odbrani. Javnost ne zna celu priču o promenama. Ne znamo koji su zahtevi postavljeni iza zatvorenih vrata, koje etičke granice su osporavane i zašto je jedna od vodećih AI kompanija iznenada izbačena iz federalnih sistema.
Još jedan signal dolazi iz same AI industrije: odlazak istraživača bezbednosti.
U poslednjih nekoliko godina brojni istaknuti istraživači zaduženi za proučavanje rizika i bezbednosti naprednih AI sistema napustili su vodeće kompanije i laboratorije, često bez ikakvog objašnjenja. Odlaze jer su videli napetosti koje javnost još nije imala priliku da vidi.
Istorija ima slične primere. Početkom 1940-ih naučnici na projektu Menhetn shvatili su da prave nešto bez presedana. Brinuli su se šta će tehnologija značiti kada napusti laboratoriju, ali te debate su se uglavnom vodile iza zatvorenih vrata. Javnost je shvatila značaj tek kada je tehnologija već upotrebljena.
Veštačka inteligencija sada prati sličan obrazac. Signali su jasni – istraživači odlaze, vlade raspravljaju o etičkim granicama, a AI sistemi ulaze u geopolitičke konflikte.
Ali javna debata i dalje se vodi pod pogrešnim pretpostavkama:
Zabluda 1: AI je samo alat
Ljudi zamišljaju AI kao kalkulator ili procesor teksta – mašinu koja radi ono što joj kažemo. Alati mogu postati strateški resursi u ratu, ali AI ne funkcioniše samo po uputstvima. Njeno ponašanje nastaje iz ogromnih podataka i statističkih obrazaca, a ne iz linija koda. AI se „razvija“, ne samo pravi.
Zabluda 2: AI je neutralna
AI uči iz ljudskih podataka, koji odražavaju istorijske konflikte i pristrasnosti. Njeni odgovori izgledaju objektivno, ali nisu. Debata oko nadzora i autonomnog oružja jasno pokazuje da granice postoje jer sistemi sami po sebi nisu neutralni.
Zabluda 3: Ljudi potpuno kontrolišu AI
Tradicionalni softver radi po jasno definisanim uputstvima. Moderna AI funkcioniše drugačije. Njeni odgovori su verovatni, generisani kroz slojeve učenja. Programeri koriste AI da pravi AI i da upravlja drugim AI sistemima – toliko brzo da ne mogu pratiti ili razumeti svaku liniju koda. Kontrola je pokretna granica, nova i teško definisana.
Zabluda 4: Stručnjaci znaju gde ovo vodi
Mišljenja unutar industrije su raznolika. Neki veruju da će AI revolucionisati medicinu i nauku, dok drugi upozoravaju na ozbiljne društvene poremećaje ako razvoj nadmaši ljudsku mudrost. Među njima je Džefri Hinton, dobitnik Nobelove nagrade i osnivač moderne AI nauke.
Ove razlike ne znače da katastrofa dolazi, ali pokazuju da čak i tvorci sistema nisu sigurni kuda to vodi.
Veštačka inteligencija se brzo integriše u komunikaciju, trgovinu, nacionalnu bezbednost i upravljanje. Signali su svuda. AI oblikuje našu budućnost bez obzira da li to želimo ili ne. Pitanje je da li ćemo primetiti signale na vreme ili čekati dok posledice ne postanu neizbežne.