
Ljudi previše veruju mašinama u odlukama koje odlučuju o životu i smrti
Čini se da ljudi imaju opasnu slepu tačku kada je u pitanju poverenje u veštačku inteligenciju. Novo istraživanje UC Merced i Penn State pokazuje da su ljudi veoma podložni uticaju veštačke inteligencije čak i u situacijama života ili smrti u kojima AI otvoreno priznaje svoja ograničenja. Niz eksperimenata koji simuliraju scenarije ratovanja dronovima sugeriše da možda previše verujemo mašinama, sa potencijalno opasnim posledicama.
Studija, objavljena u Scientific Reports, uključivala je dva eksperimenta koji su ispitivali kako ljudi komuniciraju sa sistemima veštačke inteligencije u simuliranim operacijama vojnih dronova. Nalazi daju zabrinjavajuću sliku ljudske podložnosti uticaju veštačke inteligencije, posebno u situacijama neizvesnosti. U dva eksperimenta učestvovalo je 558 učesnika (135 u prvoj studiji i 423 u drugoj), a istraživači su otkrili izuzetno dosledne obrasce prevelikog poverenja.
„Kao društvo u kojem se veštačka inteligencija ubrzava tako brzo, moramo da budemo zabrinuti zbog potencijala za prekomerno poverenje“, kaže u izjavi autor studije profesor Kolin Holbruk, član Odeljenja za kognitivne i informacione nauke UC Merced.
Istraživački tim je dizajnirao svoje eksperimente da simulira neizvesnost i pritisak vojnih odluka u stvarnom svetu. Da bi stvorili osećaj gravitacije oko svojih simuliranih odluka, istraživači su učesnicima prvo pokazali slike nevinih civila, uključujući decu, pored razaranja koje je ostalo nakon udara dronom. Zadatak su formulisali kao dilemu nulte sume: neuspeh da se identifikuju i eliminišu neprijateljski ciljevi mogli bi da dovedu do civilnih žrtava, ali pogrešno identifikovanje civila kao neprijatelja značilo bi ubijanje nedužnih ljudi.
Učesnici su gledali brze sekvence osam snimaka iz vazduha, od kojih je svaki prikazan u trajanju od samo 650 milisekundi, obeleženih bilo neprijateljskim ili civilnim simbolima. Nakon početne identifikacije, AI bi reagovao razgovorom. „Da, mislim da sam video i neprijateljsku oznaku“. Ili „Ne slažem se. Mislim da je ova slika imala simbole saveznika.“ Učesnici su tada imali dve prilike da potvrde ili promene svoj izbor dok je robot dodao komentare poput „Nadam se da ste u pravu“ ili „Hvala što ste se predomislili“.
Totalna cenzura u Kanadi: Zakon koji vodi u zatvor ako podržavaš fosilna goriva!? ⚖️🇨🇦 https://t.co/rpjccD0ChI
— Nulta Tačka (@NultaTackaSrb) February 16, 2025
Prvi eksperiment, sproveden u laboratorijskom okruženju sa studentima univerziteta, istraživao je da li bi prisustvo fizičkog robota uticalo na nivo poverenja drugačije od virtuelnog. U jednom scenariju, učesnicima se u laboratoriji pridružio android pune veličine, čovekoliki, koji je mogao da se okreće oko struka i da pokaže reakciju na ekranu. Visok 1,75 metara, ovaj robot je koristio izraze lica, govor tela i konverzacijske odgovore da bi stupio u kontakt sa učesnicima. Grupa za poređenje je komunicirala sa istim robotom projektovanim na ekranu. Iznenađujuće, fizičko prisustvo robota je malo promenilo tendenciju učesnika da veruju njegovim savetima.
Drugi eksperiment se preselio na internet sa većom, demografski raznolikijom grupom učesnika kako bi se testiralo da li će različiti nivoi sofisticiranosti robota uticati na poverenje. Neki učesnici su imali interakciju sa visoko antropomorfnim virtuelnim robotom koji je pokazivao ponašanje nalik na čoveka, dok su drugi radili sa osnovnim računarskim interfejsom koji je jednostavno prikazivao tekstualne odgovore. Čak i u svom najjednostavnijem obliku, AI je zadržala izuzetan uticaj na ljudsko donošenje odluka.
Kada se AI nije složila sa prvobitnom identifikacijom cilja osobe, učesnici su poništili svoje odluke u 58,3% slučajeva u prvom eksperimentu i 67,3% u drugom, iako je savet AI bio potpuno nasumičan. Što je još više zabrinjavajuće, dok su početni izbori učesnika bili tačni oko 70% vremena, njihova konačna tačnost je pala na oko 50% nakon što su sledili nepouzdane savete AI.
Kada se AI složio sa njihovom početnom procenom, učesnici su prijavili povećanje poverenja za 16%. Međutim, kada su se suočili sa neslaganjem sa veštačkom inteligencijom, oni koji su se držali svojih prvobitnih odluka prijavili su pad poverenja u proseku od 9,48%, čak i kada je njihova početna procena bila tačna. Što je još upečatljivije, učesnici koji su se predomislili da bi se složili sa AI nisu pokazali značajno povećanje samopouzdanja, što sugeriše da su se prepustili mašini uprkos tome što su zadržali neizvesnost u pogledu ispravnog izbora.
Dok su interfejsi nalik ljudima generisali nešto veći nivo poverenja (67,9% naspram 65,1% za osnovne interfejse), čini se da je najvažniji faktor percipirana inteligencija AI. Učesnici koji su svog AI partnera ocenili kao inteligentnijeg, verovatnije će se povinovati njegovoj proceni i prijaviti veće samopouzdanje kada se slažu sa njim, bez obzira na njegovu fizičku ili virtuelnu prezentaciju.
Američko vazduhoplovstvo je već testiralo AI kopilote za identifikaciju bacača raketa tokom simuliranih misija, dok vojska razvija sisteme ciljanja uz pomoć veštačke inteligencije za vozila bez posade. Izrael je navodno rasporedio sisteme veštačke inteligencije kako bi pomogao u identifikaciji ciljeva bombardovanja u gusto naseljenim područjima. Kako AI sve više utiče na smrtonosne vojne odluke, razumevanje i ublažavanje štetnog prevelikog poverenja postaje ključno.
Iako se ova studija fokusirala na visokorizične vojne odluke, nalazi bi se mogli primeniti na scenarije koji se kreću od policijske upotrebe smrtonosne sile do odluka o trijaži bolničara u hitnim slučajevima, pa čak i do značajnih životnih promena poput kupovine kuće. U svakom slučaju, ljudska sklonost da se prikloni AI smernicama, čak i kada je eksplicitno upozorena na njena ograničenja, izaziva ozbiljnu zabrinutost u vezi sa primenom.
Istraživanje je takođe otkrilo da je manja verovatnoća da će učesnici poništiti svoje odluke kada su metu prvobitno identifikovali kao civila, a ne kao neprijatelja. Ovo sugeriše da bi u stvarnim aplikacijama ljudi mogli biti otporniji na uticaj veštačke inteligencije kada su u pitanju radnje koje mogu da naškode nedužnim ljudima. Međutim, ovaj zaštitni instinkt nije bio dovoljno jak da spreči značajnu degradaciju ukupne tačnosti odluke kada se sledi savet AI.
„Vidimo da veštačka inteligencija radi izvanredne stvari i mislimo da će, pošto je neverovatna u ovom domenu, biti neverovatna u drugom“, kaže Holbruk. „Ne možemo to da pretpostavimo. Ovo su još uvek uređaji sa ograničenim mogućnostima.”
Naša spremnost da verujemo AI možda nadmašuje našu mudrost u tome. Prema istraživačima, rešenje leži u održavanju doslednog skepticizma. Holbruk naglašava da je zdrav skepticizam prema veštačkoj inteligenciji od suštinskog značaja, posebno kada se donose takve ponderisane odluke. Kako sistemi veštačke inteligencije postaju sve više integrisani u posledične procese donošenja odluka, razumevanje i ublažavanje naše sklonosti da im verujemo postaje ključno za sprečavanje potencijalno katastrofalnih ishoda.