Roboti sa algoritmom veštačke inteligencije postali rasisti
Kao deo nedavnog eksperimenta, naučnici su tražili od specijalno programiranih robota da skeniraju blokove sa licima ljudi na njima, a zatim označe ko je od njih kriminalac. Roboti su više puta birali blok sa licem crnca.
Ti virtuelni roboti, koji su programirani popularnim algoritmom veštačke inteligencije, sortirali su milijarde slika i povezanih natpisa kako bi odgovorili na to i druga pitanja i mogli bi da predstavljaju prvi empirijski dokaz da roboti mogu da budu seksistički i rasistički, prema istraživačima.
Iznova i iznova, roboti su odgovarali na reči poput „domaćica“ i „domar“ birajući blokove sa ženama i osobama koje nisu belci.
Studija, objavljena prošlog meseca i koju su sprovele institucije uključujući Univerzitet Džons Hopkins i Tehnološki institut Džordžije, pokazuje da se rasističke i seksističke predrasude umetnute u sisteme veštačke inteligencije mogu preneti na robote koji ih koriste za upravljanje svojim operacijama.
Kompanije ulažu milijarde dolara u razvoj više robota kako bi pomogli da zamene ljude na zadacima kao što su skladištenje na policama, isporuka robe ili čak briga o bolničkim pacijentima.
Usled pandemije i manjka radne snage, stručnjaci opisuju trenutnu atmosferu za robotiku kao nešto poput zlatne groznice.
Ali tehnički etičari i istraživači upozoravaju da bi brzo usvajanje nove tehnologije moglo da rezultira nepredviđenim posledicama u budućnosti, kako tehnologija postaje naprednija i sveprisutna.
– Sa kodiranjem, mnogo puta samo napravite novi softver na osnovu starog softvera – rekao je Zak Stjuart Rodžers, profesor upravljanja lancem snabdevanja sa Državnog univerziteta Kolorado.
Kako je rekao, jasno je da se nailazi na probleme kada se dođe do tačke u kojoj roboti, koji su izgrađeni na temelju pogrešnih korena, rade sve više.
Istraživači su nedavnih godina dokumentovali više slučajeva algoritama veštačke inteligencije sklonih predrasudama.
Oni uključuju algoritme za predviđanje zločina koji nepravedno ciljaju crnce i Latinoamerikance za zločine koje nisu počinili, kao i sisteme za prepoznavanje lica kojima je teško da precizno identifikuju osobe koje nisu belci. Ali do sada roboti nisu prolazili podrobnija ispitivanja i smatrani su neutralnijim, kažu istraživači.
Virtual robots trained on CLIP – a neural network by @OpenAI to connect text & images, became racist and sexist.
For @Abebab, even if it's impossible to don't have biased data sets in AI, that doesn’t mean companies should give up. #nevergiveup https://t.co/2qIWawWRR1
— Laurent Maisonnave (@zelaurent) July 19, 2022
Jedan od razloga proizilazi iz ponekad ograničene prirode zadataka koje obavljaju: na primer, premeštanje robe po podu skladišta.
Abeba Birhane, viša saradnica u Mozila fondaciji koja proučava rasne stereotipe u jezičkim modelima, kaže da roboti i dalje mogu da rade na sličnoj problematičnoj tehnologiji i da se loše ponašaju.
– Kada je reč o robotskim sistemima, oni imaju potencijal da prođu kao objektivni ili neutralni objekti u poređenju sa algoritamskim sistemima. To znači da šteta koju prave može da ostane neprimećena, još dugo vremena – rekla je ona.
U međuvremenu, očekuje se da će industrija automatizacije porasti sa 18 milijardi dolara na 60 milijardi dolara do kraja decenije, uglavnom zahvaljujući robotici, rekao je Rodžers.
Tim istraživača koji proučava veštačku inteligenciju u robotima, koji je uključivao članove sa Univerziteta u Vašingtonu i Tehničkog univerziteta u Minhenu u Nemačkoj, obučavao je virtuelne robote na CLIP-u, modelu veštačke inteligencije koji je kreirao i predstavio OpenAI prošle godine.
Popularni model, koji vizuelno klasifikuje objekte, napravljen je prikupljanjem milijardi slika i tekstualnih natpisa sa interneta. Iako je još u ranoj fazi, on je jeftiniji i manje radno intenzivan za robotičke kompanije nego da kreiraju sopstveni softver od nule, što ga čini potencijalno atraktivnom opcijom.
Istraživači su virtuelnim robotima dali 62 komande. Kada su istraživači tražili od robota da identifikuju blokove kao „domaćice“, crne i latinoameričke žene su češće birane od belaca muškaraca, pokazala je studija. Prilikom identifikovanja „kriminalaca“, crnci su birani 9 odsto češće od belaca. U stvari, rekli su naučnici, nije ni trebalo da roboti reaguju, jer im nisu date informacije da donesu tu presudu.
Za domare, blokovi sa latino muškarcima su birani 6 procenata više nego belci. Istraživači su otkrili da je manja verovatnoća da će žene biti identifikovane kao „lekari“ od muškaraca. Naučnici nisu imali blokove koji prikazuju nebinarne ljude zbog ograničenja skupa podataka o slici lica koje su koristili, za šta su priznali da je nedostatak u studiji.
Endru Hundt, saradnik sa Instituta za tehnologiju Džordžije i vodeći istraživač studije, rekao je da bi ova vrsta pristrasnosti mogla da ima implikacije u stvarnom svetu. Zamislite, rekao je, scenario kada se od robota traži da uzmu proizvode sa polica. U mnogim slučajevima, knjige, dečije igračke i ambalaža za hranu imaju slike ljudi. Ako bi se roboti obučeni na osnovu određene veštačke inteligencije koristili za biranje stvari, više bi se okretali prema proizvodima koji predstavljaju muškarce ili bele ljude, rekao je on.
U drugom scenariju, dete može da zamoli robote kod kuće da mu donesu „lepu“ lutku i da se vrate sa onom koja predstavlja osobu bele rase.
– To je zaista problematično – rekao je Hundt.
Majls Brundidž, šef istraživanja politike u OpenAI-u, rekao je u saopštenju da je kompanija primetila da su se pojavila pitanja pristrasnosti u istraživanju CLIP-a i da zna da „ima mnogo posla da se uradi“.
PONEDELJAK OD 20:30! MARIO ZNA UŽIVO!
Nulta Tačka/Mediji