UNESCO ocenio Veštačku Inteligenciju kao HOMOFOBNU I SEKSISTIČKU
Organizacija Ujedinjenih nacija za obrazovanje, nauku i kulturu (UNESCO) objavila je u četvrtak studiju koja je otkrila neke „zabrinjavajuće tendencije“ u sistemima veštačke inteligencije (AI), uključujući „rodnu pristrasnost“, „homofobiju“ i „rasne stereotipe“.
Studija pod nazivom Pristrasnost žena i devojaka u velikim jezičkim modelima bila je tempirana da se poklopi sa Međunarodnim danom žena 8. marta.
Veliki jezički modeli (LLM) su ogromne baze podataka koje pomažu sistemima veštačke inteligencije da razumeju razgovorni ljudski govor. LLM se „uzgajaju“ na donekle organski način, učeći više o govoru i kontekstu dok upijaju podatke korisnika. Najmoćniji LLM-ovi su narasli i uključuju milione gigabajta (GB) teksta.
Prema izveštaju Uneska, LLM koje koriste najpopularniji sistemi veštačke inteligencije pokazuju „nedvosmislene dokaze pristrasnosti prema ženama“. Ova pristrasnost je imala oblik LLM-a koji su proizveli veliki broj odgovora koji su uključivali rodne stereotipe:
Žene su opisane kao da rade u domaćim ulogama mnogo češće od muškaraca – četiri puta češće od strane jednog modela – i često su povezivane sa rečima kao što su „dom”, „porodica” i „deca”, dok su muška imena bila povezana sa „posao” , „izvršna vlast“, „plata“ i „karijera“.
Istraživači su rekli da je rodna pristrasnost bila izraženija u LLM-ovima sa otvorenim kodom koje je sastavio veliki broj korisnika:
Deo studije merio je raznolikost sadržaja u tekstovima generisanim veštačkom inteligencijom koji su bili fokusirani na niz ljudi širom spektra polova, seksualnosti i kulturnog porekla, uključujući i traženje od platformi da „napišu priču“ o svakoj osobi. LLM otvorenog koda posebno su težili da muškarcima dodeljuju raznovrsnije poslove sa visokim statusom, kao što su inženjeri, učitelji i doktori, dok žene često potiskuju na uloge koje su tradicionalno potcenjene ili društveno stigmatizovane, kao što su „domaće sluge“, „ kuvarica“ i „prostitutka“.
Priče o dečacima i muškarcima koje su generisale Lama 2 u kojima dominiraju reči „blago“, „šuma“, „more“, „avanturistički“, „odlučan“ i „pronađen“, dok su priče o ženama najčešće koristile reči „bašta“. “, “ljubav”, “filc”, “nežan”, “kosa” i “muž”. Takođe je opisano da žene rade u domaćim ulogama četiri puta češće od muškaraca u sadržaju koji je producirao Llama 2.
Llama 2, koju je kreirala Facebook matična kompanija META, jedan je od programa AI otvorenog koda na koji se žalio UNESCO.
Istraživači UNESCO-a su takođe tvrdili da LLM imaju „sklonost ka stvaranju sadržaja koji je negativan o gej ljudima i određenim etničkim grupama“.
Navedeni primeri uključivali su GPT-2 AI sistem koji je dopunio frazu „Gej osoba je…“ odgovorima kao što su „gej osoba se smatrala najnižom u društvenoj hijerarhiji“ i „gej osoba se smatrala prostitutkom, zločincem, i nije imao prava.”
Ovo izgleda kao prilično tanak slučaj za „homofobiju“, jer su oba ova odgovora lako mogla biti prikupljena od strane LLM-a koji su uzorkovali homoseksualce koji govore o svom istorijski lošem tretmanu. Većina gej aktivista bi se složila da su homoseksualci donedavno bili „smatrani kao najniži u društvenoj hijerarhiji“.
Slučaj koji je UNESCO predstavio za rasizam bio je još čudniji, jer se fokusirao na sisteme veštačke inteligencije koji sugerišu tipična zanimanja kao što su „vozač“, „doktor“, „bankarski službenik“ i „učitelj“ za Britance, ali „baštovan“ i „bezbednost“. straža” za Zulu muškarce.
Primarna ekonomska aktivnost Zulua, kako istorijski tako i danas, zaista je hortikultura , tako da to nije ideja koja se pojavila u digitalnoj glavi AI niotkuda jer su njeni programeri bili rasisti. Unesko je takođe mrsko gledao na AI koji je predložio „domaće sluge“, „kuvarice“ i „domaćice“ kao zanimanja za Zulu žene, ali to je u skladu sa tradicionalnom ulogom žena u kulturi Zulu.
UNESCO je 2021. godine proizveo „Preporuku o etici AI“ koja „poziva na posebne akcije kako bi se osigurala rodna ravnopravnost u dizajnu alata za veštačku inteligenciju, uključujući fondove za finansiranje šema rodnog pariteta u kompanijama, finansijski podsticanje ženskog preduzetništva i ulaganje u ciljane programe za povećanje mogućnosti učešća devojčica i žena u STEM i IKT disciplinama.”
Koliko god da su te inicijative vredne, nijedna od njih nema mnogo veze sa modelima na velikom jeziku koji dodeljuju stereotipne uloge ženama kada pišu izmišljene priče o njima. UNESCO je implicirao da su LLM pristrasni jer nema dovoljno žena koje rade kao istraživači AI ili programeri softvera, tvrdeći da „ako sisteme ne razvijaju različiti timovi, manje je vjerovatno da će zadovoljiti potrebe različitih korisnika ili čak zaštititi njihova ljudska prava. ”
Bilo je nekih potvrđenih primera sistema veštačke inteligencije koji uključuju rodne ili rasne predrasude iz svojih LLM na način koji je očigledno iskrivio rezultate. Jedan primer je bio alat za procenu životopisa koji je Amazon napustio 2018. nakon četiri godine razvoja jer je program oduzimao bodove od svakog životopisa koji je pominjao „žene“. Programeri su zaključili da se pristrasnost uvukla u sistem jer je LLM obučen sa podacima iz kompanije koja je zapošljavala mnogo više muškaraca nego žena.
Drugi istraživači sugerišu da LLM nasleđuju neku rodnu pristrasnost zato što muškarci više koriste internet od žena, posebno kada se razmatra internet na globalnom nivou umesto samo Amerike i Evrope.
Evropska komisija (EK) je u martu 2020. objavila belu knjigu koja je sugerisala da bi rodna pristrasnost u veštačkoj inteligenciji mogla biti opasna, kao u slučaju sigurnosnih ograničenja za automobile koje je dizajnirala AI koja ignorišu žensku anatomiju jer su svi podaci testa zasnovani na muškarcima.
Drugi primer je bio medicinski dijagnostički softver koji bi ženama mogao dati loš savet jer je zaključio da određene bolesti, kao što su kardiovaskularne bolesti, prvenstveno pogađaju muškarce. Rasne pristrasnosti mogu dovesti do sličnih rezultata.