Veštačka inteligencija neće imati milosti prema ljudima
Možda mislite da bi kompjuter bio nepristrasan i pravedan sudija, ali nova studija otkriva da bi možda bilo bolje da svoju sudbinu prepustite ljudima. Istraživači sa MIT-a otkrivaju da veštačka inteligencija (AI) teži da donosi strože i oštrije presude od ljudi kada su u pitanju ljudi koji krše pravila. Jednostavno rečeno, veštačka inteligencija nije spremna da lako pusti ljude da se provuku kada prekrše zakon!
Istraživači su izrazili zabrinutost da bi veštačka inteligencija mogla da izrekne prestroge kazne, u zavisnosti od toga kako je informatičari programiraju. Kada je veštačka inteligencija programirana striktno na osnovu pravila, lišena bilo kakvih ljudskih nijansi, ona ima tendenciju da reaguje oštro u poređenju sa onim kada je programirana na osnovu ljudskih odgovora.
Ova studija, koju je sproveo tim sa Tehnološkog instituta u Masačusetsu, ispitala je kako bi veštačka inteligencija tumačila uočena kršenja datog koda. Otkrili su da su najefikasniji podaci za programiranje AI normativni podaci, gde su ljudi utvrdili da li je određeno pravilo prekršeno. Međutim, mnogi modeli su pogrešno programirani sa deskriptivnim podacima, u kojima ljudi označavaju činjenične atribute situacije, a AI utvrđuje da li je kod prekršen.
U studiji, tim je sakupio slike pasa koji bi potencijalno mogli da prekrše pravilo stanovanja kojim se zabranjuju agresivne rase u zgradi. Grupe su zatim zamoljene da daju normativne i deskriptivne odgovore.
Deskriptivni tim nije bio obavešten o opštoj politici o psima i od njega je zatraženo da identifikuje da li su tri činjenična elementa, kao što je agresija psa, prisutna na slici ili tekstu. Njihovi odgovori pomogli su da se formiraju presude. Ako je korisnik rekao da fotografija prikazuje agresivnog psa, smatra se da je politika prekršena. S druge strane, normativna grupa je upoznata sa pravilima o agresivnim psima i zamoljena je da utvrdi da li svaka slika krši pravilo, i ako krši, zašto.
Učesnici su imali 20 posto veće šanse da identifikuju kršenje koda koristeći deskriptivnu metodu u poređenju sa normativnom. Da su deskriptivni podaci o ponašanju pasa korišćeni za programiranje AI modela, veća je verovatnoća da će biti izrečene ozbiljne kazne.
SZO postavila smernice o SEKSUALIZACIJI DECE: “Od malih nogu učite decu da masturbiraju”https://t.co/XBUiS1nM8d
— Nulta Tačka (@ProdukcijaNT) May 15, 2023
Povećanje ovih netačnosti na scenarije iz stvarnog sveta moglo bi imati značajne implikacije. Na primer, ako se koristi deskriptivni model za predviđanje da li neko lice može počiniti isti zločin više puta, to može izreći oštrije presude od čoveka i rezultirati većim iznosima kaucije ili dužim krivičnim kaznama. Shodno tome, stručnjaci su se zalagali za povećanje transparentnosti podataka, tvrdeći da razumevanje načina na koji se podaci prikupljaju može pomoći u određivanju njihove potencijalne upotrebe.
„Većina istraživača AI/mašinskog učenja pretpostavlja da su ljudske procene u podacima i oznakama pristrasne. Ali naši rezultati ukazuju na zabrinjavajuće pitanje: ovi modeli čak ni ne reprodukuju već pristrasne ljudske ocene jer su podaci na kojima se obučavaju pogrešni“, kaže Marzie Gasemi, docent i šef Healthy ML grupe u računarstvu i laboratoriji za nauku i veštačku inteligenciju (CSAIL), u univerzitetskom izdanju.
„Rešenje je da priznamo da ako želimo da reprodukujemo ljudsku procenu, treba da koristimo samo podatke prikupljene u tom kontekstu. U suprotnom, završićemo sa sistemima koji nameću izuzetno oštre moderacije, daleko strože od onoga što bi ljudi nametnuli. Ljudi bi videli nijanse ili pravili razlike, dok ovi modeli to ne vide“, dalje objašnjava Gasemi.
U studiji, objavljenoj u Science Advances, tim je testirao tri dodatna skupa podataka. Rezultati su varirali, u rasponu od osam procenata povećane verovatnoće da se identifikuje kršenje pravila korišćenjem opisnih odgovora za kršenje pravila oblačenja, do povećanja od 20 procenata za agresivne slike pasa.
„Možda se način na koji ljudi razmišljaju o kršenju pravila razlikuje od načina na koji razmišljaju o deskriptivnim podacima. Generalno, normativne odluke imaju tendenciju da budu blaže“, kaže glavni autor Aparna Balagopalan. „Podaci su zaista važni. Ključno je uskladiti kontekst obuke sa kontekstom implementacije kada obučavate modele za otkrivanje kršenja pravila“.
Budući plan tima je da istraži uticaj profesionalaca, kao što su advokati i lekari, koji učestvuju u unosu podataka.