Meta priznaje da je Facebook tehnologija autocenzure loša, što šteti slobodi govora
Nadzorni odbor kompanije Meta rekao je da bi kompanija trebalo da poboljša svoj sistem automatizovanog uklanjanja slika. Sistem je greškom uklonio postove sa slikom iz crtanog filma koja prikazuje policijsko nasilje u Kolumbiji.
Slika je dodata u bazu podataka Meta Media Matching Service. Kada se slika doda u bazu podataka, ona se automatski uklanja kada se objavi.
Prema podacima Nadzornog odbora, 215 ljudi se žalilo na uklanjanje slike, a 98 odsto njih je bilo uspešno. Uprkos uspešnim žalbama, Meta nije uklonila sliku iz baze podataka.
„Koristeći automatizovane sisteme za uklanjanje sadržaja, baze Media Matching Service mogu da pojačaju uticaj pogrešnih odluka pojedinačnih recenzenata“, rekao je odbor. Dodaje se da su žalbe trebale da pokrenu pregled slike i njeno uklanjanje iz baze podataka, jer bi jedna loša odluka mogla dovesti do toga da slika bude zabranjena na neodređeno vreme, uprkos različitim zaključcima recenzenata.
Odbor je preporučio više metoda nadzora.
„Odbor je posebno zabrinut što Meta ne meri tačnost baza Media Matching Service za određene politike sadržaja“, primećuje se. „Bez ovih podataka, koji su ključni za poboljšanje rada ovih baza, kompanija ne može reći da li ova tehnologija radi efikasnije za neke standarde zajednice od drugih”.
Nadzorni odbor je takođe zatražio od Mete da objavi stope grešaka sadržaja koji su greškom uključeni u bazu podataka Media Matching Service.
Odbor je takođe razmatrao slučaj oko politike Fejsbuka o ekstremizmu, gde se činilo da ne pravi razliku između izveštavanja o ekstremističkim grupama i njihove podrške.
Odbor je zaključio da je Meta napravila grešku kada je ukinula objavu na urdu jeziku u kojoj se izveštavalo o tome da su talibani ponovo otvorili škole za devojčice i žene. Fejsbuk je uklonio objavu zbog kršenja pravila koje zabranjuje „hvale“ ekstremističkih grupa poput talibana. Na uklanjanje posta je uložena žalba, ali nikada nije pregledana jer Facebook ima manje od 50 recenzenata koji govore urdu.
Odbor je rekao da slučaj „može ukazivati na širi problem“ sa pravilima o opasnim organizacijama. Pravila nisu jasna moderatorima i korisnicima, a i kazne su „nejasne“ i stroge. Odbor je preporučio da Meta treba da razjasni pravila i definiciju „hvale“ opasnih pojedinaca i da doda više recenzenata.