Majkrosoft lansira novi AI alat za moderiranje teksta i slika
Majkrosoft pokreće novu uslugu moderiranja zasnovanu na veštačkoj inteligenciji za koju kaže da je dizajnirana da neguje bezbednija onlajn okruženja i zajednice.
Pod nazivom Azure AI Content Safety, nova ponuda, dostupna preko platforme proizvoda Azure AI, nudi niz AI modela obučenih da otkrivaju „neprikladan“ sadržaj na slikama i u tekstu. Modeli — koji mogu da razumeju tekst na engleskom, španskom, nemačkom, francuskom, japanskom, portugalskom, italijanskom i kineskom — dodeljuju ocenu ozbiljnosti označenom sadržaju, ukazujući moderatorima koji sadržaj zahteva akciju.
„Majkrosoft radi na rešenjima kao odgovor na izazov štetnog sadržaja koji se pojavljuje u onlajn zajednicama više od dve godine. Prepoznali smo da postojeći sistemi nisu efikasno uzimali u obzir kontekst ili nisu mogli da rade na više jezika“, rekao je portparol Majkrosofta putem e-pošte. „Novi [AI] modeli su u stanju da razumeju sadržaj i kulturni kontekst mnogo bolje. Oni su višejezični od samog početka … i pružaju jasna i razumljiva objašnjenja, omogućavajući korisnicima da shvate zašto je sadržaj označen ili uklonjen.“
Tokom demonstracije na Majkrosoftovoj godišnjoj Build konferenciji, Sarah Bird, Microsoft-ov odgovorni AI vođa, objasnila je da je Azure AI Content Safety produktivna verzija sigurnosnog sistema koji pokreće Microsoft-ov chat bot u Bing-u i Copilot-u, GitHub-ovoj usluzi za generisanje koda koga pokreće AI.
„Sada ga lansiramo kao proizvod koji mogu da koriste kupci trećih strana“, rekla je Bird u saopštenju.
Verovatno je tehnologija koja stoji iza Azure AI Content Safety poboljšana otkako je prvi put lansirana za Bing Chat početkom februara. Bing Chat je izašao iz šina kada se prvi put pojavio u pregledu; naše izveštavanje otkrilo je da čet-bot emituje dezinformacije o vakcini i koristi govor mržnje. Drugi novinari su ga naterali da preti, pa čak i da ih osramoti što su opominjali na to.
👉 Šef NEMAČKE obaveštajne službe zabrinut zbog sve veće popularnosti Rusije u toj zemlji https://t.co/tA7nypfqGx
— Nulta Tačka (@NultaTackaSrb) May 23, 2023
U još jednom udaru protiv Majkrosofta, kompanija je pre samo nekoliko meseci otpustila tim za etiku i društvo u okviru svoje veće AI organizacije. Ovaj potez ostavio je Microsoft bez namenskog tima koji bi osigurao da su njegovi principi veštačke inteligencije blisko povezani sa dizajnom proizvoda.
Ostavljajući sve to po strani na trenutak, Azure AI Content Safety — koja štiti od pristrasnog, seksističkog, rasističkog, govora mržnje, nasilnog i samopovređivajućeg sadržaja, prema Microsoft-u — integrisana je u Azure OpenAI Service, Microsoft-ov proizvod koji je u potpunosti upravljan, korporativno fokusiran namenjen da omogući preduzećima pristup OpenAI tehnologijama sa dodatnim funkcijama upravljanja i usklađenosti. Ali Azure AI Content Safety se takođe može primeniti na sisteme bez veštačke inteligencije, kao što su onlajn zajednice i platforme za igre.
Cene počinju od 1,50 USD za 1000 slika i 0,75 USD za 1000 tekstualnih zapisa.
Azure AI Content Safety je slična drugim uslugama za otkrivanje toksičnosti koje pokreće veštačka inteligencija, uključujući Perspective, koju održava Google-ov tim za tehnologiju za borbu protiv zloupotrebe, i Jigsaw, i nasledio je sopstveni alat Microsoft Content Moderator. (Nema reči o tome da li je napravljen na osnovu Microsoft-ove kupovine Two Hat-a, dobavljača sadržaja za moderiranje, 2021.) Te usluge, poput Azure AI Content Safety, nude ocenu od nula do 100 o tome koliko su novi komentari i slike slični drugima koji su prethodno identifikovani kao toksični.
Ali postoji razlog da budete skeptični prema njima. Osim ranih nezgoda Bing Chat-a i Microsoft-ovih loše ciljanih otpuštanja, studije su pokazale da se tehnologija otkrivanja toksičnosti uz pomoć AI i dalje bori da prevaziđe izazove, uključujući pristrasnosti prema određenim podskupovima korisnika.
Pre nekoliko godina, tim u Penn State-u je otkrio da bi postovi na društvenim mrežama o osobama sa invaliditetom mogli biti označeni kao negativniji ili toksičniji zbog uobičajenih modela detekcije javnog raspoloženja i toksičnosti. U drugoj studiji, istraživači su pokazali da starije verzije Perspective često nisu mogle da prepoznaju govor mržnje koji koristi „povratne“ uvrede poput „queer“ i varijacije pravopisa kao što su znakovi koji nedostaju.
Problem se proteže dalje od detektora toksičnosti kao usluge. Ove nedelje, izveštaj Njujork tajmsa otkrio je da osam godina nakon kontroverze oko toga da su crnci pogrešno označeni kao gorile od strane softvera za analizu slika, tehnološki giganti se i dalje plaše da ponove grešku.
Deo razloga za ove neuspehe je taj što anotatori – ljudi odgovorni za dodavanje oznaka skupovima podataka za obuku koji služe kao primeri za modele – unose svoje pristrasnosti u tabelu. Na primer, često postoje razlike u napomenama između oznaka koje su se identifikovale kao Afroamerikanci i članova LGBTQ+ zajednice u odnosu na anotatore koji se ne identifikuju kao nijedna od te dve grupe.
Za borbu protiv nekih od ovih problema, Microsoft dozvoljava da se filteri u Azure AI Content Safety fino podese za kontekst. Bird objašnjava:
Na primer, fraza „pretrči preko brda i napadni“ koja se koristi u igri smatrala bi se srednjim nivoom nasilja i blokirala bi se ako je sistem za igre konfigurisan da blokira sadržaj srednje ozbiljnosti. Prilagođavanje prihvatanja srednjeg nivoa nasilja omogućilo bi modelu da toleriše ovu frazu.
„Imamo tim stručnjaka za jezike i pravičnost koji su radili na definisanju smernica uzimajući u obzir kulturu, jezik i kontekst“, dodao je portparol Majkrosofta. „Potom smo obučili AI modele da odražavaju ove smernice… AI će uvek praviti neke greške, [međutim,] tako da za aplikacije koje zahtevaju da greške skoro da ne postoje, preporučujemo korišćenje čoveka u petlji za proveru rezultata”.
Jedan od prvih koji je usvojio Azure AI Content Safety je Koo, platforma za blogovanje sa sedištem u Bangaloru u Indiji sa bazom korisnika koja govori preko 20 jezika. Microsoft kaže da je u partnerstvu sa Koo-om kako bi se pozabavio izazovima moderiranja kao što su analiza memova i učenje kolokvijalnih nijansi na jezicima koji nisu engleski.
Nije nam ponuđena šansa da testiramo Azure AI Content Safety pre njegovog objavljivanja, a Microsoft nije odgovorio na pitanja o svojim napomenama ili pristupima za ublažavanje pristrasnosti. Ali budite sigurni da ćemo pažljivo pratiti da vidimo kako se Azure AI Content Safety ponaša u divljini.