Stanford studija: Levičarska Tviter alternativa Mastodon ima veliki problem sa dečjom pornografijom
Nedavna studija Stenford Internet opservatorije otkrila je uznemirujuću rasprostranjenost materijala o seksualnom zlostavljanju dece (CSAM), inače poznatog kao dečja pornografija, na Mastodonu. Decentralizovana platforma društvenih medija bila je popularna destinacija za levičare koji beže sa Tvitera otkako je Ilon Mask kupio platformu.
The Verge izveštava da društvena mreža Mastodon ima alarmantno visoku učestalost materijala o seksualnom zlostavljanju dece (CSAM), prema nedavnoj analizi Stenford Internet opservatorije. Utvrđeno je da platforma, koja se često reklamira kao održiva alternativa Tviteru, sadrži značajnu količinu dečje pornografije, što izaziva zabrinutost zbog politike moderiranja.
Tokom dvodnevnog perioda istraživanja, tim je otkrio 112 slučajeva dečje pornografije u 325.000 postova na Mastodonu. Zabrinjavajuće je da je prva instanca takvog materijala identifikovana za samo pet minuta od pretrage. „Dobili smo više pogodaka fotoDNK u periodu od dva dana nego što smo verovatno imali u čitavoj istoriji naše organizacije radi bilo kakve analize društvenih medija, a to nije ni blizu“, rekao je David Til, jedan od istraživača izveštaja.
Istraživači su koristili Google-ov SafeSearch API i PhotoDNA, alat dizajniran da identifikuje eksplicitne slike, da bi sproveli svoju istragu. Njihova pretraga je dala 554 komada sadržaja koji su odgovarali heštegovima ili ključnim rečima koje često koriste grupe za seksualno zlostavljanje dece na mreži. Sve ovo je identifikovano kao eksplicitno u „najvećoj pouzdanosti“ od strane Google SafeSearch-a.
👉 NATO neće ulaziti u rat sa Rusijom zbog Ukrajine prenosi Newsweek
https://t.co/Z5cPW1BteP— Nulta Tačka (@NultaTackaSrb) July 26, 2023
Studija je takođe otkrila 713 upotreba 20 najboljih heštega vezanih za CSAM širom Fediverse-a na objavama koje sadrže video-slike. Pored toga, postojalo je 1.217 samo tekstualnih postova koji su ukazivali na „trgovinu CSAM-om van sajta ili podvođenje maloletnika“. Istraživači su primetili da je otvoreno postavljanje CSAM-a „uznemirujuće rasprostranjeno“.
Decentralizovana priroda Mastodona, koja je deo njegove privlačnosti za mnoge korisnike, takođe predstavlja jedinstven izazov kada je u pitanju umerenost. Za razliku od mejnstrim sajtova kao što su Facebook, Instagram i Reddit, svaka decentralizovana instanca na Mastodonu ima kontrolu nad sopstvenom moderacijom. Ovo može dovesti do nedoslednosti širom Fediverse-a, koji je mreža decentralizovanih platformi društvenih medija.
U svetlu ovih nalaza, istraživači su predložili da mreže poput Mastodona koriste robusnije alate za moderatore. Oni takođe preporučuju integraciju izveštavanja PhotoDNK i CyberTipline kako bi se pomoglo u borbi protiv širenja dečje pornografije.