Fašizam 2.0 – Promenljivo lice cenzure društvenih medija
Facebook zarađuje samo oko 34 funti godišnje od prosečnog korisnika u UK – nešto manje od 3 funti mesečno, tako da očigledno nema prostora za motivaciju, za ljudski nivo korisničke usluge ili pažnje. Korisnik nije kupac; nego je proizvod čiji se podaci prodaju oglašivačima.
Dakle, korisnici nemaju direktan odnos kao klijenti sa platformom. Mreža nije direktno podstaknuta da „brine“ o korisniku pre oglašivača. I bez obzira na to gde se nalazite na spektru između „apsolutizma slobode govora“ i „privatna lica imaju pravo da cenzurišu bilo kog korisnika“, sa tako niskim maržama neizbežno je korišćenje mašinske obrade za moderiranje postova i rad na interfejsu.
Ali činjenica je da se mogućnosti obrade i upravljanja kupaca koje društvene mreže sada razvijaju koriste na različite načine osim samo umerenosti. Takođe je tačno da se ova automatizovana obrada vrši u velikom obimu i sada se primenjuje na svaku objavu svakog člana. 68% američkih glasača je na Fejsbuku. U Velikoj Britaniji je 66%, a Francuskoj 73,2%. Cifre su slične za svaku demokratsku naciju na Zapadu. Stoga je od vitalnog značaja da primenjena pravila budu politički neutralna.
Moć koja postoji u mogućnosti mašinske obrade svake objave korisnika je daleko dublja nego što mnogi možda shvataju. I iako ne može direktno da diktira šta korisnici pišu u svojim porukama, on ima kapacitet da suštinski oblikuje koje poruke dobijaju na snazi.
Usluge društvenih medija postale su de-fakto gradski trgovi i većina bi se složila da njihovi korporativni vlasnici treba da izbegavaju da ikada stavljaju ruku na vagu i utiču na politiku.
Pored toga, svi koji koriste Facebook znaju, posebno kada su u pitanju politički osetljive teme, sistem će kvalifikovati domet pojedinca; ponekad u ekstremnom stepenu. Ili će taj korisnik jednostavno biti zabranjen na određeno vreme, ili će mu biti potpuno zabranjen pristup mreži.
SAD preporučuju ažurirane vakcine protiv Covid-19 kompanija Moderna i Pfizer/BioNTech čak i za decu https://t.co/UfpO0aHgmh
— Nulta Tačka (@NultaTackaSrb) August 23, 2024
Dakle, možemo postaviti pitanje, pošto korporacije društvenih medija imaju toliku moć cenzure, kako da znamo da se ne bave neetičkim političkim uticajem? Da li im se može poveriti odgovornost?
Vratiću se na ovo pitanje, ali jasno je da je poverenje u ove korporacije duboko pogrešno.
Pandemija je probudila mnoge ljude na nivoe kontrole koji nameću oni koji su zaduženi za naše društvene mreže. Oni pišu pravila kako bi povećali angažovanje za postove koje favorizuju, čineći da broj pratilaca određenih pojedinaca bude veći. Suprotno tome, korisnici koji se protive principu (ili protiv narativa establišmenta) vide da je njihov angažman suptilno smanjen ili čak ograničen, ili im se može u potpunosti zabraniti korišćenje usluge. A dokaz je da su, donekle suprotno principima demokratije, ruke veoma čvrsto stavljene na vagu na Fejsbuku, Tviteru i Jutjubu.
Kada je Ilon Mask kupio Tviter, pozvao je nezavisne novinare Meta Taibija, Barija Vajsa i Majkla Šalenberga u Tviter kancelarije da istraže interne komunikacije kompanije i vide koliko su prethodni vlasnici cenzurisali korisničke tvitove.
Tviter fajlovi su rezultat i oni jasno pokazuju da je bilo mešanja velikih razmera i da je u mnogim slučajevima bilo na političkim osnovama. Vladine agencije koje je tim za Tviter fajlove imenovao čvrsto su ukorenjene u kompaniju koja nadgleda i cenzuriše građane SAD, a građani drugih nacija i vladine agencije su redovno (snažno) zahtevale akcije cenzure. Ali više od toga, oni su takođe otkrili da se slični nivoi mešanja dešavaju na drugim društvenim mrežama kao što je Facebook.
Ali pošto je Tviter podneo dokaze o mešanju, pojavila se nova i potencijalno još veća pretnja.
AI.
Nekada se činilo da su algoritmi jedina tema razgovora o kojoj su digitalni trgovci mogli da razgovaraju. A pošto ne postoji margina za ljudsku intervenciju na nivou pojedinačnih postova, koristili su se algoritmi.
Za početak su bile prilično jednostavni, poput jednačina koje smo vežbali na školskom času matematike, tako da ih je bilo relativno lako razraditi. Guglov uspon je podstaknut jednostavnom, ali briljantnom idejom: računanjem spoljnih veza do veb stranice kao proksija za relevantnost.
Ali algoritmi su od tada ustupili mesto složenijim modelima mašinskog učenja koji se i dalje u osnovi oslanjaju na algoritme, ali sada se automatski generišu i tako su ogromni da pokušaj da se ljudi tu umešaju nije lak. Dakle, ograničavamo naše razmišljanje o njima na ono što mogu da postignu, koje značajne stvari mogu da razlikuju, a ne na tačno kako funkcioniše kod.
A sada smo ušli u treću generaciju tehnologije. Mašinsko učenje se transformisalo u razvoj velikih jezičkih modela (LLM) ili, još popularnije, AI. A sa ovom najnovijom evolucijom, korporatisti su pronašli ogromne i zastrašujuće nove mogućnosti za moć i kontrolu.
Stvaranje LLM uključuje obuku. Obuka ih prožima specifičnim veštinama i predrasudama. Svrha obuke je da se popune praznine, tako da ne postoje očigledne rupe u kapacitetima LLM-a da se bave gradivnim blokovima ljudske konceptualizacije i govora. I ovo je prepoznatljiva karakteristika LLM; da možemo da razgovaramo sa njima i da razgovor teče, a da gramatika i sadržaj izgledaju normalno tečno i potpuno. U idealnom slučaju, LLM se ponaša kao prefinjen engleski batler – ljubazan, informativan i korektan, a da nije nepristojan. Ali takođe obuka dodeljuje specijalizacije LLM.
U kontekstu društvenih medija – a tu počinju da postaju očigledni zastrašujući nivoi moći – LLM se koriste da deluju kao monitori u dvorani, provodeći „umerenost sadržaja“.
Meta’s Llama Guard je odličan primer, obučen ne samo da moderira, već i da izveštava o korisnicima. A ova funkcija izveštavanja otelovljuje ne samo mogućnost izveštavanja, već i kroz te podatke izveštavanja, iskopavanje mogućnosti da se utiče i daju sugestije o korisniku. A kada kažem sugestije, LLM je sposoban da da ne samo one očigledne odgovore koje bi korisnik mogao pozdraviti i koje bi rado primio, već i podmukliju nesvesnu vrstu odgovora koja može biti manipulativna i dizajnirana da kontroliše.
Još uvek nema prikupljenih dokaza (za koje sam svestan) da se LLM posebno koriste na ovaj način; ipak. Ali sposobnost je sasvim sigurno tu i ako prošlo ponašanje ukazuje na budući razvoj, verovatno će se tako koristiti.
Potrebno vam je samo da pogledate epizodu iz 2006. iz TV emisije Derena Brauna „Derren Brown: The Heist“ u kojoj on ubeđuje grupu stranaca da moraju da izvrše pljačku banke, da bi shvatili koliko duboka i moćna može biti upotreba sugestije. Za one koji ne znaju za Derena Brauna, on je scenski hipnotizer, koji teži da istakne moć sugestije nad hipnozom (većina njegovih emisija uopšte ne sadrži hipnozu). Samo snagom sugestije on navodi ljude da urade najneobičnije stvari.
Sugestije „slično Deren-Braunu“ funkcionišu jer je ljudski mozak zapravo daleko manje okretan i daleko linearniji nego što želimo da mislimo. Svest je dragoceni resurs i mnoge radnje koje često radimo prelaze u naviku, tako da ih možemo činiti bez razmišljanja i tako možemo sačuvati svest tamo gde je najpotrebnija.
Kroz naviku menjamo brzinu u automobilu sa ručnim menjačem, a da ne razmišljamo o tome. I svi smo iskusili tu igru u kojoj imate određeno vreme da smislite listu stvari kao što su zemlje, koja se završava slovom A. Ako se stavite na mesto pred gomilom, ponekad može biti teško smisliti i jednu. Mozak često zapravo nije toliko dobar u kreativnom razmišljanju ili brzom svesnom prisećanju na licu mesta.
Ali, ako vam je neko sa kim ste takođe razgovarali nekoliko minuta pre utakmice rekao o svom odmoru u Keniji, možete biti sigurni da će Kenija biti prvi odgovor koji će vam pasti u glavu. Više od toga asocijacija će se desiti automatski, hteli mi to ili ne!
Ovo je jednostavno način na koji mozak radi. Ako se informacija prenese u pravo vreme i na pravi način, može se učiniti gotovo sertifikatom da će se dati predlog slediti.
Deren Broun to razume i majstor je u tome da to iskorišćava.
Pretraživači i platforme društvenih medija imaju ogromnu moć da konstruišu ponašanje kroz suptilne predloge. I zaista, postoje dokazi da su Fejsbuk i Gugl to uradili.
Profesor i istraživač dr Robert Epštajn je – takoreći – „uhvatio Gugl” kako manipuliše okvirom za predloge za pretragu koji se pojavljuje ispod okvira za tekst u koji korisnici unose zahtev za pretragu. Cela epizoda je postala dodatno užasna kada je postalo jasno da su bili manipulativni i da su bili svesni da je njihovo eksperimentisanje neetično. Neću prepričavati sve detalje, ali pogledajte linkove do ovoga – to je zanimljiva priča sama po sebi.
Korisnici su u posebno poverljivom i prijemčivom mentalnom stanju kada koriste funkciju Guglovih predloženih linkova i ne primećuju kada rezultati sadrže radnje i imperativne predloge koji, daleko od toga da su najbolji odgovor na vaš upit za pretragu, a tu su da manipulišu narednim radnjama korisnika.
U odnosu na objave na društvenim mrežama, upotreba sugestije je često daleko suptilnija, što otežava otkrivanje i odupiranje. LLM analiza u bazi podataka korisničkih postova može otkriti srodne postove koji sugerišu radnje. Ovde mreža može da iskoristi činjenicu da ima mnogo miliona korisničkih poruka na raspolaganju, uključujući poruke koje sugerišu željene ishode. Takve poruke mogu biti odabrane i poželjno promovisane u korisničkim fidovima.
Umerenost sadržaja je, naravno, neophodna da bismo se nosili sa neprihvatljivim jezikom i antisocijalnim ponašanjem. Međutim, postoji velika siva zona u kojoj se neugodna mišljenja mogu označiti kao „govor mržnje“ i pošto je to siva zona, društvena mreža ima mnogo prostora da upadne u ličnu politiku i prostor slobode govora.
Termin „govor mržnje“ je bio veoma efikasan način da se opravda upotreba modela za zabranu, ali sada je glavna briga da je, sa uvođenjem LLM-a, velika istorijska prekretnica prošla jedva šapatom koji implicira potpuno novi nivo za takva ograničenja i pretnje slobodi komunikacije korisnika.
A ta prekretnica je da se sada LLM koriste za upravljanje ljudskim ponašanjem, a ne obrnuto. Prolazak ove prekretnice je jedva primećen jer smo već ranije imali jednostavnije algoritme koji su obavljali ovu ulogu i to se ionako radi u mraku.
Korisnici to ne vide sve dok na njih to ne utiče na očigledan način. Ali čak i pored toga, postoji dovoljno razloga za razmišljanje da ćemo se u budućnosti možda osvrnuti i prepoznati da je ova prekretnica bila nešto kao kritična tačka nakon koje je neka verzija „Sky-Net“ budućnosti postala neizbežna.
Samo prošle nedelje, premijer Velike Britanije Kir Starmer najavio je policijsku inicijativu za korišćenje društvenih medija za identifikaciju onih koji su uključeni u suzbijanje javnih nereda, ilustrujući kako je automatizovano izveštavanje LLM spremno da se koristi izvan društvenih medija i u kontekstu sprovođenja zakona.
Još uvek nema detalja o tome kako će se ovo nadgledanje obaviti, ali, imajući iskustvo sa predstavljanjem Tech Project-a, možete biti sigurni da će vlada imati spisak tehnoloških firmi koje predlažu rešenja. I možete biti sigurni da se LLM-ovi postavljaju kao sastavni deo skoro svih njih!
Tako smo ustanovili da su društveni mediji zatvoreni i vlasnički i omogućili su uspostavljanje novih struktura moći u medijima. Videli smo da vlasnici društvenih medija imaju moć da potisnu ili podstaknu viralnost postova i sada su primenili moderiranje i izveštavanje od strane LLM (AI) što izgleda da će se proširiti na akcije u stvarnom svetu. Videli smo da su preko Tviter fajlova korporacije društvenih medija prekršile zakon tokom pandemije i pokazale spremnost da sarađuju sa vladinim agencijama u cilju cenzure i suzbijanja nepogodnih.