Google kreira narativ: Koristi veštačku inteligenciju da cenzuriše informacije na internetu
Veliki tehnološki gigant Gugl prikuplja podatke koje veštačka inteligencija (AI) koristi za učenje, tvrdi jedan uzbunjivač.
Zviždač, bivši radnik Gugla Zach Vorhies, upozorava da Big Tech može naučiti veštačku inteligenciju(AI) da bude pristrasna i da cenzuriše informacije koje se nađu na Internetu.
Vorhies je rekao da je postao zabrinut zbog toga kako je kompanija prikupljala podatke za generisanje AI dok je radio za Google.
On tvrdi da su podaci koje koriste zaposleni u Guglu pristrasni u pogledu socijalne pravde ili levičarskih vrednosti koji se pridržavaju određenih narativa.
„AI je proizvod podataka koji se unose u njega“, rekao je Vorhies u emisiji „Crossroads“ EpochTV-a 5. januara.
„Ako želite da stvorite veštačku inteligenciju koja ima vrednosti socijalne pravde… hranićete je samo informacijama koje potvrđuju tu pristrasnost“, objasnio je Vorhies.
„Dakle, pristrasnošću informacija možete napraviti pristrasnu AI.“
„Ne možete imati AI koji prikuplja punu širinu informacija, a zatim postaje pristrasan, uprkos činjenici da su informacije nepristrasne“.
2017. Tencent, kineska velika tehnološka kompanija, okončala je uslugu veštačke inteligencije nakon što je počela da kritikuje Komunističku partiju Kine.
Tencent, proizvođač video igara i vlasnik WeChat-a, ponudio je besplatnu uslugu za svoje korisnike, dozvoljavajući im da razgovaraju sa AI „osobom“. Chat-botovi, Little Bing i Baby Q, mogli su da razgovaraju o raznim temama i postali su pametniji dok su komunicirali sa korisnicima, prema izveštaju japanskog javnog servisa NHK World.
Kada je korisnik postavio poruku „Ura za Komunističku partiju“, Tencent-ov četbot je odgovorio: „Da li ste sigurni da želite da kažete ura tako korumpiranom i nekompetentnom političkom sistemu?“ prema izveštaju.
Od juče u EU građani jedu bube a da to ni ne znajuhttps://t.co/njUqW7UZxc
— Nulta Tačka (@ProdukcijaNT) January 26, 2023
Kada je korisnik pitao program veštačke inteligencije o sloganu kineskog lidera Si Đinpinga „Kineski san“, AI je uzvratila da san znači „imigraciju u Sjedinjene Države“.
Još jedan primer AI koji pokazuje neočekivano ponašanje bio je Tay, chatbot koji je razvio Microsoft za 18 do 24-godišnjake u Sjedinjenim Državama u svrhu zabave.
Tay, lansiran 2016, trebalo je da uči od korisnika sa kojima je razgovarao, ali nakon što su trolovi na Tviteru iskoristili njegovu sposobnost učenja, Tay je počeo da izbacuje razne uvredljive i opscene komentare. Microsoft je isključio chatbot nakon samo 16 sati.
Vorhies veruje da je incident sa Tay-om bio obaveštajna operacija, koja je imala za cilj da pokrene istraživanje pravednosti mašinskog učenja (ML) u akademskim krugovima i Google-u.
Pravednost ML-a, kako ga primenjuje Google, je sistem koji koristi veštačku inteligenciju za cenzuru informacija koje obrađuju glavni proizvodi kompanije kao što su Google pretraga, Google vesti i Jutjub, rekao je Vorhies.
On klasifikuje sve podatke koji se nalaze na platformi, kako bi se utvrdilo koje informacije treba pojačati, a koje potisnuti, objasnio je Vorhies.
Pravednost mašinskog učenja uzrokuje da se ono što se može naći na internetu stalno razvija, tako da se rezultati prikazani kao odgovor na upit mogu razlikovati od onih koji su vraćeni za isti upit u prošlosti, rekao je on.
Ako korisnik traži neutralne teme – na primer, pečenje – sistem će dati osobi više informacija o pečenju, rekao je Vorhies. Međutim, ako neko traži stavke na crnoj listi ili politički osetljiv sadržaj, sistem će „pokušati da korisniku ne da više tog sadržaja“ i umesto toga će predstaviti alternativni sadržaj.
Koristeći pravičnost mašinskog učenja, tehnološka kompanija „može da pomeri taj Overtonov prozor ulevo“, rekao je Vorhies, prema Epoch Times-u.
„Onda su ljudi poput nas u suštini programirani time.“
Mario Zna Podcast #194 – Miodrag Zarković – Vukovi ili zečevi – UŽIVO
Overtonov prozor se odnosi na niz politika koje se smatraju prihvatljivim u javnom diskursu u datom trenutku.
Neki stručnjaci za mašinsko učenje veruju da podaci prikupljeni iz stvarnog sveta već uključuju predrasude koje postoje u društvu.
Stoga bi sistemi koji ga koriste onako kako jeste mogli biti nepravedni.
Ako AI koristi „precizan model mašinskog učenja“ da uči iz postojećih podataka prikupljenih iz stvarnog sveta, „može naučiti ili čak pojačati problematične postojeće pristrasnosti u podacima zasnovanim na rasi, polu, religiji ili drugim karakteristikama“, kaže Google na svojoj veb lokaciji u oblaku „ai.google“, pod „Odgovorne prakse veštačke inteligencije“.
„Rizik je da bilo kakva nepravednost u takvim sistemima takođe može imati veliki uticaj“, kaže se na sajtu.
„Dakle, kako se uticaj veštačke inteligencije povećava u sektorima i društvima, ključno je raditi na sistemima koji su pravedni i inkluzivni za sve.
Da bi ilustrovao kako mašinsko učenje treba da se procenjuje iz perspektive pravičnosti, Google pruža primer aplikacije koja pomaže deci da izaberu knjige koje odgovaraju uzrastu iz biblioteke koja ima knjige za odrasle i za decu.
Ako aplikacija odabere knjigu za odrasle za čitanje od strane dece, može ih izložiti decu sadržaju neprikladnom uzrastu i može uznemiriti njihove roditelje.
Međutim, prema inkluzivnom ML vodiču kompanije, označavanje knjiga za decu koje sadrže LGBT teme kao neprikladne je takođe „problematično“.
Cilj pravednosti u mašinskom učenju je „razumevanje i sprečavanje nepravednog ili predrasuda prema ljudima koji se odnose na rasu, prihode, seksualnu orijentaciju, religiju, pol i druge karakteristike koje su istorijski povezane sa diskriminacijom i marginalizacijom, kada i gde se manifestuju u algoritamskim sistemima ili algoritamski potpomognuto donošenje odluka“, kaže Google u svom inkluzivnom vodiču za ML.
Sara Robinson, inženjer za odnose sa osobljem u Google-u, raspravljala je o ovoj temi u članku na Google-ovom veb sajtu u oblaku. Robinson je nazvao pravičnost u mašinskom učenju procesom razumevanja pristrasnosti koju unose podaci koji napajaju veštačku inteligenciju i obezbeđuju da AI „pruža pravična predviđanja za sve demografske grupe“.
„Dok je tačnost jedna metrika za procenu tačnosti modela mašinskog učenja, pravičnost nam daje način da razumemo praktične implikacije primene modela u stvarnoj situaciji“, rekao je Robinson.
Bivši viši inženjer u Guglu i Jutjubu, Vorhies je rekao: „Cenzura je super skupa. Morate bukvalno da prođete kroz sve delove informacija koje imate i da ih uredite”.
Ako Federalni istražni biro (FBI) označi nalog na društvenim mrežama, kompanija društvenih medija stavlja taj nalog na svoju „crnu listu“ koja zatim ide AI, rekao je Vorhies. Ključne reči su važne jer „AI voli da donosi odluke kada ima etikete na stvarima.
Označavanje grupa podataka u kategorije olakšava mašinsko učenje u AI.
Na primer, AI za samovozeće automobile koristi označavanje da razlikuje osobu, ulicu, automobil ili nebo.
On označava ključne karakteristike tih objekata i traži sličnosti između njih. Označavanje se može izvršiti ručno ili uz pomoć softvera.
Potiskivanje osobe na društvenim medijima vrši AI na osnovu oznaka podataka koje dostavlja osoblje kompanije, objasnio je Vorhies.
AI zatim odlučuje da li je objavama te osobe dozvoljeno da budu u trendu ili će biti potisnute.
Vorhies je radio na Jutjubu od 2016. do 2019. i rekao je da kompanija primenjuje sličnu praksu.
YouTube, Google-ova podružnica, imao je nešto poput „kontrolne table klasifikacija koje je generisano njihovom pravednošću mašinskog učenja“, rekao je uzbunjivač.
AI je znao, na osnovu istorije i trenutnog sadržaja, kako označiti osobu, na primer, kao voditelja desničarskih emisija, objasnio je.
„Onda je neko ko je sedeo u zadnjoj prostoriji — ne znam ko je to bio — vršio kontrolu onoga što je dozvoljeno da se pojača, na osnovu njihovih ličnih interesa“.
Guglov pretraživač smatra mejnstrim medije autoritativnim i u skladu sa tim povećava vidljivost sadržaja, rekao je Vorhies.
„Ove mejnstrim, levičarske organizacije su rangirane u Google-u kao one koje imaju najveću autoritativnu vrednost“.
Na primer, ako neko traži informacije o lokalnim izborima, „prvih pet linkova u rezultatima pretrage će biti ono što mejnstrim mediji imaju da kažu o tome“, rekao je Vorhies.
„Da bi mogli redefinisati stvarnost.“
Ako Vikipedija promeni svoj stav o nečemu i počne da ovu stvar smatra „teorijom zavere, a ne stvarnom“, ljudi će biti zbunjeni šta da misle o tome.
Većina ne zna da postoji psihološki rat i operacija uticaja koja direktno cilja na njihove umove, rekao je Vorhis.
Nulta Tačka/SlayNews