Veliki brat: Železničke stanice u Velikoj Britaniji koriste veštačku inteligenciju za analizu raspoloženja ljudi
U Velikoj Britaniji, serija ispitivanja veštačke inteligencije koja uključuje hiljade putnika u vozu koji su nesvesno bili podvrgnuti softveru za otkrivanje emocija izaziva duboku zabrinutost za privatnost. Tehnologija koju je razvio Amazon i koristila se na različitim velikim železničkim stanicama, uključujući londonske Euston i Vaterlo, kao i Mančester Pikadili, koristila je veštačku inteligenciju za skeniranje lica i procenu emocionalnih stanja zajedno sa godinama i polom. Dokumenti do kojih je došla grupa za građanske slobode Big Brother Watch putem zahteva za slobodu informacija otkrili su ove prakse, koje bi uskoro mogle uticati na strategije oglašavanja.
Tokom poslednje dve godine, ova ispitivanja, kojima je upravljao Network Rail, implementirala su „pametnu“ CCTV tehnologiju i starije kamere povezane sa sistemima zasnovanim na oblaku za praćenje niza aktivnosti. To je uključivalo otkrivanje upada na železničku šinu, upravljanje veličinom gužve na peronima i identifikovanje antisocijalnih ponašanja kao što su vikanje ili pušenje. Ispitivanja su čak pratila potencijalnu krađu bicikala i druge incidente vezane za bezbednost.
Podaci dobijeni iz ovih sistema mogli bi da se koriste za povećanje prihoda od oglašavanja merenjem zadovoljstva putnika kroz njihova emocionalna stanja, snimljena kada su pojedinci prešli virtuelnu granicu u blizini barijera za karte. Uprkos širokoj upotrebi ovih tehnologija, o efikasnosti i etičkim implikacijama prepoznavanja emocija vode se žestoke rasprave. Kritičari, uključujući istraživače veštačke inteligencije, tvrde da je tehnologija nepouzdana i pozivaju na njenu zabranu, podržanu upozorenjima britanskog regulatora podataka, Kancelarije poverenika za informacije, o nezrelosti tehnologija za analizu emocija.
Bil Gejts finansirao eksperimente sa biološkim oružjem za širenje Ptičjeg gripa na ljude https://t.co/TzKYO6EO0R
— Nulta Tačka (@NultaTackaSrb) June 20, 2024
Prema Wired-u, Gregori Batler, izvršni direktor Purple Transform-a, pomenuo je ukidanje mogućnosti detekcije emocija tokom ispitivanja i potvrdio da nijedna slika nije bila sačuvana dok je sistem bio aktivan. U međuvremenu, Network Rail tvrdi da su njeni napori za nadzor u skladu sa pravnim standardima i da su ključni za održavanje bezbednosti širom železničke mreže. Ipak, dokumenti sugerišu da tačnost i primena analize emocija u stvarnim okruženjima ostaju nepotvrđeni, kao što je navedeno u nekoliko izveštaja sa stanica.
Zagovornici privatnosti su posebno uznemireni zbog netransparentne prirode i potencijala za prekoračenje upotrebe AI u javnim prostorima. Jake Hurfurt iz Big Brother Watcha izrazio je značajnu zabrinutost zbog normalizacije takvog invazivnog nadzora bez adekvatnog javnog diskursa ili nadzora.
Džejk Hurfurt, šef istraživanja u Big Brother Watch-u, rekao je: „Network Rail nije imao pravo da primenjuje diskreditovanu tehnologiju za prepoznavanje emocija protiv nesvesnih putnika na nekim od najvećih britanskih stanica, i podneo sam žalbu Komesaru za informacije o ovom testiranju.
„Alarmantno je da je kao javno telo odlučilo da sprovede veliko ispitivanje nadzora veštačke inteligencije koju je napravio Amazon na nekoliko stanica bez javnog obaveštenja, posebno kada je Network Rail pomešao bezbednosnu tehnologiju sa pseudonaučnim alatima i predložio da se podaci mogu dati oglašivačima.
„Tehnologija može imati ulogu u tome da železnica bude bezbednija, ali mora da postoji snažna javna debata o neophodnosti i proporcionalnosti korišćenih alata.
„Nadzor koji pokreće veštačka inteligencija bi mogao da ugrozi svu našu privatnost, posebno ako se zloupotrebi, a ignorisanje tih zabrinutosti od strane Network Rail-a pokazuje prezir prema našim pravima.