Deepfake pornografija može da donese velike probleme u jeku trke za razvoj Veštačke inteligencije
Veštačka inteligencija može da se koristi za kreiranje umetnosti, isprobavanje odeće u virtuelnim svlačionicama ili pomoć u dizajniranju reklamnih kampanja
Deepfake pornografija mogla bi da bude sve veći problem usred trke veštačke inteligencije.
Ali stručnjaci strahuju da bi tamnija strana lako dostupnih alata mogla da pogorša nešto što prvenstveno šteti ženama: pornografiju bez pristanka.
Deepfakes su video snimci i slike koje su digitalno kreirane ili izmenjene pomoću veštačke inteligencije ili mašinskog učenja. Pornografija stvorena pomoću ove tehnologije prvi put je počela da se širi internetom pre nekoliko godina kada je korisnik Reddit-a podelio klipove sa licima ženskih slavnih ličnosti koja su postavljena na ramena porno glumica.
Od tada, kreatori deepfake-a su širili slične video snimke i slike koji ciljaju na onlajn influensere, novinare i druge sa javnim profilom. Hiljade video snimaka postoje na mnoštvu veb lokacija. A neki su korisnicima nudili priliku da kreiraju sopstvene slike – u suštini omogućavajući svima da pretvaraju koga god žele u seksualne fantazije bez njihovog pristanka ili da koriste tehnologiju da nanesu štetu bivšim partnerima.
Problem je, kažu stručnjaci, rastao kako je postalo lakše praviti sofisticirane i vizuelno ubedljive deepfake. I kažu da bi se moglo pogoršati razvojem generativnih AI alata koji su obučeni na milijardama slika sa interneta i izbacuju novi sadržaj koristeći postojeće podatke.
„Realnost je da će tehnologija nastaviti da se širi, da će nastaviti da se razvija i da će nastaviti da postaje još pristupačnija kao pritiskanje dugmeta“, rekao je Adam Dodž, osnivač EndTAB, grupe koja pruža obuku o zloupotrebi koja je omogućena tehnologijom. „I sve dok se to dešava, ljudi će nesumnjivo… nastaviti da zloupotrebljavaju tu tehnologiju kako bi naudili drugima, prvenstveno putem seksualnog nasilja na mreži, lažne pornografije i lažnih slika golih ljudi.
Noel Martin iz Perta, u Australiji, iskusila je tu stvarnost. Ova 28-godišnjakinja je pre 10 godina pronašla lažnu pornografiju sebe kada je jednog dana iz radoznalosti koristila Gugl da pretraži svoje slike. Martin do danas kaže da ne zna ko je napravio lažne slike ili video snimke njenog upuštanja u seksualni odnos koje će kasnije pronaći. Ona sumnja da je neko verovatno snimio sliku objavljenu na njenoj stranici na društvenim mrežama ili negde drugde i pretvorio je u pornografiju.
👉 Izveštaj UN-a poziva na LEGALIZACIJU droge i seksualnih aktivnosti uključujući i PEDOFILIJU https://t.co/R3TKjwHOIf
— Nulta Tačka (@ProdukcijaNT) April 17, 2023
Užasnuta, Noel Martin je nekoliko godina kontaktirala različite veb stranice u pokušaju da se sklone slike. Neki nisu odgovorili. Drugi su ih skinuli, ali ona ih je ubrzo ponovo našla.
„Ne možete pobediti“, rekla je Martin. „Ovo je nešto što će uvek biti tamo. Baš kao da te je zauvek uništilo“.
Što je više govorila, rekla je, problem je više eskalirao. Neki ljudi su joj čak rekli da je način na koji se oblači i postavlja slike na društvenim mrežama doprineo uznemiravanju – u suštini okrivljujući nju za slike umesto kreatora.
Na kraju je Noel Martin skrenula pažnju na zakone, zalažući se za nacionalni zakon u Australiji koji bi kaznio kompanije sa 555.000 australijskih dolara ako se ne pridržavaju obaveštenja o uklanjanju takvog sadržaja od regulatora za bezbednost na mreži.
Ali upravljanje internetom je skoro nemoguće kada zemlje imaju svoje zakone za sadržaj koji ponekad cirkuliše u pola sveta. Martin, trenutno advokat i pravni istraživač na Univerzitetu Zapadne Australije, kaže da veruje da se problem mora kontrolisati kroz neku vrstu globalnog rešenja.
U međuvremenu, neki modeli veštačke inteligencije kažu da već ograničavaju pristup eksplicitnim slikama.
OpenAI kaže da je uklonio eksplicitan sadržaj iz podataka koji se koriste za obuku alata za generisanje slika DALL-E, što ograničava mogućnost korisnika da kreiraju te vrste slika. Kompanija takođe filtrira zahteve i kaže da blokira korisnike da kreiraju AI slike poznatih ličnosti i istaknutih političara. Midjourney, još jedan model, blokira upotrebu određenih ključnih reči i podstiče korisnike da moderatorima označe problematične slike.
U međuvremenu, startup Stability AI je u novembru izbacio ažuriranje koje uklanja mogućnost kreiranja eksplicitnih slika pomoću svog generatora slika Stable Diffusion. Te promene su usledile nakon izveštaja da su neki korisnici pomoću tehnologije kreirali golišave slike inspirisane slavnim ličnostima.
Portparol AI za Stability, Motez Bišara, rekao je da filter koristi kombinaciju ključnih reči i drugih tehnika kao što je prepoznavanje slika za otkrivanje golotinje i vraća zamućenu sliku. Ali moguće je da korisnici manipulišu softverom i generišu ono što žele pošto kompanija objavljuje svoj kod javnosti. Bišara je rekao da se licenca Stability AI „proširuje na aplikacije trećih strana izgrađene na Stable Diffusion“ i strogo zabranjuje „svaku zloupotrebu u nezakonite ili nemoralne svrhe“.
Neke kompanije društvenih medija takođe su pooštrile svoja pravila kako bi bolje zaštitile svoje platforme od štetnih materijala.
TikTok je prošlog meseca saopštio da svi deepfakes ili izmanipulisani sadržaji koji prikazuju realistične scene moraju biti označeni kako bi se ukazalo da su lažni ili izmenjeni na neki način, i da deepfakes privatnih ličnosti i mladih ljudi više nisu dozvoljeni. Ranije je kompanija zabranila seksualno eksplicitan sadržaj i lažne stvari koje obmanjuju gledaoce o događajima u stvarnom svetu i nanose štetu.
Platforma za igre Tvitch je takođe nedavno ažurirala svoje politike u vezi sa eksplicitnim deepfake slikama nakon što je otkriveno da popularni strimer po imenu Atrioc ima otvorenu deepfake porno veb lokaciju u svom pretraživaču tokom lajv strima krajem januara. Sajt je sadržao lažne slike drugih Tvitch strimera.
Tvitch je već zabranjivao eksplicitne deepfakes, ali sada prikazuje uvid u takav sadržaj — čak i ako je namenjen da izrazi gnev — „biće uklonjen i rezultiraće prinudom“, napisala je kompanija u postu na blogu. A namerno promovisanje, kreiranje ili deljenje materijala je osnova za trenutnu zabranu.
Druge kompanije su takođe pokušale da zabrane deepfake sa svojih platformi, ali njihovo sprovođenje zahteva marljivost.
Apple i Google su nedavno rekli da su uklonili aplikaciju iz svojih prodavnica aplikacija koja je prikazivala seksualno sugestivne lažne video snimke glumica kako bi reklamirali proizvod. Pokazivanje „lažne pornografije“ nije preovlađujuće, ali jedan izveštaj koji je 2019. objavila AI firma DeepTrace Labs otkrio je da je gotovo u potpunosti zloupotrebljen protiv žena i da su najviše ciljane osobe bile zapadne glumice, a zatim južnokorejske K-pop pevačice.
Ista aplikacija koju su uklonili Google i Apple je prikazivala oglase na platformi Meta, koja uključuje Facebook, Instagram i Messenger. Portparol kompanije Meta Dani Lever rekao je u saopštenju da politika kompanije ograničava sadržaj za odrasle koji generiše veštačka inteligencija i sadržaj koji nije napravljen od veštačke inteligencije i da je ograničila oglašavanje stranice aplikacije na njenim platformama.
U februaru, Meta, kao i sajtovi za odrasle kao što su OnlyFans i Pornhub, počeli su da učestvuju u onlajn alatu pod nazivom Take It Down, koji omogućava tinejdžerima da prijave eksplicitne slike i video zapise o sebi sa interneta. Sajt za izveštavanje radi za redovne slike i sadržaj generisan veštačkom inteligencijom — što je postalo sve veća briga grupa za bezbednost dece.
„Kada ljudi pitaju naše više rukovodstvo koje su to kamene gromade koje se spuštaju niz brdo zbog kojih smo zabrinuti? Prvi je enkripcija od kraja do kraja i šta to znači za zaštitu dece. A drugo je veštačka inteligencija i posebno deepfakes“, rekao je Gavin Portnoj, portparol Nacionalnog centra za nestalu i eksploatisanu decu, koji upravlja alatom Take It Down.
„Nismo… još uvek bili u stanju da formulišemo direktan odgovor na to“, rekao je Portnoj.