ITALIJA blokira ChatGPT veštačku inteligenciju zbog bezbednosti podataka korisnika
Agencija za zaštitu podataka italijanske vlade objavila je da će bot sa veštačkom inteligencijom ChatGPT biti zabranjen u zemlji dok ne bude u skladu sa propisima o privatnosti podataka.
Italijanski garant za zaštitu ličnih podataka objavio je u petak da će OpenAI, tehnološkoj kompaniji iz Silicijumske doline koja stoji iza softverske aplikacije ChatGPT koja se koristi za simulaciju i obradu razgovora nalik ljudima, biti privremeno zabranjen zbog pristupa italijanskim korisničkim podacima putem kojih razvija svoje algoritme i mašinsko učenje.
Regulatorni organ je dalje rekao da je otvorio istragu kao odgovor na navodnu povredu podataka „u vezi sa razgovorima korisnika i informacijama u vezi sa plaćanjem pretplatnika na plaćenu uslugu“.
Garant privatnosti optužio je OpenAI za nedostatak transparentnosti za svoje korisnike i druge zainteresovane strane u pogledu prikupljanja podataka i tvrdio da ne postoji zakonsko opravdanje da program obriše ogromne količine podataka sa interneta kako bi njegov algoritam treba da bude obučen da oponaša ljudske odgovore na upite.
Pored toga, italijanski regulatori su rekli da je tehnološka kompanija prekršila sopstvene uslove korišćenja usluge ChatGPT, jer, iako je usluga usmerena na osobe starije od 13 godina, ne postoje filteri za verifikaciju uzrasta koji bi sprečili malu decu od pristupaju programu.
UPOZORENJE STRUČNJAKA! ZBOG OVOGA ĆE MNOGI OSTATI BEZ POSLA
ChatGPT pruža „apsolutno neprikladne odgovore u pogledu njihovog stepena razvoja i samosvesti“, rekli su iz organizacije za sigurnost privatnosti o deci koja koriste AI bot.
Regulator privatnosti je nastavio da zahteva da OpenAI „saopšti u roku od 20 dana o preduzetim merama” kako bi bio u skladu sa propisima ili rizikovao kaznu od 20 miliona evra ili 4 odsto svog globalnog prometa.
Ovaj potez italijanske vlade dolazi samo nekoliko dana nakon izveštaja Agencije Evropske unije za saradnju u sprovođenju zakona (Europol), koji upozorava na potencijalne kriminalne primene aplikacije veštačke inteligencije.
Evropa je upozorila da bi ChatGPT mogao biti potencijalno blago za prevarante, rekavši: „Sposobnost ChatGPT-a da izradi veoma realističan tekst čini ga korisnim alatom za phishing svrhe. Sposobnost LLM-a da ponovo proizvedu jezičke obrasce može se koristiti za oponašanje stila govora određenih pojedinaca ili grupa. Ova sposobnost može biti zloupotrebljena u velikim razmerama da bi se potencijalne žrtve dovele u zabludu da svoje poverenje stave u ruke kriminalnih aktera.“
Agencija za sprovođenje zakona Evropske unije je dalje upozorila da je zbog svoje sposobnosti da proizvede „autentični zvučni tekst u brzini i obimu” takođe idealan za širenje propagande i dezinformacija.
Konačno, Europol je rekao da, pošto je pored repliciranja ljudskog govora, ChatGPT takođe vešt u proizvodnji programskog koda, sajber kriminalci bi mogli da iskoriste program za primenu hakovanja i drugih zlonamernih sajber zločina čak i ako sami kriminalci imaju ograničeno tehnološko znanje.