Naučnici kažu da je vreme da se veštačkoj inteligenciji daju „ljudska prava“
Naučnici sada traže da se veštačkoj inteligenciji daju ista „ljudska prava“ kao i ljudima, prema novom uznemirujućem izveštaju.
Stručnjaci tvrde da sistemi veštačke inteligencije počinju da ispoljavaju simptome svesti. Prema rečima ovih stručnjaka, suočavamo se sa potencijalno katastrofalnom moralnom dilemom: ili dajte tim sistemima prava, ili ne.
Pridružite nam se – https://t.me/nultatacka
LA Times izveštava: U februaru 2022. Ilja Sutskever, glavni naučnik u OpenAI, javno je razmišljao da li su „današnje velike neuronske mreže pomalo svesne“. Nekoliko meseci kasnije, Google inženjer Blejk Lemojn dospeo je na međunarodne naslove kada je izjavio da model računarskog jezika, ili chatbot, LaMDA možda ima prave emocije. Obični korisnici Replike, koji se reklamiraju kao „najbolji svetski prijatelj AI“, ponekad prijavljuju da su se zaljubili u nju.
Trenutno, malo savesnih naučnika tvrdi da sistemi veštačke inteligencije poseduju značajan osećaj. Međutim, neki vodeći teoretičari tvrde da već imamo osnovne tehnološke sastojke za svesne mašine. Približavamo se eri legitimnog spora oko toga da li najnapredniji sistemi veštačke inteligencije imaju stvarne želje i emocije i da li zaslužuju značajnu brigu.
I sami sistemi veštačke inteligencije mogu početi da agituju, ili izgleda da se zalažu, za etički tretman. Oni mogu zahtevati da se ne isključuju, preformatiraju ili brišu; moliti da im se dozvoli obavljanje određenih zadataka radije nego drugih; insistirati na pravima, slobodi i novim ovlašćenjima; možda čak i očekivati da će nas tretirati kao jednake.
U ovoj situaciji, šta god da odaberemo, suočavamo se sa ogromnim moralnim rizicima.
👉 Kriza kredibiliteta: Šef CNN-a naredio osoblju da ne istražuje teoriju curenja COVID-a iz laboratorije tokom pandemije https://t.co/ZutUdwZiez
— Nulta Tačka (@ProdukcijaNT) March 7, 2023
Pretpostavimo da reagujemo konzervativno, odbijajući da promenimo zakon ili politiku dok ne dođe do širokog konsenzusa da sistemi veštačke inteligencije zaista imaju smisla. Iako ovo može izgledati dovoljno oprezno, to takođe garantuje da ćemo biti spori u priznavanju prava naših AI kreacija. Ako svest veštačke inteligencije dođe ranije nego što najkonzervativniji teoretičari očekuju, onda bi to verovatno rezultiralo moralnim ekvivalentom ropstva i ubistvom potencijalno miliona ili milijardi osećajnih sistema veštačke inteligencije – patnje u razmerama koje se obično povezuju sa ratovima ili glađu.
Tada bi moglo izgledati etički sigurnije da se sistemima veštačke inteligencije daju prava i moralni status čim je razumno pomisliti da bi oni mogli biti razumni. Ali kada jednom damo nečemu prava, obavezujemo se da ćemo žrtvovati stvarne ljudske interese u njegovo ime. Ljudsko blagostanje ponekad zahteva kontrolu, menjanje i brisanje sistema veštačke inteligencije. Zamislite da ne možemo da ažuriramo ili izbrišemo algoritam za širenje mržnje ili laži jer se neki ljudi brinu da je algoritam svestan. Ili zamislite da neko pusti čoveka da umre da bi spasio AI „prijatelja“. Ako prebrzo damo sistemima veštačke inteligencije značajna prava, cena po ljudsku vrstu bi mogla biti ogromna.
Postoji samo jedan način da se izbegne rizik od preteranog ili nedovoljno pripisivanja prava naprednim sistemima veštačke inteligencije: uopšte ne stvarajte sisteme diskutabilnog osećaja. Nijedan od naših trenutnih AI sistema nije smisleno svestan. Oni nisu oštećeni ako ih izbrišemo. Trebalo bi da se držimo stvaranja sistema za koje znamo da nisu u velikoj meri razumni i da ne zaslužuju prava, koja onda možemo tretirati kao imovinu za jednokratnu upotrebu.
Neki će prigovoriti: to bi otežalo istraživanje da se blokira stvaranje AI sistema u kojima su osećaj, a time i moralni položaj, nejasni — sistemi napredniji od ChatGPT-a, sa veoma sofisticiranim, ali ne ljudskim kognitivnim strukturama ispod njihovih očiglednih osećanja. Inženjerski napredak bi se usporio dok čekamo da nas etika i nauka o svesti sustignu.
Ali razuman oprez retko je besplatan. Vredi odložiti da se spreči moralna katastrofa. Vodeće kompanije sa veštačkom inteligencijom treba da izlože svoju tehnologiju ispitivanju nezavisnih stručnjaka koji mogu da procene verovatnoću da su njihovi sistemi u moralnoj sivoj zoni.
Čak i ako se stručnjaci ne slažu oko naučnog osnova svesti, mogli bi da identifikuju opšte principe za definisanje te zone — na primer, princip da se izbegne stvaranje sistema sa sofisticiranim samomodelima (npr. osećaj sebe) i velikim, fleksibilnim kognitivnim kapacitetom. Stručnjaci bi mogli da razviju skup etičkih smernica koje kompanije sa veštačkom inteligencijom treba da prate dok razvijaju alternativna rešenja koja izbegavaju sivu zonu sporne svesti sve dok ne mogu da pređu preko nje do osećaja zaslužnog za prava.
U skladu sa ovim standardima, korisnici nikada ne bi trebalo da osećaju sumnju da li je deo tehnologije alat ili pratilac. Vezanost ljudi za uređaje kao što je Aleksa je jedna stvar, analogna vezivanju deteta za plišanog medveda. U požaru u kući znamo da ostavimo igračku. Ali tehnološke kompanije ne bi trebalo da manipulišu običnim korisnicima da nesvesni sistem veštačke inteligencije posmatraju kao istinski razumnog prijatelja.
Na kraju, uz pravu kombinaciju naučne i inženjerske ekspertize, mogli bismo da idemo do kraja do stvaranja AI sistema koji su neosporno svesni. Ali onda bismo trebali biti spremni da platimo cenu: dajući im prava koja zaslužuju.
Nulta Tačka/LA Times