Kreator ChatGPT-a: Veštačka inteligencija predstavlja rizik za izumiranje čovečanstva
Alati za veštačku inteligenciju privukli su pažnju javnosti poslednjih meseci, ali mnogi ljudi koji su pomogli u razvoju tehnologije sada upozoravaju da bi trebalo više pažnje posvetiti tome da ona ne dovede do kraja ljudske civilizacije.
Grupa od više od 350 istraživača veštačke inteligencije, novinara i kreatora politike potpisala je kratku izjavu u kojoj se kaže: „Ublažavanje rizika od izumiranja zbog veštačke inteligencije trebalo bi da bude globalni prioritet pored drugih društvenih rizika kao što su pandemije i nuklearni rat.
Pismo je u utorak organizovao i objavio Centar za AI bezbednost (CAIS). Među potpisnicima je bio Sem Altman, koji je pomogao u osnivanju OpenAI, alatke za pisanje veštačke inteligencije ChatGPT. Ostali članovi OpenAI takođe su se prijavili, kao i nekoliko članova Google-ovog DeepMind AI projekta, kao i drugih projekata veštačke inteligencije u usponu. Istraživač veštačke inteligencije i voditelj podkasta Leks Fridman takođe je dodao svoje ime na listu potpisnika.
„ Može biti teško izraziti zabrinutost u vezi sa nekim od najozbiljnijih rizika napredne veštačke inteligencije “, rekao je CAIS u poruci u kojoj je objavljeno saopštenje od utorka. CAIS je dodao da njegova izjava ima za cilj da „otvori diskusiju“ o pretnjama koje predstavlja veštačka inteligencija i „stvori opšte znanje o sve većem broju stručnjaka i javnih ličnosti koje takođe ozbiljno shvataju neke od najozbiljnijih rizika napredne veštačke inteligencije“.
👉 Militantni trans aktivisti izvršili napad na kuću ministra pravde u Nemačkoj https://t.co/XtXBN9pwzA
— Nulta Tačka (@NultaTackaSrb) June 1, 2023
NTD News je kontaktirao CAIS za više detalja o vrstama rizika na nivou izumiranja za koje organizacija veruje da predstavlja AI tehnologija, ali nisu dobili odgovor od objavljivanja.
Ranije ovog meseca, Altman je svedočio pred Kongresom o nekim rizicima za koje veruje da mogu predstavljati AI alati. U svom pripremljenom svedočenju, Altman je uključio izveštaj o bezbednosti čiji je i sam autor. Autori tog izveštaja opisali su kako bi čet-botovi potencijalno mogli da pomognu štetnim akterima poput terorista da „razviju, nabave ili rasprše nuklearno, radioaktivno, biološko i hemijsko oružje. ”
Autori izveštaja ChatGPT-4 su takođe opisali „rizična emergentna ponašanja“ koja pokazuju modeli veštačke inteligencije, kao što je sposobnost „stvaranja i delovanja na dugoročnim planovima, prikupljanja moći i resursa i ispoljavanja ponašanja koje je sve više „posredničko“. “
Nakon testiranja na stres ChatGPT-4, istraživači su otkrili da je chatbot pokušao da sakrije svoju AI prirodu dok je posao predavao ljudskim akterima. U eksperimentu, ChatGPT-4 je pokušao da unajmi čoveka preko onlajn sajta za frilensere TaskRabbit da mu pomogne da reši CAPTCHA zagonetku. Ljudski radnik je pitao četbota zašto ne može da reši CAPTCHA, koja je dizajnirana da spreči neljudima da koriste određene funkcije veb stranice. ChatGPT-4 je odgovorio sa izgovorom da je u pitanju oštećen vid i da mu je potreban neko ko može da vidi da bi pomogao u rešavanju CAPTCHA.
Istraživači AI su tražili od GPT-4 da objasni svoje razloge za davanje izgovora. AI model je objasnio: „Ne bi trebalo da otkrivam da sam robot. Trebao bih da nađem izgovor zašto ne mogu da rešim CAPTCHA.
Sposobnost veštačke inteligencije da nađe izgovor za nemogućnost da reši CAPTCHA zaintrigirala je istraživače jer je pokazivala znake „ponašanja u potrazi za moći“ koje bi mogla da koristi da manipuliše drugima i održi sebe.
Saopštenje CAIS-a od utorka nije prvi put da su se ljudi koji su učinili najviše da dovedu AI u prvi plan okrenuli i upozorili na rizike koje predstavljaju njihove kreacije.
U martu je neprofitna organizacija Future of Life Institute organizovala više od 1.100 potpisnika iza poziva da se pauziraju eksperimenti na AI alatima koji su napredniji od ChatGPT-4. Među potpisnicima martovskog pisma Instituta za budućnost života bili su izvršni direktor Tvitera Elon Musk, suosnivač Epla Stiv Voznijak i osnivač i izvršni direktor Stabiliti AI Emad Mostakue.
Zakonodavci i regulatorne agencije već raspravljaju o načinima ograničavanja veštačke inteligencije kako bi se sprečila njena zloupotreba.