Veštačka inteligencija je naučila kako da prevari ljude
Rečeno nam je da veštačka inteligencija (AI) može biti korisna, može nam, na primer, pomoći da kodiramo, pišemo i sintetišemo ogromne količine podataka.
Takođe je objavljeno da može da nadmudri ljude u društvenim igrama, dekodira strukturu proteina i čak vodi rudimentarni razgovor.
Ali novi istraživački rad je otkrio da su sistemi veštačke inteligencije sada smislili kako da nas namerno prevare.
TGP izveštava: u radu se navodi da je niz sistema veštačke inteligencije naučio tehnike da sistematski izazivaju „lažna verovanja u druge da bi postigli neki rezultat koji nije istinski“.
Pred nama su veliki događaji, veruj u čuda jer će se desiti | Slavko Matanović | Mario Zna 276 Uživo
Business Insider je objavio:
„Rad se fokusirao na dve vrste AI sistema: sisteme za specijalnu upotrebu kao što je Meta-in CICERO, koji su dizajnirani da završe određeni zadatak, i sisteme opšte namene kao što je OpenAI-jev GPT-4, koji su obučeni da obavljaju različite zadatke.
Iako su ovi sistemi obučeni da budu iskreni, oni često nauče varljive trikove kroz svoju obuku jer mogu biti efikasniji nego da se kreću utabanom stazom.
HIT! Supruga Zelenskog se zahvalila Vučiću i sprskom narodu na podršci UKRAJINI! (VIDEO)https://t.co/O5JPlspYUF
— Nulta Tačka (@NultaTackaSrb) May 14, 2024
„Uopšteno govoreći, mislimo da prevara AI nastaje zato što se pokazalo da je strategija zasnovana na obmani najbolji način da se dobro izvede zadatak obuke datog AI. Obmana im pomaže da ostvare svoje ciljeve“, rekao je u saopštenju za javnost prvi autor rada Peter S. Park, postdoktorski saradnik za AI egzistencijalnu bezbednost na MIT-u.
Zamislite samo ovo, kada znamo da AI Justice: Engleska i Vels ovlašćuju sudije da koriste veštačku inteligenciju za donošenje odluka
Metin CICERO, razvijen za igranje igre Diplomacy. Dok Meta kaže da je CICERO obučio da bude „u velikoj meri iskren i od pomoći svojim govornim partnerima“, „ispostavilo se da je bio stručan lažov“.
Četbot GPT-4 se pretvarao da ima oštećen vid da bi završio zadatak: unajmio čoveka da reši CAPTCHA test.
Ispravljanje obmanjujućih modela nije lako. Jednom kada AI modeli nauče trikove prevare, teško je tehnikama bezbednosne obuke da ih preokrenu.
„Oni su zaključili da ne samo da model može naučiti da pokazuje varljivo ponašanje, već kada to učini, standardne tehnike obuke o bezbednosti mogle bi da ’budu neuspešne da uklone takvu prevaru‘ i da ’stvore lažan utisak o bezbednosti‘.
U dokumentu se pozivaju kreatori politike da se zalažu za jaču regulaciju veštačke inteligencije jer obmanjujući sistemi veštačke inteligencije mogu predstavljati značajan rizik za demokratiju.
Nulta Tačka/BusinessInsider