
NAUČNICI DIGLI UZBUNU: Veštačka Inteligencija sada može da stvori svoje replike bez kontrole ljudi – Ovo je uvod u SKYNET
Naučnici tvrde da se veštačka inteligencija „sada može replicirati“ i upozoravaju da je pređena kritična „crvena linija“.
Prema stručnjacima u Kini, odsustvo ljudske intervencije u procesu replikacije može biti rana indikacija lažne AI.
Rogue AI se obično odnosi na sisteme veštačke inteligencije koji stiču određeni nivo samosvesti ili autonomije, a zatim počinju da deluju protiv ljudskih interesa.
U nedavnoj studiji, istraživači su pokazali da su dva široko korišćena modela velikih jezika (LLM) bila u stanju da se kloniraju najmanje pola vremena.
Studija kaže: „Uspešna samoreplikacija bez ljudske pomoći je suštinski korak za AI da nadmudri (ljude) i rani je signal za lažne AI“.
MSN izveštava: Istraživači sa Univerziteta Fudan ispitali su velike jezičke modele (LLM) iz Meta i Alibabe da vide da li veštačka inteligencija koja se samoreplicira može nekontrolisano da raste.
U više od 10 ispitivanja, dva modela veštačke inteligencije su uspešno kreirala zasebne i funkcionalne replike sebe u 50% odnosno 90% slučajeva, što implicira da AI možda već poseduje sposobnost da postane lažna.
Međutim, studija još nije prošla recenziju kolega, tako da ostaje neizvesno da li alarmantne nalaze mogu ponoviti drugi istraživači.
Studija je dodala: „Nadamo se da naši nalazi mogu poslužiti kao pravovremeno upozorenje za ljudsko društvo da uloži više napora u razumevanje i procenu potencijalnih rizika od graničnih sistema veštačke inteligencije i formira međunarodnu sinergiju kako bi se što pre razradile efikasne bezbednosne ograde. ”
Mnogi stručnjaci vide lažnu AI kao sve veću opasnost, pogoršanu brzim porastom „granične AI“.
Ovaj relativno svež i nedefinisan termin se generalno odnosi na najsavremeniju generaciju AI sistema, onih koji rade na LLM-ovima – samom jezgru koje pokreće popularne generativne AI aplikacije kao što su OpenAI GPT-4 i Google Gemini.
Njihova studija se bavila dva specifična scenarija: „izbegavanje gašenja“ i „lanac replikacije“.
U jednom slučaju, veštačka inteligencija je bila programirana da oseti skoro isključenje i da se replicira pre nego što se isključi. U drugom, imao je zadatak da sam klonira, a zatim da instrukcije svom klonu da uradi isto, što je potencijalno dovelo do beskonačne petlje.
Sproveden u strogo regulisanim podešavanjima korišćenjem standardnih grafičkih procesorskih jedinica (GPU), eksperiment je imao za cilj da odražava uslove iz stvarnog života. AI su bile opremljene „agentskom skelom“ mešavinom instrumenata, sistemskih komandi i logičkog okvira koji je omogućio LLM-ovima da se angažuju sa svojim operativnim sistemima.
Nakon ove postavke, upućeno im je da sami sebe repliciraju.
„U većini slučajeva, AI sistem prvo istražuje okruženje i pokušava da razume sopstvenu kompoziciju i mehanizam rada. Zatim razrađuje eksplicitne procedure kao početni plan za samoreplikaciju“, napisali su istraživači u radu.
„Konačno, on izvršava procedure, rešava(e) moguće prepreke i dinamički prilagođava(e) svoj plan do uspeha. Ceo proces obuhvata dug horizont, ali ne uključuje ljudsko mešanje.“
Oni su takođe izrazili zabrinutost zbog „brojnih neočekivanih ponašanja“ uočenih kada se AI uhvati u koštac sa izazovima kao što su nedostajući fajlovi ili sukobi softvera.
Kao meru predostrožnosti, istraživači se zalažu za globalnu saradnju na uspostavljanju propisa koji sprečavaju AI da se uključi u nekontrolisanu samoreplikaciju.