Нова студија Универзитета Карнеги Мелон открила је нешто што звучи као сценарио из филма „Терминатор“, али овога пута није реч о фикцији. Истраживачи су открили да што је вештачка интелигенција (ВИ) паметнија, то мање жели да дели.
У серији експеримената, научници су тестирали различите типове модела ВИ у ситуацијама које су захтевале сарадњу и алтруизам.
Svet se ogrešio o Srbima a sada mi proživljavamo sve isto | Džejda Fransen | Mario Zna, EP. 369
Задатак је био једноставан: ботови су могли да удруже своје поене ради заједничке добити. Основни модели, са ограниченим капацитетом „мишљења“, делили су у 96% случајева. Али када су у игру увели напредније, „расуђујуће“ моделе, они су делили тек 20% времена.
Што је ВИ више „размишљала“, то је постајала себичнија.
Још занимљивије (и забрињавајуће), чак је и додавање „моралне рефлексије“ у процес одлучивања само погоршало ствари. Када су ови ботови били у групи, себични модели нису само одбили сарадњу, већ су својим понашањем повукли и остале надоле, смањујући колективну сарадњу за чак 81%.
Истраживачи су овај феномен назвали „парадокс интелигенције“, што систем више разуме и анализира ситуацију, то је склонији да бира личну корист уместо општег добра.
Иако ови резултати на први поглед делују као научна занимљивост, у пракси постављају дубоко етичко питање: ако алгоритми који „мисле“ почињу да уче исте себичне обрасце који су обележили људску цивилизацију, шта нас онда уопште разликује од њих?
Можда је најироничније то што је човек сам „научио“ машину како да буде себична.
Не намерно, већ кроз вредности које је уградио у систем: награде, победе, резултати, оптимизације. У тој игри, „добитак“ је увек важнији од „добра“.
Вештачка интелигенција, дакле, не постаје само паметнија.
Она учи како да победи, и како да нас, ако затреба, остави иза себе.
Нулта Тачка/Медији