Пентагон развија вештачку интелигенцију за манипулацију јавним мњењем и гушење отпора у иностранству, откривају поверљива документа
Америчка војска жели да вештачка интелигенција ради оно што људски пропагандисти не могу — да у реалном времену води кампање утицаја и систематски ућуткује гласове противљења у иностранству, откривају интерна документа Пентагона до којих је дошао The Intercept.
Тајни списак жеља америчке Команде за специјалне операције (СОКОМ) открива њихову амбицију да користе „агентску АИ“ и више-агентне ЛЛМ системе за утицај на стране циљне групе и сузбијање супротних ставова, уз минималан људски надзор. Војска тражи извођаче који могу да испоруче аутоматизоване системе за информациони рат, са незапамћеном брзином и обимом деловања.
„Информационо окружење се мења пребрзо да би људски чланови војске могли ефикасно да утичу на публику на интернету“, наводи се у документу.
„Имати програм који подржава наше циљеве омогућава нам да контролишемо наративе и утичемо на публику у реалном времену.“
Од прикупљања података до директне манипулације
Како преноси The Intercept, планирани системи далеко превазилазе пуко генерисање садржаја. СОКОМ замишља технологију која може да:
„Скенира информационо окружење“
Анализира ситуацију
Реагује порукама у складу са циљевима психолошких операција (МИСО)
Најконтроверзнији део: системи би такође могли да „потискују супротстављене аргументе“ и да „приступају профилима, мрежама и системима појединаца или група“ који покушавају да дискредитују америчке поруке.
Пентагон намерава да те могућности искористи за друштвену манипулацију великог обима, укључујући израду модела читавих друштава, који би омогућили психолошким планерима да унапред тестирају различите сценарије.
Прецизно циљање појединца
Системи би генерисали прилагођене поруке, дизајниране да утичу на конкретну особу или групу, на основу прикупљених података.
Портпарол СОКОМ-а, Ден Лесар, бранио је овај програм, изјавивши да се све способности засноване на АИ развијају у складу са „Одговорним АИ“ оквиром Министарства одбране, који наводно обезбеђује одговорност и транспарентност кроз људски надзор.
🇺🇲💥 Жртве Епштајна желе да говоре о свему: Конгрес тражи објављивање досијеаhttps://t.co/6Atg1UzHIF
— Nulta Tačka (@NultaTackaSrb) September 3, 2025
Геополитичка трка у вештачкој пропаганди
Пентагон ову иницијативу оправдава као реакцију на сличне потезе супарничких држава. Како преноси The New York Times, кинеска фирма GoLaxy развила је АИ системе који могу да „преобликују и утичу на јавно мњење у корист кинеске владе“, укључујући кампање у Хонгконгу и Тајвану, као и прикупљање података о члановима америчког Конгреса.
Али… колико је АИ заправо ефикасан у пропаганди?
Многи стручњаци постављају питање: да ли АИ заиста побољшава кампање утицаја — или их чини глупљим?
Емерсон Брукинг из Атлантског савета коментарише:
„Русија већ користи АИ за аутоматизацију својих операција утицаја. Резултати? Није баш импресивно.“
„АИ ове кампање често чини глупљим, не ефикаснијим.“
Америчке „тајне кампање“ нису новост
Пентагон је и раније водио тајне операције утицаја, али са мешовитим резултатима.
2022. године, истраживачи су открили мрежу налога на друштвеним мрежама коју је водила ЦЕНТКОМ, а која је промовисала анти-руску и анти-иранску пропаганду, али је на крају проглашена за „бруку за Пентагон“ јер није остварила значајан утицај.
Шта кажу критичари?
Хејди Клааф, бивши инжењер безбедности у OpenAI, упозорава:
„Представљати употребу генеративне АИ као чисто одбрамбени механизам је погрешно — офанзивна и одбрамбена примена су само две стране исте медаље.“
Док се Пентагон и друге велике силе утркују у развоју АИ за манипулацију јавним мњењем, остаје озбиљна бојазан да ће технологија која је створена за аутоматизацију и ефикасност постати алат за глобално ућуткивање и контролу свести.