Współczesna walka o wpływy w przestrzeni międzynarodowej coraz częściej przenosi się do świata wirtualnego. Rosyjska dezinformacja jest dziś jednym z poważnych zagrożeń dla państw NATO, a Polska jest w centrum wojny informacyjnej prowadzonej przez Kreml i jego służby specjalne. Jednym z przykładów tego typu działań jest prowadzona przez Rosję Operacja Undercut. Szczegóły tej rosyjskiej kampanii dezinformacyjnej ujawniła amerykańska firma zajmującą się wywiadem zagrożeń – „Recorded Future”.
Eksperci są zgodni – w ostatnich miesiącach operacje wpływu Rosji stały się bardziej zaawansowane, oparte na najnowocześniejszej technologii, manipulacji mediami i odbiorcami. Operacja Undercut eksploatuje szeroką gamę kwestii politycznych i spraw regionalnych, używając treści generowanych przez sztuczną inteligencję. Dzięki opracowaniom eksperckim udało się w szczegółach ustalić cele operacji, taktykę oraz potencjalny wpływ na międzynarodową opinię publiczną.
Kampania, nazwana później przez Insikt Group Operacją Undercut, została po raz pierwszy odnotowana w grudniu 2023 roku i była zapewne prowadzona przez moskiewską agencję Social Design Agency (SDA). SDA już wcześniej była oskarżana przez rząd Stanów Zjednoczonych o prowadzenie innej operacji wpływu – Doppelgänger, której celem była dezinformacja za pomocą fałszywych stron internetowych i kont w mediach społecznościowych. Jej przejawy odnotowano również w Polsce, gdzie rosyjskie służby prowadzą od wielu lat ataki koordynowane w ramach struktur walki informacyjnej Rosji.
Podczas, gdy Doppelgänger opierała się głównie na fałszywych witrynach internetowych, Operacja Undercut korzysta z nowoczesnych technologii, takich jak generatywna sztuczna inteligencja, do tworzenia treści wideo i obrazów podszywających się m.in. pod renomowane podmioty medialne. Treści są promowane przy użyciu popularnych hashtagów, aby zwiększyć ich zasięg.
Cele i taktyka
Rosyjska dezinformacja zawsze jest zaplanowana i nastawiona na osiągnięcie konkretnego efektu, a jej przeprowadzenie wpisuje się w cele polityczne Kremla. W tym przypadku głównym celem operacji jest osłabienie zachodniego wsparcia dla Ukrainy. Operacja, jak każda, zapewnia Rosji również wytworzenie innych pobocznych skutków, które są dla Moskwy nie mniej istotne. To m.in. dyskredytowanie ukraińskiego przywództwa politycznego i wojskowego, które jest realizowane przez przedstawianie ukraińskich liderów jako skorumpowanych i nieefektywnych. Następnie, operacja ma na celu podważanie skuteczności zachodniej pomocy wojskowej dla Ukrainy. W tym przypadku wykorzystywana jest narracja sugerująca, że Ukraina niewłaściwie użytkuje pomoc finansową i sprzęt wojskowy.
Kolejnymi celami Undercut było wzmacnianie napięć w ramach Unii Europejskiej. Tym razem kampania skupiała się na eksponowaniu i treści dotyczących konfliktów między państwami członkowskimi UE a instytucjami w Brukseli, zwłaszcza w kwestii sankcji wobec Rosji i pomocy dla Ukrainy. Operacja miała też na celu eskalowanie obaw związanych z wyborami prezydenckimi w USA w 2024 roku tj. narzucano narrację, że przyszłość Ukrainy i Izraela zależy od wyniku tych wyborów. Do ostatnich etapów kampanii można zaliczyć krytykę igrzysk olimpijskich w Paryżu w 2024 roku, a przede wszystkim rozpowszechnianie narracji i obaw kwestionujących bezpieczeństwo i prawidłową organizację tego wydarzenia.
Kluczowym elementem rosyjskiej dezinformacji przy prowadzeniu Operacja Undercut było wykorzystanie generatywnej sztucznej inteligencji. Za pomocą narzędzi takich jak ElevenLabs produkowane były realistyczne filmy wideo z głosami imitującymi znanych dziennikarzy, które w całości służyły rozpowszechnianiu fałszywych informacji. Generowane były fałszywe obrazy (grafiki), które miały odwzorowywać artykuły renomowanych, zachodnich mediów, w których rzekomo znajdują się antyukraińskie wypowiedzi zachodnich liderów.
Eskalowanie napięć czyli przykładowe fake’owe narracje
Rosyjska Operacja Undercut była w sposób szczególny wycelowana w państwa Unii Europejskiej i Stany Zjednoczone, a także w państwa Bliskiego Wschodu. Celem operacji jest eskalowanie wewnętrznych napięć w krajach sojuszniczych Stanów Zjednoczonych, w tym w krajach UE, poprzez wykorzystywanie istniejących konfliktów i podziałów politycznych. Dla przykładu warto odnotować, manipulowanie przekazem medialnym dotyczącym protestów pro-palestyńskich, które odbywały się w Nowym Jorku czy Londynie. W mediach pojawiły się wtedy między innymi doniesienia o flagach Hamasu oraz wezwaniach do zakończenia sprzedaży broni do Izraela.
Dodatkowo, publikowane były treści wspierające i promujące niektóre partie polityczne w Europie, tj. francuskie Zjednoczenie Narodowe (National Rally) i niemieckie AfD, aby wpłynąć na opinię publiczną przed wyborami do Parlamentu Europejskiego w 2024 roku. Treści te często przesadnie lub fałszywie przedstawiały napięcia między państwami UE, Ukrainą i Brukselą, oskarżając urzędników UE o uderzanie w interesy narodowe. W jednym z wątków promowano obraz problemów gospodarczych Polski, jako skutku celowej działalności UE.
Rosyjskie służby odpowiedzialne za tę operację rozgrywały również państwa Zachodu wykorzystując sytuację wewnętrzną w tych państwach. Przed wyborami prezydenckimi w USA operacja Undercut wzmacniała narrację, że amerykańska pomoc wojskowa dla Ukrainy zależy od wyniku wyborów. A jednocześnie kampania ta próbowała podważyć zaufanie do przywództwa Stanów Zjednoczonych, rozpowszechniając fałszywe lub wprowadzające w błąd informacje na temat ich zaangażowania w decyzje dotyczące polityki zagranicznej.
W oddziaływaniu przeciwko Europie rosyjska operacja wykorzystała istniejące napięcia między Unią Europejską a krajami takimi jak Polska, Węgry czy Ukraina. Jak wskazują badacze, w tym celu wykorzystana została metoda m.in. publikowania sfałszowanych oficjalnych komunikatów i oświadczeń unijnych jako dowodów, że wskazane kraje naciskają na Brukselę w celu przeciwdziałania dalszym sankcjom wobec Rosji lub blokowania akcesji Ukrainy do UE.
Operacja rozszerzyła swoje wpływy na wydarzenia globalne, takie jak Igrzyska Olimpijskie w Paryżu 2024. W tym przypadku, rosyjskie działania dezinformacyjne miały na celu ośmieszenie, wzbudzenie niepokoju, strachu, czy obaw o zdrowie sportowców. W ramach akcji dezinformacyjnej pojawiały się m.in. posty w mediach społecznościowych uderzających w bezpieczeństwo wydarzenia. Rosja próbowała powiązać Olimpiadę z zagrożeniami terrorystycznymi, wzmacniając ekstremistyczne groźby i wykorzystując je do podważania bezpieczeństwa wydarzenia.
AI wykorzystywana w dezinformacji
Pomimo szerokiego zakresu działań, Operacja Undercut uzyskała minimalne zaangażowanie ze strony odbiorców online. Większość treści była łatwo rozpoznawana jako nieautentyczna, co znacząco ograniczyło jej wpływ na opinię publiczną. Będzie to na pewno przedmiotem analiz w służbach specjalnych Rosji, by w przyszłych operacjach uniknąć błędów, które przesądziły o fiasku analizowanych działań. Bez wątpienia jednak – opisane działania świadczą o nowym podejściu Rosji do działań dezinformacyjnych. Rosja wykorzystuje zaawansowane technologie w dezinformacji, adaptując się do zmieniających się warunków technologicznych i geopolitycznych. Choć skuteczność tej operacji była ograniczona, rozwój narzędzi opartych na sztucznej inteligencji wskazuje na rosnące ryzyko dla demokracji i stabilności międzynarodowej. Operacje takie jak Undercut czy Doppelgänger stanowią wyzwanie przede wszystkim dla władz państwowych, bowiem dotykają bezpieczeństwa narodowego, ale także dla mediów i platform społecznościowych. Fałszowanie marek medialnych i nadużywanie ich wiarygodności może prowadzić do spadku zaufania odbiorców oraz strat finansowych, to również uderzenie w wiarygodność informacji i mediów jako takich nad czym Rosja pracuje od dawna. Chodzi o wytworzenie chaosu informacyjnego i niepewności w odbiorcach, którym Rosja próbuje w ten sposób zaburzać percepcję rzeczywistości.
Operacja Undercut w szerokim zakresie wykorzystała zaawansowane technologie, głównie generowane przez AI filmy wideo wraz z odpowiednio zafałszowanym przekazem głosowym. W znacznym stopniu wykorzystywane w tym celu są prawdziwe filmiki, artykuły medialne czy cytaty, które zostają zmanipulowane: przez wycięcie fragmentu nagrania, czy wyciągnięcie czegoś z kontekstu. Na przykład, w nagraniach wideo stosuje się generowany przez AI głos lektora (w różnych językach), który naśladuje transmisje telewizyjne, podając fałszywą informację do konkretnego obrazu wideo. A w dalszej kolejności, konta w mediach społecznościowych ponownie publikują tego typu fake’owe nagranie wideo, często dodając hashtagi, które są popularne w docelowych krajach, aby zwiększyć ich zasięg.
W niektórych przypadkach Undercut wykorzystywała do zwiększenia swojego zasięgu także inne rosyjskie sieci wpływu jak np. CopyCop, aby replikować swoje przekazy, łącząc prawdziwe treści medialne z fabrykowanymi narracjami. Tego typu działania są stosowane zarówno na powszechnie znanych mediach społecznościowych, jak i na alternatywnych platformach, takich jak 9gag, gdzie posty są promowane przez fałszywe metryki zaangażowania, aby wyglądały bardziej autentycznie.
Jak przeciwdziałać zagrożeniu?
Analiza operacji Undercut dowodzi, że rosną zagrożenia związane z operacjami dezinformacyjnymi, a rosyjskie służby specjalne udoskonalają swoje metody wpływania na społeczeństwa i destabilizowania Zachodu. Użycie technologii sztucznej inteligencji oraz automatyzacja procesu komunikacji społecznej jest nowym wyzwaniem, które będzie narastało. Dezinformacja staje się zatem coraz poważniejszym zagrożeniem także dla Polski.Aby przeciwdziałać rosyjskim kampaniom i operacjom dezinformacyjnym kluczowe jest, aby liderzy polityczni, organizacje medialne oraz platformy społecznościowe śledzili i demaskowali wszelkie fałszywe informacje. Tylko poprzez identyfikowanie, ujawnianie i wyjaśnianie dezinformacji, władze mogą chronić publiczne zaufanie do procesów demokratycznych i stosunków międzynarodowych. Z uwagi na zagrożenia dla bezpieczeństwa narodowego, kluczowe dla państw NATO jest zbudowanie odpowiedniego systemu – na poziomie rządowym – monitorowania zagrożeń, identyfikowania operacji dezinformacyjnych i przeciwdziałania im. To zadanie pilne dla każdego państwa objętego agresywnymi atakami prowadzonymi w ramach walki informacyjnej Rosji i Białorusi.
Dodatkowo, konieczna jest dalsza współpraca między rządami, firmami technologicznymi i społeczeństwem obywatelskim. Eksponowanie rosyjskich działań dezinformacyjnych, a także pociąganie winnych do odpowiedzialności może zmniejszyć destabilizujący wpływ tych kampanii na realne bezpieczeństwo konkretnych społeczeństw.
Operacja Undercut to przykład nowej ery wojny – takiej, w której cyfrowy wpływ odgrywa kluczową rolę w kształtowaniu opinii publicznej i polityki na całym świecie. Bitwa o prawdę, a w konsekwencji o władzę, toczy się coraz częściej w sieci, gdzie fałszywe informacje i strategiczna manipulacja mogą mieć realne konsekwencje.
Dariusz Nowak
MATERIAŁ na podstawie Raportu „Recorded Future„
Dodaj komentarz