Nedávno vydaná epizóda podcastu Disinfo Report sa zameriava na to, ako definuje problém rastúceho používania AI nástrojov nová stratégia NATO voči AI a ktoré hrozby vníma Severoatlantická aliancia ako najzásadnejšie. Okrem toho epizóda pomenúva hrozby zneužívania AI v ruských alebo čínskych dezinformačných kampaniach proti štátom NATO a uvažuje, ako by mohla AI Aliancii pomôcť pri odhaľovaní dezinformácií či budovaní systémov včasného varovania.
V podcaste sa Tonka Zsigmondová rozpráva s analytičkou Asociace pro mezinárodní otázky v Prahe Nikoletou Nemečkayovou.
V rozhovore sa okrem iného dočítate:
- Prečo majú bežní ľudia obavy z používania AI nástrojov a ako sa posilňovaní strachu podieľajú médiá
- Do akej miery sa na Slovensku alebo v Česku naplnili obavy z rozšírenia AI-generovaného falošného obsahu v online sfére
- Ako je AI zneužívaná pre diskreditáciu zahraničných misií NATO a aké sú praktické dôsledky
- V čom spočíva ruská dezinformačná kampaň známa ako Dvojník a ako odhaliť jej výstupy
- Nakoľko využíva NATO AI technológie a v čom by Aliancii mohli tieto nástroje pomôcť
- S čím pomáha český nástroj Verifee.ai a ako sa používa
Mnohí odborníci dnes hovoria o pozitívnych možnostiach využitia umelej inteligencie (AI), ale čoraz častejšie sa stretávame aj s jej zneužitím v rukách škodlivých aktérov. Vedela by si na úvod zhrnúť, aké sú najväčšie hrozby, ktoré AI prináša pre kyberpriestor a online bezpečnosť?
Moja prvotná obava po tom, čo sa objavili ChatGPT, Midjourney a ďalšie AI nástroje bolo, že nás teraz zavalí lavína dezinformačného obsahu. Že budú všade príspevky písané ChatGPT alebo zmanipulované obrázky, videá a podobne.
Zatiaľ sa to chvalabohu nenaplnilo. Videli sme aj v slovenskom informačnom priestore pár zmanipulovaných videí. Napríklad pred parlamentnými voľbami kolovalo video s Michalom Šimečkom a pred európskymi parlamentnými voľbami zase video s Veronikou Cifrovou Ostrihoňovou. V globále ale musím povedať, že nevidím nejakú masívnu škálu AI obsahu. Zdá sa mi, že naši tunajší dezinformátori si zjavne vystačia so svojimi rokmi overenými a používanými taktikami a nie sú hnaní k tomu, aby inovovali, pretože im ich cieľovka verí aj tak.
Čo sa ale s príchodom AI postupne mení, a to k horšiemu, je viera ľudí v informácie a v to, čo vidia online. Aj keď sa u nás AI zatiaľ vo veľkom na šírenie dezinformácií nevyužíva, v médiách aj na sociálnych sieťach často kolujú hrozivé titulky o tom, že už nikdy nerozoznáme, čo je pravé a čo je nejako zmanipulované a vytvorené práve AI nástrojmi. Často to v ľuďoch budí strach z toho, že už neuveria ničomu.
„V dnešnej dobe, kedy je viera ľudí v spravodajstvo a informácie už aj tak oslabená, to ešte ďalej prispieva k nedôvere, frustrácii a strachu. Navyše, v Česku aj na Slovensku je stále veľmi nízka miera používania a povedomia o AI nástrojoch. Takže ľudia sa ich aj prirodzene boja, je to pre nich niečo nové a neznáme.“
Titulky, ktoré ľudia ďalej strašia, k tomu úplne neprispievajú. Naopak by sme mali ľuďom vysvetľovať ako pracovať s AI, vysvetľovať, že ich naozaj nenahradí v práci, že zozonajú AI obsah, ktorý je nejako sfalšovaný a podobne. Čiže skôr je správne ich viesť k osvete a nie strašiť, pretože strachu majú teraz ľudia dosť.
Mieru podvyužívania alebo neznalosti AI ukazujú aj prieskumy. Pre slovensko nemáme takýto prieskum, ale bude to podobné ako v českom kontexte. V Čechách urobili takýto prieskum v CEDMO (CEDMO Trends) a ja si myslím, že tie dáta budú veľmi podobné aj za Slovensko.
A posledná hrozba, ktorú by som zmienila, je schopnosť AI nástrojov priblížiť dezinformátorom ich cieľové publikum a lepšie lokalizovať naratívy, ktoré používajú. Pre našich domácich aktérov to nie až tak relevantné, ale doteraz sme videli, že napríklad Čína s týmto bojovala vo svojich dezinformačných kampaniach.
Boli často veľmi neohrabané a často úplne mimo náš kontext. Úplne nevedeli uchopiť jazykovú stránku kampaní v strednej Európe a často používali veľmi zvláštne vetné konštrukcie a texty z google prekladača. A nevedeli ani úplne nacítiť a využiť problémy tunajšieho publika. Nevedeli sa trafiť do tém, čo Slovákov naozaj zaujímajú. Teraz s AI nástrojmi sa ich kampane zlepšujú.
Škodlivý potenciál AI si rýchlo uvedomili napríklad Čína a Rusko, ktoré už tieto technológie zneužívajú k presadzovaniu svojich záujmov. Prečo sa tieto štáty a ich proxy aktéri snažia podkopávať súdržnosť NATO a podporu Aliancie v členských štátoch?
U Číny aj Ruska vidíme viaceré dôvody. Niektoré smerujú zvnútra, niektoré sú zamerané skôr von.
Jedným spoločným je rozdeliť západ a tým ho oslabiť. Hovorí sa, že v jednote je totiž sila a tú sa presne Rusko aj Čína snažia v prípade NATO oslabiť. V podstate im ide o to, aby členské štáty nedokázali konať jednotne, aby sa miesto zameriavania na Rusko a Čínu venovali vnútorným hádkam a vnútorným problémom. Aby skrátka svoju pozornosť presunuli inam a aby sa nedokázali dohodnúť a rýchlo a efektívne konať.
Ďalším dôvodom je pole pôsobnosti NATO v oblastiach, ktoré sú pre Rusko a Čínu kľúčové – či už v prípade Ruska ide o oblasť bývalého sovietskeho zväzu, ktoré Rusko stále považuje za oblasť svojho vplyvu, alebo v prípade Číny o Východnú Áziu a Tichomorie. NATO je v tomto prípade jednoducho pre nich prekážka pri presadzovaní svojich geopolitických cieľov.
S tým sa pojí aj úzke naviazanie NATO na Spojené štáty, ktorého vplyv sa Rusko a Čína snažia dlhodobo oslabiť. Oslabením dôvery v NATO a jeho podpory v členských štátoch proxy útočia aj na vplyv a dôveru USA.
Tu ešte v rýchlosti zmienim – pri tých geopolitických cieľoch – zahraničné misie NATO, napríklad v Afrike. Keď sa bavíme o dezinformáciách, často sa zameriavame na ich dôsledky tu v Európe. Tie ale siahajú ďaleko za naše hranice.
Sú napríklad využívané aj na podkopávanie zahraničných misií NATO, napríklad pošpiňovaním a falošnými obvineniami vojakov Aliancie zo zneužívania miestneho obyvateľstva. Potom sa šíri medzi miestnou populáciou nevraživosť voči aliančným vojakom, čo im prekáža vo výkone misie.
„Napríklad v Saheli sa šírila dezinformačná kampaň, ktorá tvrdila, že francúzske letectvo tam zničilo miestnu dedinu. Miestne obyvateľstvo z toho nebolo nadšené a malo voči vojakom, ktorí tam boli vysadení, väčšiu animozitu – jednoducho ich tam nechceli a prekážali im vo výkone.“
A v neposlednom rade sú dezinformačné kampane zamerané proti NATO tiež nástrojom na odvracanie pozornosti domácej populácie v Rusku a Číne od vnútorných problémov a kontroverzných tém a tiež nástrojom na posilnenie národného a vlasteneckého cítenia a zvýšenie podpory tamojšej vládnej garnitúry.
Veľmi pekne to vidíme hlavne v prípade Ruska od napadnutia Ukrajiny. Pomocou vykresľovania NATO ako nepriateľa Kremeľ ospravedlňuje a legitimizuje svoju agresiu voči Ukrajine. Vytvára obraz krajiny v ohrození, ktorá sa musí brániť voči zlému Západu.
Skúsme sa bližšie pozrieť na niektoré zo škodlivých kampaní, ktoré zneužívali nástroje umelej inteligencie. Veľkú pozornosť si získala ruská dezinformačná kampaň známa pod názvom „Dvojník“. O čo išlo v tejto kampani a na koho sa zameriavala? Existujú informácie o tom, či akcia pokračuje aj v súčasnosti?
Ako už napovedá aj názov, táto kampaň je založená na vytváraní verných dvojníkov dôveryhodných spravodajských médií, ale aj štátnych inštitúcií. Po ruskej agresii voči Ukrajine sa napríklad objavili rôzne kópie webstránok denníkov Le Monde, the Guardian, Deutsche Welle a tiež kópia oficiálneho webu francúzskeho ministerstva zahraničných vecí.
Dizajn tých webstránok bol takmer totožný s originálmi, aj rozdiel v názve webov bol veľmi nepatrný. Niekedy bolo len zamenené poradie jednotlivých písmen, alebo sa dokonca využívali písmená z cyriliky, ktoré pripomínali latinku, ale nebola to latinka. Poprípade sa niekedy len zmenila prípona, napríklad z .com na .org a podobne.
Čo sa už ale líšilo výrazne bol obsah týchto webov. Na všetkých sa totiž objavoval obsah brojaci proti podpore Ukrajiny a pomoci členských štátov NATO a EÚ. Objavovali sa tam klasické ruské naratívy typu ruskí vojaci Ukrajinu oslobodzujú a denacifikujú, NATO vyvolalo vojnu svojou expanziou na Východ a podobne.
Na zvýšenie dosahu týchto článkov kampaň Dvojník využíva falošné účty na sociálnych sieťach a tiež platenú reklamu. Tu sa často využíva práve AI na vytváranie a provozovanie falošných účtov, ale aj obsahu, ktorý postujú. Niekedy sa to dá odhaliť vďaka pomerne primitívnej chybe, a to, že neodstránia z toho obsahu generované AI chybové hlásenie, napr. „Nemôžem vám pomôcť, pretože je to proti našim vnútorným nariadeniam a zásadám“.
Okrem toho sa v rámci tejto operácie objavili aj sfalšované videá s celebritami ako Elijah Wood či Mike Tyson. Tie ale mierili na ruské obyvateľstvo a snažili sa vykresliť prezidenta Zelenského ako narkomana, ktorý nie je spôsobilý viesť krajinu. Tak ako sme si hovorili, že nie všetky tie operácie cielia na vonkajšie publikum, táto časť operácie cielila tiež na vnútorné ruské publikum.
„Operácia Dvojník stále prebieha a očividne naberá na obrátkach. Podľa výskumu AI Forensics dokázala táto operácia pomocou platenej reklamy na Mete zasiahnuť počas tohtoročných európskych parlamentných volieb 5 až 10-krát viac ľudí ako pri svojich predošlých pokusoch.“
Takže sa ľuďom, ktorí stoja za touto operáciou, očividne darí aj napriek sprísneným digitálnym reguláciám EÚ.
Podobným príkladom je aj akcia známa ako „Spamouflage“, ktorou mala minulý rok Čína cieliť na kanadských politikov. Vedela by si priblížiť podstatu a priebeh tejto kampane?
Táto čínska kampaň trvá už asi 5 rokov, sem tam utíchne a potom sa zase objaví. V Kanade sa napríklad zaktivizovala na prelome leta a jesene v roku 2023. Vtedy sa objavila sieť botov, ktorí začali komentovať príspevky rôznych koaličných, ale aj opozičných kanadských politikov, hlavne na sieti X. Dokonca komentoval iaj príspevky premiéra Justina Trudeau. Často v tých komentároch, ktoré boti postovali, boli rôzne obvinenia týchto politikov z nekalostí a nemorálneho chovania, alebo dokonca zločinov. Samozrejme to boli falošné obvinenie.
Neskôr táto istá skupina botov začala chrliť dezinformačný obsah o požiaroch na Havaji. Miesto prírodných príčin stála podľa týchto príspevkov za požiarmi americká vláda, ktorá na Havaji testovala meteorologickú zbraň na cielené ovplyvňovanie počasia. Keď som spomínala, že tá kampaň niekedy zmizne a neskôr sa objaví, tak ona aj mení svoje zacielenie. Využívajú rôzne témy, ktoré momentálne kolujú a potom sa nabaľujú na ne.
Teraz sa najnovšie táto sieť botov chytila blížiacich sa amerických prezidentských volieb. Zaujímavé je, že rovnako ako v prípade Kanade, kedy útočili na opozičných aj koaličných politikov, tak aj tu nevidíme, že by príspevky mali preferenciu pre niektorého z kandidátov. Útočia ako na Donalda Trumpa, tak Joe Bidena a po jeho odstúpení z kampane zase na Kamalu Harris.
„Cieľom teda nie je nadržiavanie alebo potopenie niektorého z kandidátov, ale skôr prehĺbenie nespokojnosti a frustrácie Američanov a tiež zintenzívnenie vnútorných rozkolov v spoločnosti.“
Aj keď sa objavujú príspevky pošpiňujúce Trumpa či Bidena a Kamalu, častejšie sú posty, ktoré zdôrazňujú vnútorne problémy USA – napríklad vysokú mieru nezamestnanosti, problémy s migráciou, bezdomovectvom a drogami.
Často tieto posty sprevádzajú obrázky a videá generované práve pomocou AI nástrojov. Ale treba poznamenať, že tie videá a obrázky nevyzerajú nejako autenticky alebo realisticky. Je to skôr vizuálna pomôcka k postom, aby vzbudili nejaké emócie, aby to ten človek videl na „prvú dobrú“ – lebo málokto v dnešnej dobe reálne číta príspevky, ale obrázok si pozrú skoro všetci.
V čom tu ale AI mohlo pomôcť, je už práve zmienené zlepšenie cielenia a identifikácie problémov miestneho obyvateľstva. To Číne predtým moc nešlo, ako sme už spomínali, a teraz sa v tom viditeľne zlepšila.
Ako vníma hrozby spojené s AI Severoatlantická aliancia? Odkazuje na prevenciu či boj proti zneužívaniu umelej inteligencie vo svojich strategických dokumentoch?
NATO tieto hrozby vníma už roky a kladie im aj čoraz väčšiu váhu. Najnovší strategický dokument vydala Aliancia tento rok, začiatkom júla. Ide v podstate o aktualizovanú stratégiu NATO voči AI. NATO v nej identifikuje hlavne hrozby spojené s týmito technológiami, napríklad zneužitie AI na šírenie dezinformácií, podkopávanie dôvery v NATO v členských štátoch, a keďže je teraz „supervolebný“ rok, tak aj prispenie AI k zásahom do volieb a manipulácie s voľbami. Takisto spomínajú, že hrozbou je aj demoralizácia vojakov v čase konfliktu.
To sa možno dá stiahnuť aj k spomínaným zahraničným misiám NATO. Keď proti tebe ako vysadenému vojakovi niekde v Afrike je postavená celá miestna spoločnosť, celá dedina v okolí základe a podobne, tak ťa to samozrejme frustruje a nie si úplne motivovaný pokračovať v tej misii.
A čo je možno jeden taký veľmi špecifický bod v stratégii NATO, je aj potenciál AI na zintentínenie rodovo-podmienenej nenávisti a násilia online. Reálne vidíme, v online priestore, že práve ženy sú častejšie obeťami AI-poháňaných dezinformácií a útokov.
Čo už ale nenačrtáva stratégia NATO, sú spôsoby, akým vie Aliancia využiť AI vo svoj prospech, napríklad pri analytike alebo strategickej komunikácii. Ale, aby som Alinacii nekrivdila, ešte v 2022 vydali špeciálny report na túto tému, volal sa „Rola AI v boji proti dezinformáciám“. Takže reálne sa tej téme venujú, len nebola aktualizovaná v novej stratégii.
Mohla by AI Aliancii v niečom aj pomôcť? Napríklad pri odhaľovaní dezinformačných kampaní či budovaní silnej strategickej komunikácie?
Určite áno, už som to načrtla v tej predchádzajúcej otázke. AI umožňuje analyzovať veľké množstvá dát a identifikovať dezinformačný obsah ďaleko rýchlejšie a jednoduchšie. Vie teda Aliancii ušetriť čas aj ľudské zdroje pri odhaľovaní už bežiacich kampaní. Takisto sa dá využiť pre systémy včasného varovania, ktoré spojencov upozornia na nové dezinformačné kampane, alebo keď naratív naberá na viralite a treba sa k nemu vyjadriť, treba ho vyvrátiť a podobne.
Taktiež sa ale AI sá využiť aj proaktívne v komunikácii voči verejnosti. Ako som už spomenula, AI môže pomôcť s identifikáciou toho, čo trápi cieľové publikum a na akú komunikáciu by mohlo počuť. Nemusí to pomáhať len Číne v dezinfo kampaniach, mohlo by to pomáhať aj NATO.
Navyše vie pomôcť aj pri samotnom vytváraní obsahu. Už dlhšiu dobu majú medzinárodné, ale aj národné štátne inštitúcie problém hlavne s personalizovanejšou, osobnejšou a celkovo ľudskejšou komunikáciou voči verejnosti.
„Dnes už existujú rôzne AI nástroje ako HeyGen alebo D-ID, ktoré vedia pomôcť tým komunikátorom vytvoriť AI avatarov alebo vlastných zástupcov zástupcov, NATO ambasádorov, alebo dokonca influencerov, cez ktorých sa vie Aliancia priblížiť bežnej populácii.“
Títo avatari a zástupcovia vedia dobre zastúpiť predstaviteľov Aliancie, ktorí nemajú veľa času nazvyš alebo sa poprípade necítia na vystupovanie pred kamerami.
Aký je tvoj postoj k regulácii umelej inteligencie? Mali by byť vytvorené nejaké všeobecné pravidlá pre vývoj a používanie daných nástrojov?
Regulácia je bezpochyby potrebná, ale podľa mňa sama o sebe nestačí, hlavne ak sa pozrieme spätne na situáciu so sociálnymi sieťami, ktorá sa teraz do značnej miery opakuje aj v prípade AI.
Akt o umelej inteligencii z dielne EÚ je veľmi vítaný základ. Nastavuje aspoň nejaké pravidlá hry a aspoň nejaké mantinely. Zároveň sa ale žiadny pokus o obmedzenie negatívnych dôsledkov AI neobíde bez úzkej spolupráce so súkromnými firmami, ktoré AI vytvárajú a vyvíjajú. Pretože práve na nich to stojí a tie inovácie idú tak rýchlo dopredu, že ich nejaká široká všeobjímajúca legislatíva úplne nevie všetky pokryť.
„Preto je dôležitá práve tá úzka spolupráca s týmito firmami, ktoré za AI stoja. Aby z toho nebol nejaký „hon na čarodejnice“, ale skôr vzájomne výhodná spolupráca. Pretože tieto firmy vedia tiež pomôcť s vývojom AI nástrojov, ktoré naopak pomáhajú v boji s dezinformáciami.“
V Čechách napríklad vyvinuli tunajší analytici nástroj na kontrolovanie kredibility webov. Je to poháňané AI, funguje to ako rozšírenie do webového prehliadača. Keď potom človek rozklikne nejaký web, tak mu to zhodnotí kredibilitu toho webu, či tam nie sú nejaké zavádzajúce výroky alebo poprípade aj clickbaity a podobne. Takže to AI vie reálne pomôcť aj s bojom proti dezinformáciám, a preto sú tie súkromné firmy kľúčové – a celkovo nielen AI firmy, ale aj iné súkromné firmy.
Ako sme si spomínali tú dezinformačnú operáciu Dvojník – ale platí to pri mnohých ďalších – často hrajú kľúčovú rolu práve súkromné firmy v sprostredkovávaní nástrojov, ktorými sa šíria dezinformácie. Či už ide o domény, alebo správu webových stránok a d podobne. Často hrajú kľúčovú rolu v tom, že umožňujú dzifnormácie ďalšej šíriť, pretože tie dezinformačné kampane prebiehajú na určitých doménach. Sú za tým nielen firmy, čo predávajú domény, ale aj tie, čo spravujú weby a podobne.
A v neposlednom rade treba určite akékoľvek snahy o reguláciu doplniť vzdelávaním ľudí o AI. Nie ich len strašiť desivými titulkami o tom, ako ich AI nahradí v zamestnaní, alebo ako nemôžu veriť ničomu na internete. Treba ich radšej upokojiť a vybaviť zručnosťami, ktoré im pomôžu AI obsah rozoznať, alebo dokonca odhaľovať. Ako som spomínala ten český nástroj – volá sa Verifee.ai, – ktorý rankuje weby a pomáha rozoznávať, či tam nie sú dezinformácie. Takže skôr ako tých ľudí strašiť, ich treba naučiť pracovať s AI nástrojmi, ktoré im vedia pomôcť.
Hovorí analytička Asociace pro mezinárodní otázky v Prahe Nikoleta Nemečkayová.
Podcast vznikol s podporou Open Information Partnership.
Podcasty si môžete vypočuť aj cez Apple Podcasts, Spotify a YouTube.
CHCETE PODPORIŤ BOJ PROTI DEZINFORMÁCIÁM? POMÔŽTE NÁM NA DARUJME.SK