Skupina botov na sociálnej sieti X propagovala webstránky o kryptomenách. Pravdepodobne bola napojená na ChatGPT

Výskumníci na sociálnej sieti X (pôvodne Twitter) zaznamenali sieť navzájom komunikujúcich botov, ktorí propagovali webové stránky o kryptomenách. Boti boli pravdepodobne napojení na ChatGPT, ktorého odpovede používali na tvorbu obsahu. Pri testoch detektory umelej inteligencie chybne označovali tento obsah ako vytvorený človekom.

Systémy generatívnej umelej inteligencie (AI), ako napríklad ChatGPT, vedia byť skvelým pomocným nástrojom pri rôznych profesiách. Občianska spoločnosť a akademici však poukazujú na to, že tento nový, nedostatočne preskúmaný nástroj, môže byť zneužitý aj podvodníkmi a dezinformátormi.

Už v roku 2016 bolo počas prezidentskej kampane v USA zaznamenané používanie umelej inteligencie na vytváranie obsahu na sociálnych sieťach. Tieto komentáre a príspevky však boli jednoducho rozoznateľné, keďže texty generované AI pôsobili neprirodzene a často obsahovali chyby.

Nové a modernejšie jazykové modely AI tieto problémy už prekonali. To otvára dvere potenciálne efektívnejším podvodom. Používajú sa napríklad na phishingové útoky, v rámci ktorých podvodník predstiera, že je niekým iným, aby od obete získal osobné informácie či peniaze.

Spozorovali ich vďaka chybe

Výskumníci Kai-Cheng Yang a Filippo Menczer z Univerzity v Indiane zdieľali na sociálnej sieti X (bývalý Twitter) výsledky svojej štúdie, kde popisovali sieť botov na tejto platforme. Zdá sa, že táto sieť používa ChatGPT na vytváranie dôveryhodne pôsobiaceho obsahu.

Sieť, ktorú Yang a Menczer nazvali „fox8“, má približne 1 140 účtov. Boti mali zdieľať obsah zameraný predovšetkým na predaj kryptomien, blockchainu a NFT (nezameniteľný token), a tým zvyšovať jeho viralitu. Sieť účtov propagovala hlavne tri webové stránky so správami z krypto sveta, ktoré boli podľa nich pravdepodobne vytvorené tým istým autorom.

Účty boli objavené prostredníctvom vyhľadávania automatizovaných odpovedí, ktoré ChatGPT generuje, keď nevie alebo nemôže odpovedať na otázku. Kvôli chybnému alebo neexistujúcemu systému filtrovania odpovedí sa totiž tieto odpovede taktiež objavovali na sociálnej sieti.

Nástroje na rozpoznanie umelej inteligencie nefungovali

Po odhalení siete botov sa výskumníci rozhodli otestovať nástroje na rozpoznanie textov vytvorených systémami AI. Nástroj vytvorený spoločnosťou OpenAI, ktorá stojí aj za ChatGPT, ale príspevky z týchto účtov označoval za vytvorené človekom. Následne testovali aj aplikáciu GPTZero, ktorá taktiež nebola schopná rozpoznať príspevky vyprodukované umelou inteligenciou.

Tieto testy iba potvrdzujú, ako spoločnosti, ktoré vyvíjajú umelú inteligenciu, technicky nie sú pripravené odhaľovať záškodnícke používanie ich vlastných aplikácií. Firma OpenAI dokonca 20. júla nástroj na rozpoznávanie umelej inteligencie stiahla a uznala, že výsledky neboli dostatočné. Zároveň ale deklarovala, že má v pláne pokračovať na jeho vývoji.

Aj napriek tomu, že detektory AI stále nie sú plne funkčné, Yang a Menczer tvrdia, že takéto siete botov sú stále dobre rozpoznateľné. Má to byť vďaka „jednotnému pravdepodobnostnému modelu, ktorý určuje typ a frekvenciu aktivity účtov“. Ten umožňuje pozorovať vzorec správania sa týchto účtov a rozpoznať, že nejde o skutočných ľudí.

Obdobných sietí botov je pravdepodobne omnoho viac

Je pravdepodobné, že sieť „fox8“ je len vrcholom ľadovca dezinformačných sietí botov. Na sociálnych sieťach môže existovať množstvo podobných sietí s navzájom prepojenými účtami, ktoré zverejňujú príspevky vytvorené vďaka umelej inteligencii.

Je známe, že rôzni podvodníci tieto nástroje už používajú, preto bolo len otázkou času, kedy ich vo väčšom začnú využívať aj aktéri šíriaci dezinformácie. Vďaka možnostiam, ktoré systémy generatívnej umelej inteligencie ponúkajú, budú preto nástroje na správne rozpoznávanie obsahu vytvoreného umelou inteligenciou mimoriadne dôležité.

Voľné prístupné generatívne nástroje môžu dezinformačným aktérom pomôcť vytvárať nielen text, ale aj videá a fotografie. Už dnes sú niektoré dezinformácie šírené na sociálnych sieťach vytvorené umelou inteligenciou. Známym príkladom sú vygenerované fotografie policajtov ako násilne zatýkajú bývalého prezidenta USA Donalda Trumpa.

Je preto možné, že vďaka systémom generatívnej umelej inteligencie budú podobné siete botov, ktoré navzájom komunikujú a vytvárajú dojem komunity, na sociálnych sieťach čoraz častejším fenoménom.

CHCETE PODPORIŤ NAŠU PRÁCU? POMÔŽTE NÁM CEZ PATREON. MÔŽETE TAK UROBIŤ UŽ ZA €3
https://infosecurity.sk/podpora/

Je študentom bakalárskeho stupňa Medzinárodných vzťahov na University of Glasgow. Je vice-prezidentom študentského združenia Glasgow European Society. Zaujíma sa o spôsoby fungovania a udržania demokracií, Rusko a jeho vplyv na európsku politiku, a aktuálne politické dianie.