Odborníci z Massachusettského technologického inštitútu (MIT) vytvorili program schopný analyzovať a odhaliť účty, ktoré na sociálnych sieťach šíria dezinformácie a propagandu. Na druhej strane experti varujú, že umelá inteligencia môže byť využívaná aj na tvorbu a šírenie škodlivého obsahu. Blíži sa koniec klasických trollov, ktorých nahradí sofistikovaný softvér?
Dezinformácie na vzostupe
Slová ako hoax, dezinformácia či fake news sa dostávajú čoraz viac do povedomia laickej verejnosti. Nejde však o žiadnu novinku, keďže falošné správy a propaganda existujú už stáročia. Čo sa však v priebehu dejín menilo, je ich forma.
Vďaka vedecko-technologickému pokroku má dnes prístup k internetu viac než 4,5 miliardy ľudí. Okrem množstva výhod predstavujú internetový priestor a sociálne siete aj hrozbu v podobe už spomínaných škodlivých správ, ktorých šírenie je na internete jednoduché a efektívne.
S narastajúcim množstvom dezinformácií si už dlhodobo nevedia poradiť technologickí giganti ako Facebook, Twitter či Google, za čo sú častokrát terčom kritiky.
Pri odhaľovaní dezinformácií môže pomôcť umelá inteligencia
Práve v nerovnom boji s dezinformáciami má pomôcť nástroj, ktorý od roku 2014 vyvíjajú na americkom MIT. Cieľom programu RIO (Reconnaissance of Influence Operations) je na základe analýzy obsahu a užívateľských účtov na sociálnych sieťach automaticky identifikovať vplyvové operácie.
Spočiatku vedci spozorovali nezvyčajnú aktivitu už v roku 2014, keď monitorovali účty, ktoré šírili proruské naratívy. Funkčnosť systému testovali opäť pri francúzskych prezidentských voľbách v roku 2017. Počas doby 30 dní pred konaním volieb zozbierali 28 miliónov príspevkov na sociálnej sieti Twitter, ktoré následne vyhodnotili pomocou RIO. Systém dokázal identifikovať účty šíriace dezinformácie s úspešnosťou 96 %.
Systém RIO kombinuje viacero analytických techník a dokáže kvantifikovať vplyv jednotlivých účtov. Okrem toho je možné k účtom priradiť ďalšie parametre, ktoré neskôr pomáhajú pri lepšej práci s dátami.
Okrem pomoci štátnym inštitúciám a sociálnym sieťam by systém mohol slúžiť aj tradičným médiám. „Obrana voči dezinformáciám nie je len o národnej bezpečnosti, ale taktiež o ochrane demokracie,“ uviedol člen výskumného tímu Edward Kao.
Každá minca má dve strany
Takmer každá technológia môže byť zneužitá na zlé úmysly, inak tomu nie je ani pri umelej inteligencii. Kým v súčasnosti produkujú falošné správy reálni ľudia, v budúcnosti by ich mohla veľmi jednoducho nahradiť umelá inteligencia.
Výskumníci z CSET (Center for Security and Emerging Technology), sa preto rozhodli otestovať schopnosť umelej inteligencie tvoriť a šíriť dezinformácie. Vo svojom výskume pracovali s textovým generátorom GPT-3 (Generative Pre-trained Transformer 3) od spoločnosti OpenAI.
O tom, že umelá inteligencia napreduje veľmi rýchlo, svedčí aj článok britského portálu The Guardian, ktorý bol napísaný generátorom GPT-3.
Pracovníci CSET-u testovali GPT-3 v niekoľkých oblastiach, ako napríklad tvorba krátkych až stredne dlhých dezinformačných textov, manipulácia už existujúcich správ, tvorba základov pre nové konšpiračné teórie, šírenie falošných správ v cieľových komunitách či schopnosť presvedčiť jednotlivé ciele.
Na základe výsledkov testu možno konštatovať, že umelá inteligencia dokáže s malou pomocou človeka efektívne tvoriť a ďalej pracovať s dezinformáciami. Výskumníci sa domnievajú, že využitie umelej inteligencie v dezinformačných kampaniach v budúcnosti je v silách krajín ako je Rusko alebo Čína.
Pre efektívny boj proti automatizovaným dezinformačným kampaniam je podľa autorov výskumu potrebné sústrediť sa na infraštruktúru týchto operácií. V tomto prípade ide najmä o identifikovanie a blokovanie falošných účtov na sociálnych sieťach.
O nástrahách umelej inteligencie sa v posledných dňoch snaží Slovákov varovať aj operátor O2, a to svojou kampaňou s deepfake videom vytvoreným pomocou umelej inteligencie.