AI môže byť komplicom teroristov, varujú bezpečnostní experti

Generatívna umelá inteligencia dokáže v súčasnosti vytvárať celé texty, fotografie, videá či chemické vzorce. V rukách teroristických organizácií má potenciál zvýšiť efektivitu ich činnosti, napríklad generovaním propagandy či sofistikovanejších kybernetických útokov. Pred novými hrozbami varujú tajné služby, ale aj OSN.

Umelá inteligencia (AI) vie ľudstvu poslúžiť mnohými spôsobmi. Môže ísť napríklad o krátenie si voľného času prostredníctvom generovania obrázkov za použitia AI generátorov, ako Tvorca Obrázkov od Microsoftu.

AI tiež dokáže navrhovať lieky, ktorých vývoj je takto lacnejší, rýchlejší a nevyžaduje testovanie na zvieratách. Na druhú stranu však dokáže AI v nesprávnych rukách napríklad produkovať dezinformácie. Pred jej zneužitím varovali aj britská bezpečnostná agentúra MI5 či americká FBI.

Siri, ako mám vyrobiť bombu?

Ken McCallum, generálny riaditeľ MI5, a Christopher Wray, riaditeľ FBI, vyjadrili znepokojenie z možných hrozieb vyplývajúcich z potenciálneho zneužitia AI teroristickými subjektami.

Podľa McCalluma existuje riziko, že by generatívne AI chatboty mohli byť zneužité napríklad na získanie návodu na výrobu bomby. Potenciálnym protiargumentom je, že vývojári do softvérov vkladajú bezpečnostné opatrenia. Tie však možno za určitých podmienok obísť. Bezpečnostné opatrenia zahŕňajú napríklad určité frázy, ktoré AI generátory odmietnu spracovať.

Napríklad Google Bard má zakázané rozoberať témy ako násilie, nenávisť či diskriminácia, a viesť inak potenciálne škodlivé rozhovory. Nemôže sa púšťať ani do náboženských či politických otázok. Podľa Wraya sa takéto bezpečnostné opatrenia pokúšajú teroristi obísť napríklad použitím iných nástrojov AI.

Okrem generatívnych softvérov však môžu byť na tento účel zneužité aj systémy primárne určené na navrhovanie liekov. Podľa doktorky Elany Fertig, riaditeľky Oddelenia kvantitatívnych vied na Univerzite Johna Hopkinsa, vie ľahkosť, s akou AI dokáže generovať chemické vzorce potenciálne nebezpečných látok, urýchliť proces vytvárania smrtiacich biologických zbraní.

Do úvahy v tomto prípade prichádza aj možnosť navrhnutia „etnických“ biologických zbraní. Tie by dokázali na základe genetických informácií útočiť iba na vybrané etnikum. Podľa experimentu neziskovej organizácie RAND Corporation existuje potenciál pre využitie chatbotov na získanie asistencie pri plánovaní a vykonávaní biologických útokov.

Lacná a efektívna propaganda

Možnosť získať návod na výrobu zbraní nebola jedinou, pred ktorou predstavitelia tajných služieb varovali. Wray upozornil, že hrozbou je aj tzv. deepfake obsah. Ten vzniká tak, že pomocou AI je do existujúcej fotografie alebo videa vložená tvár niekoho iného. Okrem toho dokáže AI generovať nové, predtým neexistujúce videá či fotografie.

Existujú aj softvéry, ktoré zo vzorky hlasu vytvoria audiozáznam, na ktorom obeť hovorí niečo, čo nikdy nepovedala. Na Slovensku sa takýmito obeťami AI generovaného audiozáznamu stali pred predčasnými voľbami predseda Progresívneho Slovenska Michal Šimečka a novinárka Denníka N Monika Tódová. Rovnako sa internetom šíril aj deepfake audiosúbor, na ktorom prezidentka Zuzana Čaputová vyjadrovala podporu nacionalistickej strane.

Deepfake videá by mohli byť využité aj v rámci teroristickej či politickej propagandy. Úlohou propagandy je formovanie vnímania, manipulácia poznania a usmerňovanie správania jej prijímateľov tak, aby bol dosiahnutý cieľ propagandistu. Inak povedané, propagandu možno použiť napríklad na ovplyvnenie výsledkov volieb, ale aj verbovanie do radov teroristov.

Potenciál AI si všimli aj v OSN

Spoločná správa Medzinárodného inštitútu OSN pre výskum kriminality a trestnej justície (UNICRI) a Strediska OSN pre boj proti terorizmu (UNCCT) z roku 2021 taktiež pokrýva možné nebezpečenstvo, že sa AI stane nástrojom v rukách teroristov.

AI by mohla byť podľa správy využitá na zvýšenie efektívnosti kybernetických útokov či v prípade autonómnych robotov na priame fyzické útoky na rôzne ciele. Správa taktiež berie na vedomie možné politické hrozby vyplývajúce zo zneužitia AI, okrem iného aj deepfake videá a šírenie dezinformácií.

Na druhej strane, osobitná spravodajkyňa OSN pre podporu a ochranu ľudských práv v boji proti terorizmu Fionnuala Ní Aoláin vyjadrila znepokojenie z používania AI a iných vysoko rizikových technológií v boji proti terorizmu. U niektorých z týchto technológií totiž doteraz chýba legislatívna regulácia. Ní Aoláin upozornila na skutočnosť, že niektoré štáty používajú tieto technológie proti aktivistom, disidentom či novinárom.

Samotní autori spoločnej správy UNICRI a UNCCT podotýkajú, že zatiaľ neexistujú žiadne dôkazy o použití AI teroristickými organizáciami. Napriek tomu túto potenciálnu hrozbu netreba podceňovať.

Umelá inteligencia je čoraz rozšírenejšia a dostupnejšia. Neustále sa vyvíja a čoraz častejšie sú predstavované nové funkcie, ktoré dokáže vykonávať. Autori správy zároveň pripomínajú, že teroristi už v minulosti ukázali schopnosť prispôsobiť sa novým technológiám. Je preto veľmi pravdepodobné, že tomu nebude inak ani v prípade AI.

CHCETE PODPORIŤ NAŠU PRÁCU? POMÔŽTE NÁM CEZ PATREON. MÔŽETE TAK UROBIŤ UŽ ZA €3
https://infosecurity.sk/podpora/