Technológie deepfake a klonovania hlasu sú na vzostupe

Deepfake videá sú na vzostupe a sú čoraz sofistikovanejšie. Sú temnou stránkou umelej inteligencie a hrozbou nielen v rámci sociálnych sietí. Okrem nich sa veľmi šikovne dá využiť, ale aj zneužiť klonovanie hlasu iných osôb pomocou umelej inteligencie. Je len otázkou času, kedy bude nemožné rozoznať, či ide o realitu alebo fikciu.

Zjednodušene by sme Deepfake videá mohli opísať ako výsledok technológie, ktorá dokáže pomocou umelej inteligencie zameniť tváre osôb. Tým vzniká presvedčivý falošný obsah, ktorý môže ľudí klamať aj manipulovať.

Výsledky takejto úpravy je možné zneužiť na rôzne účely s potenciálom ohroziť bezpečnosť, či dokonca narušiť integritu volieb a demokratických procesov. V súčasnosti deepfake videá využívajú inováciu vytvorenú v rámci umelej inteligencie (GAN), pomocou ktorej sa neustále zvyšuje ich kvalita.

Vďaka pokroku sa falošné videá presúvajú aj do podnikateľského sektora. Ešte v roku 2019 spoločnosť Deeptrace, ktorá sa venuje vývoju technológií umelej inteligencie, uviedla, že počet online deepfake videí sa zdvojnásobil. Dosiahol teda takmer 15-tisíc za jeden rok.

Klonovaním je možné vysloviť za iných slová, ktoré nikdy nepovedali

Klonovanie hlasu je súčasťou širšieho technologického súboru, ktorý napodobňuje fyzické vlastnosti človeka a zahŕňa umelo vytvorené obrázky, video a hlas.

Funguje tak, že odoberá úryvky nahratého textu určitej osoby a pomocou umelej inteligencie analyzuje v hlasových ukážkach rečové vzorce. To umožňuje používateľovi vytvárať zvukové nahrávky alebo streamy, ktoré vlastník hlasu nikdy nepovedal.

Klonovanie hlasu sa však používa aj s pozitívnym zámerom. Napríklad môže pomôcť ľuďom, ktorí stratili reč. Zaujímavé je aj pre zábavný či filmový priemysel. Vďaka nemu dokážu tvorcovia filmov vytvoriť konzistentný hlasový obsah, aj keď herec práve nie je k dispozícii.

Nedávny známy prípad klonovania bol zaznamenaný v júni 2021, keď pri natáčaní dokumentu „Roadrunner“ použili zvuk generovaný umelou inteligenciou. Režisér sa rozhodol použiť klonovanie hlasu a pomocou hlasu zosnulého Anthonyho Bourdaina dokázali do filmu vložiť vetu, ktorú nikdy nepovedal.

Mnohí diváci sa nad použitou technikou pohoršili, hoci hlas bol využitý iba na prečítanie vlastnoručne napísaného e-mailu zosnulého známeho šéfkuchára a nešlo o nič vymyslené. Každopádne však vyvstáva otázka, kde sú hranice zodpovedného a etického používania týchto technológií.

Je potrebné byť o krok vpred

Technologický pokrok a nástroje na vytváranie deepfake-ov sa stávajú čoraz dostupnejšími a jednoduchšími na používanie. Ak je technológia zneužitá so zlým úmyslom, môže to mať katastrofálne dôsledky.

Do budúcna existuje riziko, že by táto technológia mohla byť zneužitá napríklad na finančné alebo poistné podvody či na manipuláciu s akciovým trhom. Falošné videá by mohli byť uvádzané aj ako nepravdivé dôkazy pri súdoch, a tým ohroziť spravodlivosť rozsudkov.

Napriek tomu, že rôzne spoločnosti pracujú na inováciách a riešeniach, ktorými odhaľujú deepfake obsah, vždy napreduje aj druhá strana, ktorá sa snaží o opak.

Dnes ešte stále existujú nedostatky, vďaka ktorým sa deepfake videá či klonovanie hlasu dajú odhaliť. Ich kvalita sa však v nasledujúcich rokoch bude nevyhnutne zlepšovať. Môže tak dosiahnuť bod, v ktorom bude pravda prakticky nerozoznateľná od fikcie. Preto je nutné, aby technologické spoločnosti boli vždy o krok vpred pred tými, ktorí tieto technológie zneužívajú na živenie hybridných vojen.

Vyštudovala bakalársky stupeň Medzinárodných vzťahov a magisterský stupeň Bezpečnostných štúdií na Fakulte politických vied a medzinárodných vzťahov UMB v Banskej Bystrici. Ako dobrovoľníčka pomáhala s organizovaním protestov iniciatívy Za slušné Slovensko. Počas štúdia absolvovala stáž na GLOBSEC 2021 Bratislava Forum. Zaujíma sa o hybridné hrozby, kognitívnu bezpečnosť a environmentálnu politiku. Kontakt: adriana.polakova@infosecurity.sk