V marci tohto roku sa začali na ľuďoch testovať lieky navrhnuté na liečbu rakoviny lymfatického systému, zápalových ochorení a ochorenia motorického neurónu. Výnimočnosť týchto liekov spočíva v ich dizajne – boli totiž navrhnuté umelou inteligenciou (AI).
Podľa profesora Andrewa Hopkinsa, výkonného riaditeľa britského startupu Exscientia, by na konci dekády mohli byť všetky nové lieky navrhované prostredníctvom AI. Exscientia spolu s japonskou farmaceutickou firmou Sumitomo Dainippon Pharma stoja za liekom pre ľudí trpiacich obsesívno-kompulzívou poruchou známou aj ako OCD. Ten bol tiež navrhnutý AI.
Lieky navrhnuté AI majú niekoľko výhod. V porovnaní s bežným vývojom liekov je tento spôsob rýchlejší a lacnejší. Bežne vyvíjané lieky sú tiež tradične testované na zvieratách. Umelá inteligencia však dokáže pracovať s dátovými modelmi postavenými na ľudských dátach, a tak sa testom na zvieratách dokáže vyhnúť. Testy liekov spraví v digitálnom priestore na základe datasetu obsahujúceho informácie od rôznych ľudí.
EÚ si uvedomuje potrebu regulácie
Regulačné plány v rámci EÚ majú nadobudnúť konkrétnu podobu už tento rok. Stane sa tak na základe publikácie Európskej liekovej agentúry (EMA), v ktorej budú predstavené plány pre reguláciu AI v oblasti navrhovania liekov.
EÚ sa totiž otázkou AI zaoberá už od roku 2018. Vo svojej digitálnej stratégii sa Európska komisia (EK) okrem cieľa byť konkurencieschopnou v oblasti AI venuje aj tvorbe legislatívnych rámcov a budovaniu dôvery v umelú inteligenciu.
V dôsledku rýchleho vývoja umelej inteligencie však tento regulačný rámec nemôže zostať statickým. Bude potrebné, aby bol flexibilný a schopný rýchlo sa prispôsobovať vývoju. Regulácia bude spadať k iným európskym právnym predpisom pokrývajúcim dáta a dátové hospodárstvo, ako je napríklad navrhované nariadene Akt o umelej inteligencii.
Proces dizajnu liekov prostredníctvom AI môže byť hrozbou
Inovácie často predstavujú neúmyselnú hrozbu. Inak tomu nie je ani pri liekoch navrhovaných AI. Prvou možnou hrozbou je skladovanie dát a ich zber. Aby bola umelá inteligencia schopná navrhnúť liek čo najpresnejšie a najefektívnejšie, potrebuje obrovské množstvo dát od ľudí. Na jednej strane vyvstáva otázka o zabezpečení týchto dát pred únikom alebo krádežou. Na strane druhej stojí výzva etického zberu a nezaujatosti potrebných dát.
Možné je aj zneužitie tejto technológie na iné než medicínske účely. Technológiu, ktorá môže byť použitá aj mimo svojho zamýšľaného účelu, nazývame technológiou dvojitého využitia (dual-use technology). Typicky ide o technológie s civilným aj vojenským potenciálom. AI medzi technológie dvojitého využitia rozhodne spadá. Je totiž možné, že by mohla vytvoriť vzorec na smrtiacu chemickú či biologickú zbraň. Vývoj takejto zbrane by bol rýchlejší a lacnejší, čo zvyšuje aj riziko jej nasadenia.
Ak je AI schopná navrhnúť účinné medicínske lieky, dokáže tiež potenciálne vytvoriť chemický vzorec účinnej syntetickej drogy. V skutočnosti už existuje algoritmus nazývaný DarkNPS, ktorého úlohou je predikovať možný vývoj a identifikovať potenciálne umelo vytvorené drogy, ktoré ešte nemusia ani existovať. Algoritmus je podľa amerického populárne vedeckého časopisu Scientific American momentálne využívaný napríklad Európskym monitorovacím centrom pre drogy a drogovú závislosť či Americkým úradom pre kontrolu liečiv.
Ďalším neželaným, ale pravdepodobným vedľajším efektom takto navrhovaných a testovaných liekov je možná likvidácia pracovných miest. Nahrádzanie ľudí počítačovým programom je jednou z najreálnejších hrozieb, ktorým farmaceutické odvetvie bude v budúcnosti čeliť.
Na možné riziká odkazuje aj Európsky parlament
Niekoľko potenciálnych hrozieb týkajúcich sa umelej inteligencie všeobecne identifikuje priamo aj EÚ. Európsky parlament (EP) upozorňuje na možnosť nedostatočného či prílišného používania AI.
EP dáva do pozornosti aj problém zodpovednosti za prípadné spôsobené škody – kto by mal byť zodpovedný za škodu spôsobenú umelou inteligenciou v prípade nehody spôsobenej samoriadiacim autom: majiteľ firmy, programátor, či výrobca finálneho produktu?
AI a s ňou spojené zhromažďovanie dát môže podľa EP viesť k narušeniu hospodárskej súťaže. To by mohlo nastať po eliminácii konkurentov na trhu tým, že by niektoré firmy získali viac informácií a nadobudli výhodu. Podľa Organizácie pre hospodársku spoluprácu a rozvoj (OECD) vie tiež AI umožniť tajné dohody medzi firmami a má moc eliminovať výzvy, ktoré predstavujú hrozbu pre stabilitu kartelov.
Problémy môže spôsobiť aj transparentnosť. Pri jej nedostatku sa môže stať, že človek nebude vedieť, či komunikuje so živou bytosťou alebo strojom. Naopak, prílišnou transparentnosťou je eventuálny scenár, keď by online predajca či zadávateľ politickej kampane mohol využiť AI na predpovedanie správania človeka a efektívnejšie cielenie reklamy.
EP znepokojujú aj možné zdravotné a bezpečnostné riziká chybných produktov či negatívne dopady umelej inteligencie na zamestnanosť.
AI ako možná výzva pre základné práva a demokratické hodnoty
EP dokonca načrtol možný scenár, podľa ktorého by mohla byť umelá inteligencia hrozbou pre demokraciu a základné práva. Na rovnaké riziko upozorňuje aj Európska komisia (EK) vo svojej Bielej knihe o umelej inteligencii.
Algoritmy umelej inteligencie fungujú na základe dát, ktoré sú jej poskytnuté. Tie však môžu byť podľa EÚ úmyselne či neúmyselne skreslené. Upravené dáta následne môžu viesť k rozhodnutiam, ktoré sú zaujaté (etnicky, vekovo či na základe pohlavia). To môže predstavovať problémy v podobe diskriminácie pri prijímaní do zamestnania, prepúšťaní, poskytovaní pôžičiek alebo pri trestných konaniach.
AI dokáže vytvoriť aj tzv. komory ozvien (echo chambers), ktoré na základe predchádzajúceho správania jednotlivca dokážu vytvoriť prostredie, v ktorom sa bude stretávať len s informáciami alebo názormi, ktoré odrážajú a posilňujú jeho vlastné videnie sveta.
To znamená, že ak sme napríklad interagovali s príspevkami týkajúcimi sa Donalda Trumpa, budeme v našom feede na sociálnych sieťach vidieť oveľa viac obsahu spojeného s Trumpom a jemu podobnými ľuďmi a stránkami. V extrémnom prípade môže dôjsť k tomu, že daný používateľ nebude vidieť žiadne príspevky, ktoré sa názorovo či tematicky odlišujú. Takýmto spôsobom by AI mohla zabraňovať pluralitnej a inkluzívnej verejnej diskusii.
EP tiež berie do úvahy nebezpečenstvo, ktoré predstavujú tzv. deepfake videá, teda realisticky pôsobiace falošné videá vytvorené pomocou AI. Ľudia v týchto videách môžu robiť či hovoriť veci, ktoré sa nikdy nestali a neboli povedané. EÚ poukazuje na možnú finančnú ujmu, poškodenie povesti či na potenciál deepfake videí pri prehlbovaní polarizácie spoločnosti, či dokonca manipulácii volieb.
EK v Bielej knihe predstavila aj riziko, že štátne orgány či iné subjekty by potenciálne mohli postupovať v rozpore s ochranou údajov EÚ a použiť AI na sledovanie či monitorovanie svojich zamestnancov.
CHCETE PODPORIŤ NAŠU PRÁCU? POMÔŽTE NÁM CEZ PATREON. MÔŽETE TAK UROBIŤ UŽ ZA €3
https://infosecurity.sk/podpora/