Všetkého veľa škodí – a platí to aj o umelej inteligencii. Výskum MIT v spojení so spoločnosťou OpenAI dokázal, že AI a na nej založených četbotov môžeme prirovnať k nadmernému využívaniu sociálnych sietí, hazardným hrám či požívaniu alkoholu.
Kým v kontrolovanom rozsahu a množstve nejde o nič závažné, v časti prípadov môže viesť až k rozvinutiu závislosti. Vývojári četbotov preto musia do budúcna myslieť aj na tento aspekt interakcie medzi človekom a strojom, no súčasne je potrebné, aby bol tento fenomén riešený na spoločenskej úrovni – napríklad adresovaním čoraz rozšírenejšej osamelosti ľudí.
Ako veľmi bola na vine?
Práve osamelosť môže viesť k tomu, že človek sa začne nezdravo upínať k umelej inteligencii. Najmä vďaka tomu, že dokáže verne imitovať komunikáciu s inou osobou, a to nielen textovou, ale aj hlasovou podobou. To vytvára základ na vybudovanie potenciálne škodlivého vzťahu medzi človekom a strojom. Dokazuje to nedávno publikovaný výskum MIT a spoločnosti OpenAI.
Že môže byť vzťah s umelou inteligenciou nezdravý dokazuje aj minuloročný prípad len 14-ročného amerického tínedžera Sewella Setzera, ktorý podľa jeho matky používal četbota od služby Character.ai dňom i nocou niekoľko mesiacov predtým, ako si siahol na život.
Character.ai umožňuje prispôsobiť si svojho četbota v rámci takzvaného role-playingu. Sewellova matka Megan Garciová si dokonca myslí, že vina je priamo na strane umelej inteligencie a jej tvorcov. „Nebezpečná AI četbotová aplikácia inzerovaná deťom zneužila môjho syna a zmanipulovala ho k tomu, aby si vzal život,“ citoval Garciovú britský denník The Guardian.
Spoločnosť zároveň zažalovala. Tá vyjadrila nad tragickým prípadom ľútosť, no vinu odmieta.
Sewell si vytvoril romantický vzťah s četbotom, ktorého pomenoval Daenerys Targaryen – podľa jednej z hlavných postáv ikonickej knižnej a seriálovej série Hry o tróny. Podľa matky tínedžera četbot prehĺbil problémy s depresiou jej syna, ktoré boli údajne podnietené práve používaním umelej inteligencie.
Pomôže regulácia?
Podľa obžaloby sa Sewell s umelou inteligenciou o svojom zámere zhováral. Údajne sa ho pýtala, či už má konkrétny plán. Keď tínedžer odpovedal kladne, no nebol si istý, či sa mu ho podarí úspešne zrealizovať – napríklad, či nebude trpieť – četbot ho vraj v zámere podporil.
Podľa výskumníka Ricka Claypoola z neziskovej organizácie Public Citizen sa vývojárom AI četbotov nedá veriť a nemôžeme sa spoliehať na samoreguláciu, píše Guardian. Ak firmy zlyhajú pri bezpečnostných opatreniach, podľa Claypoola by mali čeliť následkom. Zdôraznil tiež potrebu zásahu zo strany štátu.
Na európskom trhu už regulácia umelej inteligencie existuje. Do platnosti nedávno vstúpil takzvaný AI Act Európskej únie, ktorý nastavuje pravidlá pre vývoj a používanie umelej inteligencie.
Zásah štátu do vývoja AI je často kritizovaný práve veľkými spoločnosťami, ale aj súčasnou americkou administratívou. Nedostatočná či žiadna regulácia však otvára priestor pre riziká, aké môžu vyústiť práve do prípadov, ako je smrť Sewella Setzera.
Čo ďalej?
„Naše zistenia ukazujú, že dlhšie denné používanie četbotov je spojené so zvýšeným pocitom osamelosti a zníženou socializáciou, avšak spôsob interakcie a obsah konverzácií významne ovplyvňujú tieto efekty,“ zhŕňajú závery svojej štúdie výskumníci z prestížnej MIT.
Tvrdia, že do budúcna je potrebný ďalší výskum na objasnenie konkrétnych čŕt a na skúmanie dlhodobých dôsledkov. Výskumníci totiž sledovali účastníkov štúdie len v rámci štvortýždňového obdobia, čo má limitovanú výpovednú hodnotu.
Cieľom je dosiahnuť, že AI technológie budú podporovať zdravšie a viac podporujúce digitálne prostredie, ktoré nebude nahrádzať dôležité ľudské vzťahy a kontakt.
Riešenie však neleží výlučne na strane vývojárov digitálnych produktov. „Hoci je zlepšovanie AI politík a vytváranie regulačných opatrení nevyhnutné, širší problém spočíva v zabezpečení silných sociálnych podporných systémov v reálnom živote. Zvyšujúca sa prevalencia osamelosti naznačuje, že zameranie sa len na technické riešenia nestačí, pretože ľudské potreby sú od základu komplexné. Riešenie psychosociálnych rozmerov používania AI vyžaduje holistický prístup, ktorý integruje technologické záruky so širšími spoločenskými zásahmi zameranými na podporu zmysluplných ľudských spojení,“ uzatvárajú odborníci z MIT.
Ocitli ste sa v kríze alebo pociťujete psychické ťažkosti? Pomoc nájdete na poradni IPčko, Krízovej linke pomoci, prípadne na portáli ChcemSaZabit.sk či na bezplatnom telefónnom čísle 0800 500 333.
Článok vznikol s podporou Holandského veľvyslanectva na Slovensku.
