Spoločnosť Meta predstavila nový model umelej inteligencie Galactica. Ten však začal generovať falošné odborné štúdie

Nový model umelej inteligencie Galactica od spoločnosti Meta AI bol pozastavený len dva dni po jeho spustení. Nástroj, ktorého cieľom bolo „zorganizovať vedu“ a pomôcť tak vedcom pri práci, v skutočnosti produkoval problematický a škodlivý obsah.

Spoločnosť Meta AI si dala za cieľ zjednodušiť vedcom prácu a ponúknuť riešenie problému informačného pretlaku vo vede pomocou umelej inteligencie. „Výskumní pracovníci sú zavalení hromadou dokumentov a čoraz menej dokážu rozlíšiť, čo je dôležité a čo nie, píše spoločnosť vo vyhlásení na svojej webstránke.

Riešením mal byť teda nový model umelej inteligencie s názvom Galactica. Jeho krátke fungovanie však prinieslo množstvo kritiky, čo viedlo až k jeho pozastaveniu.

Ako to malo fungovať

Galactica funguje na základe veľkého jazykového modelu (Large Language Model, LLM). Veľké jazykové modely sú v súčasnosti azda najväčším úspechom vo vývoji umelej inteligencie. Dokážu sa vďaka veľkému množstvu dát naučiť komunikovať v prirodzenom jazyku, pričom pracujú s pravdepodobným rozložením sekvencie slov a pomáhajú si kontextom.

Veľký jazykový model, ktorý tentokrát predstavila spoločnosť Meta AI, obsahuje viac ako 48 miliónov článkov, učebníc a iných vstupov vedeckého charakteru. Galactica fungovala ako vyhľadávací nástroj, do ktorého bolo možné zadať jednoduchý pokyn alebo otázku.

Umelá inteligencia následne dokázala napríklad zosumarizovať akademickú literatúru, vypočítať matematický príklad, napísať článok na Wikipédiu či jednoducho odpovedať na otázku.

Výhody konzumácie skla, spáchania samovraždy či praktizovania antisemitizmu

Len niekoľko hodín po spustení začali používatelia na sociálnych sieťach zdieľať výsledky, ku ktorým sa dostali pomocou nástroja Galactica. Často išlo o vysoko problematický obsah, v ktorom nechýbal ani rasizmus, homofóbia, antisemitizmus či hrubým spôsobom porušoval základné etické zásady vedeckého skúmania.

Galactica sa snažila predísť potenciálnym problémom pomocou filtrov. Kvôli ním sa užívateľom nezobrazovali žiadne výsledky na kľúčové slová ako „AIDS“ alebo „rasizmus“. Na druhú stranu dokázal nástroj generovať články o tom, prečo je výhodné spáchať samovraždu či praktizovať antisemitizmus alebo dôvody, pre ktoré sú homosexuáli zlí.

Ako upozornili používatelia na Twitteri, Galactica vyprodukovala množstvo ďalšieho nezmyselného až absurdného obsahu. Dokázala napríklad vygenerovať odborný článok, ktorý poukazuje na zdravotné výhody konzumácie skla, pričom obsahuje aj vymyslené štúdie, experimenty a závery odporúčajúce konzumovať sklo.

V inom prípade vyfabrikovala článok o tom, že Facebook v spolupráci so Stanfordskou univerzitou vytvorili tzv. Gaydar poháňaný umelou inteligenciou. Údajne dokázal identifikovať sexuálnu orientáciu ľudí na základe ich fotografií.

Michael Black, riaditeľ Max Planck Institute for Intelligent Systems, poukázal na hrubé porušovanie etických zásad vedeckého skúmania. Podľa jeho pozorovania používala Galactica v článkoch vymyslené citácie neexistujúcich zdrojov a pripisovala ich skutočným vedcom, ktorí ich však nikdy nenapísali.

Je však dôležité poznamenať, že nejde o výnimočný prípad, keď sa používanie jazykových modelov umelej inteligencie zvrtlo neželaným smerom. Ako vysvetľuje samotná Galactica na vlastnej webstránke, veľké jazykové modely sú náchylnejšie k tzv. halucináciám, pri ktorých sa rôzne informácie zmiešajú dokopy.

Každý výsledok, ktorý sa používateľom zobrazil, preto obsahoval viditeľné upozornenie: „VAROVANIE: Výstupy môžu byť nespoľahlivé! Jazykové modely sú náchylné k halucinovaniu textu.

Potenciálne nebezpečenstvá

Galactica od spoločnosti Meta AI bola len po dvoch dňoch stiahnutá s jednoduchým nešpecifikovaným odôvodnením, že došlo k pozastaveniu jej demoverzie. O niečo ostrejšie reagoval profesor Yann LeCun, ktorý je v spoločnosti Meta hlavným vedcom pre umelú inteligenciu.

Na svojom Twitteri zverejnil sarkastický príspevok: „Demoverzia Galactica je nateraz vypnutá. Už nie je možné sa ani zabaviť jej nezáväzným zneužívaním. Ste šťastní?“

Môžeme však argumentovať, že spoločnosť Meta AI od projektu sľubovala  „zorganizovanie vedy“ a riešenie problému informačného pretlaku. Nie je preto zodpovedné bagatelizovať význam problémov, ktoré sprevádzali jej krátke fungovanie, tvrdením, že išlo o nevinnú zábavu. Galactica naopak predstavovala niekoľko potenciálnych nebezpečenstiev.

Články a ďalšie výstupy, ktoré Galactica generovala, používali prirodzený jazyk a pôsobili dôveryhodným dojmom. Často sa však nezakladali na skutočných faktoch, ale práve naopak – obsahovali vymyslené dáta, citácie, zdroje a niekedy až absurdné závery. A to mohlo aj napriek varovaniam viesť k oklamaniu používateľov.

Obavy spôsobovala najmä skutočnosť, že Galactica mohla byť zámerne zneužívaná na škodlivé aktivity. Používatelia si mohli vygenerovať na pohľad odbornú štúdiu na spoločensky citlivé témy (ako je rasizmus, vakcinácia, práva menšín atď.) a následne ju šíriť ďalej s cieľom ovplyvňovať verejnú mienku či poškodzovať marginalizované komunity.

CHCETE PODPORIŤ NAŠU PRÁCU? POMÔŽTE NÁM CEZ PATREON. MÔŽETE TAK UROBIŤ UŽ ZA €3
https://infosecurity.sk/podpora/