DeepMind ukázal AI pre roboty, no bezpečnosť ostáva otvorenou otázkou

Umelá inteligencia robotom umožňuje vykonávať zložité úlohy na základe vizuálnych a hlasových pokynov.

Výskumné laboratórium Google DeepMind, dcérska spoločnosť Alphabetu, v marci predstavilo dva špecifické nové modely umelej inteligencie (AI), Gemini Robotics a Gemini Robotics-ER. Predstavujú výrazný pokrok v prenášaní umelej inteligencie do reality.

Modely sú postavené na najnovšej architektúre Gemini 2.0, ktorú Google prezentuje ako svoju doposiaľ najúčinnejšiu. Sú navrhnuté tak, aby umožnili (fyzickým) robotom porozumieť okoliu, správne sa orientovať, vykonávať pokyny ľudí a zvládať náročnejšie úlohy. Hoci ide o významný míľnik v oblasti robotiky, zároveň to vyvoláva otázky týkajúce sa bezpečnosti, etiky a budúcnosti trhu práce.

Spolupráca s viacerými partnermi

AI model Gemini Robotics umožňuje robotom spracovávať jednak vizuálne, ale aj verbálne pokyny súčasne, čo im dovoľuje vykonávať úlohy, ako napríklad zapájanie zariadení do elektrickej zásuvky, balenie obedov či zapínanie tašiek.

Druhý model, Gemini Robotics-ER, posilňuje schopnosť priestorového uvažovania, čo robotom umožňuje analyzovať svoje okolie v 3D, vykonávať správne pohyby a precízne manipulovať s rôznymi objektmi. Tieto modely už testujú partneri ako Apptronik, Boston Dynamics či Agile Robots.

Na uvedenie tejto technológie do praxe sa Google spojil s texaskou spoločnosťou Apptronik, ktorá vyvinula humanoidného robota Apollo určeného pre logistiku a výrobu. Google taktiež investoval do jej posledného investičného kola čiastku 350 miliónov dolárov.

Budúcnosť AI vo fyzickom svete  a bezpečnosť

Rýchla integrácia výkonných systémov umelej inteligencie do fyzických robotov však zároveň vyvoláva obavy výskumníkov a sociológov. Jedným z hlavných problémov je bezpečnosť.

Keďže roboty týmto nadobúdajú väčšiu autonómiu, je nevyhnutné zabezpečiť, aby sa správali predvídateľne, a to aj v nebezpečnejších situáciách. Google DeepMind preto zaviedol nový bezpečnostný štandard s názvom ASIMOV, ktorý má za úlohu identifikovať a zmierniť rizikové správanie sa robotov.

Ďalšou oblasťou obáv je hodnotové zosúladenie s ľuďmi. Modely Gemini využívajú princípy takzvanej „konštitučnej AI“, ktorá má zaistiť, že rozhodnutia AI budú etické. No odborníci varujú, že aj dobre mienené systémy môžu neželane spôsobiť škody, ak nebudú pod dostatočným dohľadom človeka.

Automatizácia vs. ľudská práca

Pod drobnohľadom sú aj ekonomické a spoločenské dôsledky. Nasadzovanie humanoidných robotov v odvetviach ako výroba, logistika či služby by mohlo potenciálne ohroziť počet voľných pracovných miest.

Zatiaľ čo zástancovia tvrdia, že umelá inteligencia jednoducho doplní ľudskú prácu, odbory volajú po reguláciách, ktoré ochránia pracovníkov a zabezpečia spravodlivé prechody počas nástupu automatizácie a robotov.Výkonný riaditeľ Googlu Sundar Pichai označil robotiku ako „testovacie pole“ pre nasadzovanie umelej inteligencie v reálnych podmienkach, kde musí reagovať na meniace sa prostredie. No odborníci stále zdôrazňujú, že regulácie a dohľad musia držať krok s technologickým vývojom.

Článok vznikol s podporou Holandského veľvyslanectva na Slovensku.

Je absolventkou bakalárskeho programu BA European Languages and Cultures so zameraním na francúzsky jazyk a európsku politiku. Má magisterské vzdelanie MA Datafication and Digital Literacy z Katedry mediálnych štúdií a žurnalistiky na University of Groningen v Holandsku. Vo svojej diplomovej práci skúmala vzťahy medzi sociálnymi médiami, platformizáciou spoločnosti, dynamikou moci a vnímaním používateľov. Nedávno absolvovala 5-mesačnú stáž v Európskej komisii v Luxemburgu na Generálnom riaditeľstve pre komunikačné siete, obsah a technológiu.