Uniknuté dokumenty spoločnosti Facebook poukazujú na slabú kontrolu rizikového obsahu v Indii

Indický trh je pre spoločnosť Facebook najväčším na svete. Firma však napriek tomu zlyháva pri regulácii obsahu, ktorý sa dostáva k 340 miliónom užívateľov v Indii. Táto situácia vyvoláva v krajine násilné tendencie medzi etnickými a náboženskými skupinami.

facebook india

Začiatkom roku 2019, niekoľko mesiacov pred indickými parlamentnými voľbami, si výskumná pracovníčka spoločnosti Facebook založila na platforme falošný účet s cieľom vypracovať prípadovú štúdiu zameranú na situáciu v Indii. Jej profil bol lokalizovaný v indickom štáte Kerala. Kritériom výskumu bolo sledovať všetky stránky, ktoré platforma automaticky odporučí. 

Po niekoľkých týždňoch bol jej profil zaplavený kopou dezinformácií, nenávistného a násilného prejavu. Výsledok tejto prípadovej štúdie bol publikovaný ako interný dokument Facebooku, ktorý sa v súčasnosti spoločne s mnohými ďalšími dostáva na verejnosť v rámci kauzy The Facebook Papers.

Kritici sa nemýlili

Závery tejto a ďalších zverejnených interných štúdií dokazujú, že kritika, ktorá sa na spoločnosť sype zo strán mnohých aktivistov a politikov je skutočne oprávnená. Spoločnosť expanduje do nových krajín bez znalosti miestnych reálií a potenciálnych dopadov svojej podnikateľskej činnosti na kultúru a politiku.

Medzi hlasných kritikov praktík spoločnosti Facebook patria aj členovia Next Billion Network. Ide o subjekt občianskej spoločnosti venujúci sa hrozbám spojeným s technológiami na globálnom juhu.

Jeho členovia upozorňovali predstaviteľov technologického giganta medzi rokmi 2018 a 2019 na to, že nekontrolovaný nenávistný prejav na ich platforme má v Indii reálny potenciál prerásť do komunitného násilia. 

Nerovnomerné rozdelenie zdrojov

India je v súčasnosti pre Facebook najväčším trhom na svete s viac než 340 miliónmi používateľov. Aktuálna situácia na tomto subkontinente je však len extrémnejšou verziou problému, ktorému Facebook čelí po celom svete.

Jazyková rôznorodosť krajiny si pri boji s nebezpečným obsahom vyžaduje nasadenie značných zdrojov. Tie však Facebook momentálne nedokáže, alebo nechce vynakladať v požadovanej kvalite ani kvantite. 

Zverejnené interné dokumenty Facebooku dokazujú, že 87% rozpočtu na boj s nebezpečným obsahom je vyčlenených pre USA, napriek tomu, že v Spojených štátoch žije len zhruba 10% používateľov platformy. To znamená, že 13% z tohto rozpočtu musí vystačiť pre zvyšných 90% používateľov po celom svete.

Masové skupiny ako ideálne miesto

Desať dní po založení výskumného účtu došlo k bombovému útoku v regióne Kašmír, ktorý si nárokuje India aj Pakistan. Podľa dokumentu sa po tomto čine enormne zvýšil počet zavádzajúcich a nenávistných príspevkov, ktoré propagovali konšpiračné teórie a obvinenia medzi Indmi a Pakistancami. 

V sledovaných facebookových skupinách začali cirkulovať proti-pakistanské a proti-moslimské naratívy. Iný interný výskum firmy z roku 2019 poukazoval na fenomén vytvárania masových facebookových skupín s desaťtisícmi členov. Tieto skupiny mali silný potenciál efektívne šíriť nenávistný obsah a podporovať konfliktné správanie a nálady.

Výnimky pre prominentných užívateľov

Po tom, čo výskumníčka rozoslala závery svojej štúdie zodpovedným nadriadeným, sa spoločnosť rozhodla zasiahnuť a implementovať nástroje pre zníženie miery rizikového obsahu ešte pred voľbami do parlamentu. 

V správe o svojej aktivite firma popísala optimistický pohľad a zdôraznila spoluprácu s tretími stranami, ktoré jej pomáhali s fact-checkingom. 

Zverejnené dokumenty však tiež odhaľujú, že si spoločnosť vytvárala zoznam indických politických aktérov, ktorí dostávali špeciálnu výnimku z fact-checkingu. To znamená, že im Facebook odpustil aj previnenie proti užívateľským pravidlám.

Počas volieb tiež bolo možné v Indii sledovať nárast v počte aktívnych botov a falošných účtov. V samostatnom výskume vyhotovenom tesne po voľbách bolo zverejnené zistenie, že 40% príspevkov s najvyšším počtom interakcií a videní pochádzalo z neautentických účtov.

Proti-moslimské a nacionalistické naratívy

Ďalšia prípadová štúdia zameraná na proti-moslimské skupiny zdokumentovala silne zavádzajúci a dehumanizujúci obsah. Ten prirovnával moslimov k zvieratám a tvrdil, že Korán káže mužom znásilňovať rodinné príslušníčky ženského pohlavia.

Mnoho z tohto materiálu sa nachádzalo v skupinách, ktoré podporovali Rashtriya Swaqamsevak Sangh (RSS), indickú pravicovú a nacionalistickú skupinu s úzkymi väzbami na vládnucu stranu Bharatiya Janata Party (BJP).

Facebook teda mal informácie o tom, že na platforme dochádza k rozširovaniu vplyvu radikálnych skupín a že je potrebné zlepšiť systémy umelej inteligencie regulujúce obsah príspevkov. Napriek tomu firma dodnes ani len neoznačila RSS za nebezpečnú skupinu podnecujúcu náboženské násilie.  

Prečo Facebook v regulácii obsahu zlyháva?

Facebook kvôli obavám zo straty užívateľov a vládnych obmedzení nerád zasahuje do politicky a kultúrne citlivých tém. Problémom je tiež to, že firma a vláda fungujú v určitej symbióze. Vláda si potrebuje udržať dominanciu v online priestore a Facebook si potrebuje udržať svojich indických používateľov.

V neposlednom rade je India jazykovo, etnicky, nábožensky a kultúrne veľmi rozmanitá. Pre vytvorenie efektívneho systému umelej inteligencie, ktorý by dokázal identifikovať rizikový obsah v každom z 22 oficiálnych jazykov Indie je potrené obrovské množstvo dát.

Na príklade Indie môžeme najlepšie demonštrovať nedostatky Facebooku pri zvládaní svojho globálneho vplyvu. Firmou však v posledných rokoch otriaslo niekoľko ďalších závažných káuz ohľadne nezvládania regulácie obsahu na platforme.

Jedna z nich sa týkala Mjanmarska, kde Facebook nedokázal zabrániť šíreniu nebezpečného obsahu na svojej platforme, čo v konečnom dôsledku prispelo k etnickým čistkám. V Etiópii bola sociálna sieť úspešne využitá nacionalistickými militantnými skupinami k vyvolávaniu násilia šírením zavádzajúceho obsahu.

Udalosti z Indie nám ukazujú, že vytvorenie jasných a všeobecných pravidiel pre fungovanie sociálnych sietí je základom stability. Neregulovaný priestor sa totiž môže najmä v kritických obdobiach, akými sú napríklad voľby, stávať miestom šírenia nenávisti a výziev k násiliu.

CHCETE PODPORIŤ NAŠU PRÁCU? POMÔŽTE NÁM CEZ PATREON. MÔŽETE TAK UROBIŤ UŽ ZA €3
https://infosecurity.sk/podpora/

Je študent bakalárskeho stupňa Bezpečnostných a strategických štúdií a Sociológie na Fakulte sociálnych štúdií Masarykovej univerzity v Brne. Zaujíma sa o islamský radikalizmus, výskum organizovaného zločinu a autoritárskych režimov. Kontakt: adam.mazuch@infosecurity.sk