Začiatkom roku 2019, niekoľko mesiacov pred indickými parlamentnými voľbami, si výskumná pracovníčka spoločnosti Facebook založila na platforme falošný účet s cieľom vypracovať prípadovú štúdiu zameranú na situáciu v Indii. Jej profil bol lokalizovaný v indickom štáte Kerala. Kritériom výskumu bolo sledovať všetky stránky, ktoré platforma automaticky odporučí.
Po niekoľkých týždňoch bol jej profil zaplavený kopou dezinformácií, nenávistného a násilného prejavu. Výsledok tejto prípadovej štúdie bol publikovaný ako interný dokument Facebooku, ktorý sa v súčasnosti spoločne s mnohými ďalšími dostáva na verejnosť v rámci kauzy The Facebook Papers.
Kritici sa nemýlili
Závery tejto a ďalších zverejnených interných štúdií dokazujú, že kritika, ktorá sa na spoločnosť sype zo strán mnohých aktivistov a politikov je skutočne oprávnená. Spoločnosť expanduje do nových krajín bez znalosti miestnych reálií a potenciálnych dopadov svojej podnikateľskej činnosti na kultúru a politiku.
Medzi hlasných kritikov praktík spoločnosti Facebook patria aj členovia Next Billion Network. Ide o subjekt občianskej spoločnosti venujúci sa hrozbám spojeným s technológiami na globálnom juhu.
Jeho členovia upozorňovali predstaviteľov technologického giganta medzi rokmi 2018 a 2019 na to, že nekontrolovaný nenávistný prejav na ich platforme má v Indii reálny potenciál prerásť do komunitného násilia.
Nerovnomerné rozdelenie zdrojov
India je v súčasnosti pre Facebook najväčším trhom na svete s viac než 340 miliónmi používateľov. Aktuálna situácia na tomto subkontinente je však len extrémnejšou verziou problému, ktorému Facebook čelí po celom svete.
Jazyková rôznorodosť krajiny si pri boji s nebezpečným obsahom vyžaduje nasadenie značných zdrojov. Tie však Facebook momentálne nedokáže, alebo nechce vynakladať v požadovanej kvalite ani kvantite.
Zverejnené interné dokumenty Facebooku dokazujú, že 87% rozpočtu na boj s nebezpečným obsahom je vyčlenených pre USA, napriek tomu, že v Spojených štátoch žije len zhruba 10% používateľov platformy. To znamená, že 13% z tohto rozpočtu musí vystačiť pre zvyšných 90% používateľov po celom svete.
Masové skupiny ako ideálne miesto
Desať dní po založení výskumného účtu došlo k bombovému útoku v regióne Kašmír, ktorý si nárokuje India aj Pakistan. Podľa dokumentu sa po tomto čine enormne zvýšil počet zavádzajúcich a nenávistných príspevkov, ktoré propagovali konšpiračné teórie a obvinenia medzi Indmi a Pakistancami.
V sledovaných facebookových skupinách začali cirkulovať proti-pakistanské a proti-moslimské naratívy. Iný interný výskum firmy z roku 2019 poukazoval na fenomén vytvárania masových facebookových skupín s desaťtisícmi členov. Tieto skupiny mali silný potenciál efektívne šíriť nenávistný obsah a podporovať konfliktné správanie a nálady.
Výnimky pre prominentných užívateľov
Po tom, čo výskumníčka rozoslala závery svojej štúdie zodpovedným nadriadeným, sa spoločnosť rozhodla zasiahnuť a implementovať nástroje pre zníženie miery rizikového obsahu ešte pred voľbami do parlamentu.
V správe o svojej aktivite firma popísala optimistický pohľad a zdôraznila spoluprácu s tretími stranami, ktoré jej pomáhali s fact-checkingom.
Zverejnené dokumenty však tiež odhaľujú, že si spoločnosť vytvárala zoznam indických politických aktérov, ktorí dostávali špeciálnu výnimku z fact-checkingu. To znamená, že im Facebook odpustil aj previnenie proti užívateľským pravidlám.
Počas volieb tiež bolo možné v Indii sledovať nárast v počte aktívnych botov a falošných účtov. V samostatnom výskume vyhotovenom tesne po voľbách bolo zverejnené zistenie, že 40% príspevkov s najvyšším počtom interakcií a videní pochádzalo z neautentických účtov.
Proti-moslimské a nacionalistické naratívy
Ďalšia prípadová štúdia zameraná na proti-moslimské skupiny zdokumentovala silne zavádzajúci a dehumanizujúci obsah. Ten prirovnával moslimov k zvieratám a tvrdil, že Korán káže mužom znásilňovať rodinné príslušníčky ženského pohlavia.
Mnoho z tohto materiálu sa nachádzalo v skupinách, ktoré podporovali Rashtriya Swaqamsevak Sangh (RSS), indickú pravicovú a nacionalistickú skupinu s úzkymi väzbami na vládnucu stranu Bharatiya Janata Party (BJP).
Facebook teda mal informácie o tom, že na platforme dochádza k rozširovaniu vplyvu radikálnych skupín a že je potrebné zlepšiť systémy umelej inteligencie regulujúce obsah príspevkov. Napriek tomu firma dodnes ani len neoznačila RSS za nebezpečnú skupinu podnecujúcu náboženské násilie.
Prečo Facebook v regulácii obsahu zlyháva?
Facebook kvôli obavám zo straty užívateľov a vládnych obmedzení nerád zasahuje do politicky a kultúrne citlivých tém. Problémom je tiež to, že firma a vláda fungujú v určitej symbióze. Vláda si potrebuje udržať dominanciu v online priestore a Facebook si potrebuje udržať svojich indických používateľov.
V neposlednom rade je India jazykovo, etnicky, nábožensky a kultúrne veľmi rozmanitá. Pre vytvorenie efektívneho systému umelej inteligencie, ktorý by dokázal identifikovať rizikový obsah v každom z 22 oficiálnych jazykov Indie je potrené obrovské množstvo dát.
Na príklade Indie môžeme najlepšie demonštrovať nedostatky Facebooku pri zvládaní svojho globálneho vplyvu. Firmou však v posledných rokoch otriaslo niekoľko ďalších závažných káuz ohľadne nezvládania regulácie obsahu na platforme.
Jedna z nich sa týkala Mjanmarska, kde Facebook nedokázal zabrániť šíreniu nebezpečného obsahu na svojej platforme, čo v konečnom dôsledku prispelo k etnickým čistkám. V Etiópii bola sociálna sieť úspešne využitá nacionalistickými militantnými skupinami k vyvolávaniu násilia šírením zavádzajúceho obsahu.
Udalosti z Indie nám ukazujú, že vytvorenie jasných a všeobecných pravidiel pre fungovanie sociálnych sietí je základom stability. Neregulovaný priestor sa totiž môže najmä v kritických obdobiach, akými sú napríklad voľby, stávať miestom šírenia nenávisti a výziev k násiliu.
CHCETE PODPORIŤ NAŠU PRÁCU? POMÔŽTE NÁM CEZ PATREON. MÔŽETE TAK UROBIŤ UŽ ZA €3
https://infosecurity.sk/podpora/