Nové obsahové politiky spoločnosti Meta môžu povzbudiť ďalšie masové násilie a genocídu

ÚVAHA DVOCH AUTOROV, PAT DE BRÚN, MAUNG SAWYEDDOLLAH
17. FEBRUÁRA 2025

Nedávne oznámenia spoločnosti Meta o obsahovej politike predstavujú vážnu hrozbu pre zraniteľné komunity na celom svete. Drasticky totiž zvyšujú riziko, že spoločnosť Meta opäť prispeje k masovému násiliu a hrubému porušovaniu ľudských práv. Presne to sa stalo v roku 2017 v Mjanmarsku. Významná miera, akou Meta prispela k brutálnym masovým zločinom proti rohinskému ľudu, je predmetom novej whistleblowerskej sťažnosti podanej Komisii pre cenné papiere a burzy USA.

Zakladateľ a výkonný riaditeľ spoločnosti Meta Mark Zuckerberg 7. januára oznámil množstvo zmien v zásadách týkajúcich sa obsahu na sociálnych sieťach spoločnosti Meta. Cieľom týchto zmien bolo zrejme získať priazeň novej Trumpovej administratívy. Patrí medzi ne aj zrušenie dovtedajších zákazov, akým bol napríklad zákaz znevažovania a obťažovania rasizovaných menšín. Zuckerberg tiež oznámil drastickú zmenu v postupoch moderovania obsahu – v rámci ktorej výrazne obmedzili automatické moderovanie obsahu. Hoci tieto zmeny spočiatku zaviedli v USA, Meta naznačila, že ich môže uplatniť aj na medzinárodnej úrovni. Tento posun znamená jasný ústup od záväzkov, ktoré spoločnosť predtým deklarovala v súvislosti so zodpovednou správou obsahu.

Amnesty International a ďalšie organizácie dobre zdokumentovali, ako algoritmy platformy Facebook, resp. spoločnosti Meta uprednostňujú a posilňujú niektoré z najškodlivejších obsahov vrátane propagácie nenávisti, dezinformácií a obsahu podnecujúceho rasové násilie. To všetko v mene maximalizácie „zapojenia používateľov“, a tým aj zisku. Výskum ukázal, že tieto algoritmy neustále vyzdvihujú obsah, ktorý vyvoláva silné emocionálne reakcie, často na úkor ľudských práv a bezpečnosti. Zdá sa, že po odstránení existujúcich zábezpiek sa táto situácia ešte zhorší.

Ako nedávno povedal pre Platformer jeden z bývalých zamestnancov spoločnosti Meta: „Naozaj si myslím, že to je prekurzor genocídy […] Videli sme, že sa to stalo. Skutočne to ohrozí životy skutočných ľudí.“ V jeho tvrdení zaznieva ozvena varovaní mnohých odborníčok a odborníkov na ľudské práva. Aj oni vyjadrili obavy z úlohy, ktorú zohrala spoločnosť Meta pri podnecovaní masového násilia v nestabilných spoločnostiach zasiahnutých konfliktmi.

Strašné následky bezohľadnosti spoločnosti Meta sme už videli

V roku 2017 mjanmarské bezpečnostné sily podnikli brutálnu kampaň etnických čistiek proti rohinským moslimom. Nezávislá vyšetrovacia komisia OSN dospela v roku 2018 k záveru, že Mjanmarsko spáchalo genocídu. V rokoch, ktoré predchádzali týmto útokom, sa Facebook stal jaskyňou ozvien virulentnej nenávisti voči Rohingom. Masové šírenie dehumanizujúceho protirohinského obsahu prilialo olej do ohňa dlhodobej diskriminácie a pomohlo vytvoriť prostredie vhodné na masové násilie. Pri absencii vhodných ochranných opatrení toxické algoritmy platformy Facebook zintenzívnili búrku nenávisti voči Rohingom, ktorá prispela k týmto beštiálnym zločinom. Podľa správy Organizácie Spojených národov sa Facebook podieľal na radikalizácii miestneho obyvateľstva a podnecovaní násilia voči Rohingom.

Meta sa mala poučiť z toho, ako bezohľadne prispela k masovému násiliu v krajinách ako Mjanmarsko a Etiópia. Namiesto toho odstraňuje dôležité ochranné opatrenia, ktorých cieľom bolo zabrániť jeho opakovaniu.

Prijatím týchto zmien Meta fakticky vyhlásila voľný priechod obťažovaniu a nenávisti k najzraniteľnejším a najohrozenejším ľuďom. K najohrozenejším patria transrodové osoby, ľudia na úteku a migrujúci.

Meta tvrdí, že tieto zmeny zavádza s cieľom podporiť slobodu prejavu. Hoci je pravda, že spoločnosť v mnohých prípadoch neoprávnene obmedzila legitímny obsah, drastický ústup od existujúcich záruk nie je riešením. Spoločnosť musí zaujať vyvážený prístup, ktorý umožní slobodu prejavu a zároveň ochráni zraniteľné skupiny obyvateľstva.

Podali sme sťažnosť na spoločnosť Meta za algoritmy platformy Facebook

Všetky spoločnosti vrátane spoločnosti Meta majú jasnú povinnosť dodržiavať všetky ľudské práva v súlade s medzinárodnými normami v oblasti ľudských práv. Miliardári na pozíciách generálnych riaditeľov si nemôžu jednoducho vyberať, ktoré práva budú rešpektovať a ktoré hrubo ignorovať. Takýmto rozhodovaním bezohľadne ohrozujú práva miliónov ľudí.

Výskum Amnesty International v roku 2021 zistil, že Meta významne prispela k brutálnym zločinom páchaným na Rohingoch. Zodpovedá preto aj za poskytnutie účinnej nápravy tejto komunite. Spoločnosť Meta však dala jasne najavo, že žiadne nápravné opatrenia nepodnikne.

Väčšinu komunít Rohingov pred ôsmimi rokmi násilne prinútili opustiť svoje domovy v Mjanmarsku. Títo ľudia stále žijú v rozľahlých utečeneckých táboroch v susednom Bangladéši. Preto sa obrátili na spoločnosť Meta so žiadosťou o nápravu prostredníctvom financovania projektu vzdelávania v utečeneckých táboroch v hodnote 1 milión dolárov. Táto suma predstavuje len 0,0007 % zo zisku spoločnosti Meta za rok 2023, ktorý dosiahol 134 miliárd USD. Napriek tomu Meta ich žiadosť zamietla. Toto odmietnutie ďalej poukazuje na nedostatok zodpovednosti spoločnosti a jej odhodlanie uprednostniť zisk pred ľudskou dôstojnosťou.

Preto sme spoločne – Maung Sawyeddollah, ktorý prežil beštiálne zločiny proti svojej rohinskej komunite, s podporou Amnesty International, Open Society Justice Initiative a Victim Advocates International – 23. januára 2025 podali whistleblowerskú sťažnosť Komisii pre cenné papiere a burzy USA. V sťažnosti uvádzame, že spoločnosť Meta nedbala na viaceré varovania občianskej spoločnosti od roku 2013 do roku 2017, týkajúce sa úlohy jej platformy Facebook pri podnecovaní násilia voči Rohingom. Žiadame komisiu, aby vyšetrila spoločnosť Meta pre porušovanie právnych predpisov, ktorými je ako akciová spoločnosť viazaná. Tohto porušenia sa spoločnosť mohla dopustiť tým, že svojim akcionárom nesprávne interpretovala úlohu, ktorú zohrala pri páchaní masových zločinov proti Rohingom v roku 2017.

Technologickí giganti majú zodpovednosť

V rokoch 2015 až 2017 vedenie spoločnosti Meta informovalo akcionárov, že algoritmy platformy Facebook neviedli k polarizácii, a to napriek varovaniam, že v Mjanmarsku platforma aktívne šírila protirohinský obsah. Spoločnosť Meta zároveň akcionárov v plnej miere neinformovala o rizikách, ktoré jej činnosť v Mjanmarsku prinášala. Naopak, Meta v rokoch 2015 a 2016 namietala voči návrhom akcionárov na vykonanie previerky vplyvu na ľudské práva. Odmietla tiež zriadiť interný výbor, ktorý by dohliadal na politiky a postupy spoločnosti v oblasti medzinárodných otázok verejnej politiky vrátane ľudských práv.

Zuckerberg a ďalší generálni riaditelia technologických firiem sa postavili – v prípade nedávnej inaugurácie doslova – za rozsiahle útoky novej administratívy na ľudské práva. Aj vzhľadom na to sa akcionári spoločnosti Meta musia ozvať a žiadať od jej vedenia, aby zabránilo tomu, že Meta opäť prispeje k vývoju udalostí smerom k masovému násiliu alebo dokonca genocíde.

Podobne aj zákonodarcovia v USA musia zabezpečiť, aby si Komisia pre cenné papiere a burzy USA zachovala svoju neutralitu. Povinnosťou komisie je riadne prešetriť oprávnené sťažnosti – ako napríklad tú, ktorú sme nedávno podali – a zabezpečiť, aby tí, ktorí porušujú ľudské práva, čelili spravodlivosti.

Vlády a regionálne orgány, ako napríklad EÚ, musia na celom svete znásobiť svoje úsilie o to, aby spoločnosť Meta a ďalší technologickí giganti niesli zodpovednosť za to, ako ich činnosť vplýva na ľudské práva. Videli sme, že ak sa spoločnostiam ako Meta ponechá voľnosť, aby konali na vlastnú päsť, môže to ohroziť nespočetné množstvo ľudských životov.

O AUTOROCH

Pat de Brún je vedúcim Oddelenia pre zodpovednosť veľkých technologických spoločností v Amnesty International a zástupcom riaditeľa Amnesty Tech.

Maung Sawyeddollah je zakladateľom a výkonným riaditeľom Rohingya Students’ Network. V roku 2017 prežil masové zločiny mjanmarskej armády a utiekol do Bangladéša. Sawyeddollah v súčasnosti študuje na Newyorskej univerzite a zároveň pokračuje v kampani za spravodlivosť pre Rohingov.

Viac noviniek