Home / GeopoliticALL / Asia-Pacific / Algoritmul discriminării: Cum au contribuit platformele de socializare la propagarea urii față de minoritatea Rohingya

Algoritmul discriminării: Cum au contribuit platformele de socializare la propagarea urii față de minoritatea Rohingya

Material realizat de Delia Afilipoaie

În luna septembrie a anului 2022, Amnesty International a publicat un raport prin care oferă o analiză aprofundată asupra rolului jucat de compania Meta Systems Inc. în propagarea discriminării împotriva minorității Rohingya din Myanmar. Conform raportului, algoritmii platformei de socializare supraalimentau răspândirea  postărilor anti-rohingya, amplificând și promovând în mod proactiv conținutul discriminator postat pe platforma Facebook, astfel incitând la violență, ură și radicalizare în mediul off-line. Confruntat cu problema, managementul companiei nu doar că nu a reușit, dar nici nu a inițiat implementarea unui mecanism eficient de combatere. Raportul a reușit să readucă în lumină cazul Rohingya vs. Meta Platforms Inc.  din 2021 (pe atunci Facebook Inc.), proces colectiv inițiat de către două companii în Anglia și Statele Unite ale Americii.

 

Cine sunt Rohingya? 

‘Rohingya’ este denumirea oficială a unuia dintre cele 135 grupuri etnice minoritare din Myanmar, istoric localizată în Rakhine (fost Arakan), stat din nordul Myanmarului. Fiind singura minoritate națională care nu este recunoscută de către autoritățile statului și predominant musulmană, comunitatea a suferit ample persecuții din partea guvernului birman și a majorității budiste. Secretarul general al ONU, Antonio Guterres, a descris grupul etnic drept „unul dintre, dacă nu chiar cel mai discriminat popor din lume”.

Atrocitățile comise împotriva rohingya au captat atenția publică în august 2017, când forțele militare din Myanmar au început o nouă campanie brutală de epurare etnică, incendiind sute de sate, torturând si ucigând mii de adulți și copii si abuzând sexual fetele și femeile. Astfel, mai bine de 700,000 de persoane au fost forțate să treacă granița și să se refugieze în Cox’s Bazar, unde este localizată cea mai mare tabăra de refugiați din Bangladesh și din lume. 

 

Cox’s Bazar, imagine preluată cu drona

 

 

 

 

 

 

 

 

Situația comunității Rohingya a rămas pentru multă vreme o criză sub-raportată. Datorită discrepanțelor religioase, discriminarea anti-rohingya și anti-islamică din Myanmar a devenit sistemică. De-a lungul secolului XX, autoritățile din Myanmar au lansat diferite operațiuni naționaliste de persecuție (precum ’Operatiunea Nagamin’ din 1978 sau Operațiunea Pyi Thaya din 1991), cu scopul oficial de a înregistra cetățenii din nordul Arakanului și a expulza așa-numiții „străini” din zonă. Aceste inițiative nu doar ca au alungat sute de mii de oameni din Myanmar, însă au avut totodată un impact nociv asupra cetățenilor, normalizând atitudinile discriminatorii și radicale în rândul populației.

 

Rohingya încercând să treacă granița către Bangladesh. Sursa: UNHCR/Roger Arnold

 

Prezența Facebook în Myanmar

În 2011, estimările demonstrau că doar 0,23% din populația Myanmarului avea acees la internet.  Acest lucru se datora fostului regim militar care a impus o cenzură asupra tuturor formelor de publicare. După 2011, noul guvern civil a adoptat reforme majore în sectorul telecomunicațiilor, astfel că până în 2017,  procentul de cetățeni cu acces la internet a crescut la 26%.

Totodată, în 2016, Meta a introdus programele Facebook Flex și Facebook Free Basics. Aceste inițiative permiteau utilizatorilor accesul la o variantă a aplicației ce afișa doar informațiile de tip text, fără a consuma date extra. Deși Free Basics este prezentat de Meta drept o inițiativă filantropică pentru Sudul Global, Amnesty International a constatat că acestea acționează drept un mijloc de a crește colectarea de date în regiunile respective. 

Numărul de utilizatori ai platformei a explodat odată cu facilitarea accesului la internet după 2014, iar până în 2016, s-a estimat că în Myanmar existau 10 milioane de utilizatori Facebook. În 2018, numărul crescuse până la aproximativ 20 de milioane.

Cum a influențat conținutul din online propagarea violenței off-line? 

În esență, există două tipuri de algoritmi care contribuie la deciziile și recomandările automate realizate pe și de către Facebook, și anume algoritmi de modelare al conținutului și algoritmi de moderare al conținutului. Algoritmii de modelare servesc pentru a oferi un conținut „relevant” pentru utilizator, pe când algoritmii de moderare sunt din ce în ce mai folosiți pentru a automatiza detectarea și ștergerea conținutului care încalcă regulile platformei de socializare. 

Odată cu răspândirea platformei în Myanmar, o varietate de actori, inclusiv înalți oficiali guvernamentali și militari, precum și grupuri naționaliste, budiste și radicale au copleșit platforma cu postări anti-rohingya, promovând informații false si portretizând comunitatea drept ‘invadatori sub-umani.’ Conform datelor, începând cu anul 2015, aceste grupări s-au clasat printre cei mai activi utilizatori ai platformei.

 

 

La mijlocul anului 2014, personalul Meta a recunoscut într-un grup care cuprindea un număr de activiști ai societății civile din Myanmar că aveau angajat doar un singur moderator de conținut vorbitor de birmană la acea vreme. Meta nu a dezvăluit niciodată numărul exact de moderatori de conținut în limba birmană pe care i-a angajat în timpul atrocităților din 2017, însă conform unei investigații, în aprilie 2018, compania avea doar cinci vorbitori de limba birmană pentru a monitoriza și a modera conținutul distribuit celor 18 milioane de utilizatori Facebook din Myanmar. 

În ceea ce privește algoritmii de modelare al conținutului, care afectează direct conținutul promovat pe platforma, Meta nu a avut nici o intervenție.

 

Cazul Rohingya vs. Facebook: semnal de alarmă pentru rețelele de socializare? 

Chiar și după ce rolul companiei în privința violenței din statul Rakhine a primit atenție globală, răspunsul companiei a rămas complet inadecvat. Investițiile insuficiente realizate de către Facebook în țările non-occidentale lăsa milioane de utilizatori expuși la dezinformare, discursuri instigatoare la ură și conținut violent.

 

Sursa: REUTERS/Dado Ruvic/Illustration/File Photo

 

Eșecului companiei de a controla conținutul și designul platformei sale, precum si efectele pe care platforma le-a manifestat asupra propagării violențelor împotriva comunității Rohingya, au fost adresate într-o plângere de 150 de miliarde de dolari, depusă de către firmelele de avocatură Edelson PC și Fields PLLC in Statele Unite ale Americii, în 2021. Cu toate ca rata de reușită a procesului este îndoielnică, mediatizarea acestui incident este considerată drept un „apel de trezire” pentru rețele de socializare. 

Acest caz, de departe izolat, demonstrează necesitatea socială a companiilor precum Meta de a crește gradul de conștientizare și asumare a responsabilității pe care o manifesta asupra conținutului distribuit. 

__________________________________________________________________________________________________________________________

Surse:

https://www.amnesty.org/en/latest/news/2022/09/myanmar-facebooks-systems-promoted-violence-against-rohingya-meta-owes-reparations-new-report/

https://www.amnesty.org/en/documents/ASA16/5933/2022/en/

https://www.amnesty.org/en/petition/meta-repair-rohingya-community/

https://restofworld.org/2021/facebook-papers-reveal-staggering-failures-in-global-south/

https://www.reuters.com/technology/rohingya-lawsuit-against-facebook-wake-up-call-social-media-2021-12-10/

Despre PoliticALL

Vezi și

A fost 13 noiembrie în lume – Marine Le Pen a fost acuzată de deturnare de fonduri ale Parlamentului European, Donald Trump și Joe Biden s-au întâlnit la Casa Albă iar Liderii principalelor partide din Germania au stabilit organizarea alegerilor federale anticipate pe 23 februarie 2025

Material realizat de Mihai Turcu. Curtea Supremă a Indiei a decis că demolările de proprietăți …