• Chris Vallance
  • Repórter de tecnologia da BBC

Há 1 hora

Um tanque destruído em combates entre a Força de Defesa Nacional da Etiópia (ENDF) e a Frente de Libertação do Povo Tigray (TPLF)

Crédito, Reuters

Ação reivindica mudanças no algoritmo do Facebook, que alimentaria ódio e violência na Etiópia

O algoritmo do Facebook ajudou a alimentar a propagação viral de ódio e violência durante a guerra civil da Etiópia, segundo alega um processo que corre na Justiça.

Abrham Meareg, filho de um acadêmico etíope morto a tiros após ser atacado em postagens no Facebook, está entre os que moveram a ação contra a Meta, dona do Facebook.

Os requerentes reivindicam um fundo de US$ 2 bilhões (cerca de R$ 11 bilhões) para vítimas de ódio no Facebook e mudanças no algoritmo da plataforma.

A Meta argumenta que investiu pesadamente em moderação e tecnologia para remover o ódio online.

Um representante diz que discurso de ódio e incitação à violência são contra as regras da plataforma.

“Nosso trabalho de segurança e integridade na Etiópia é guiado pelo feedback de organizações locais da sociedade civil e instituições internacionais”, diz o porta-voz.

Condições de fome

O caso, que está sendo analisado pelo Supremo Tribunal do Quênia, é apoiado pela ONG Foxglove, que defende justiça no setor de tecnologia.

A Meta tem um hub de moderação de conteúdo na capital do Quênia, Nairóbi.

Centenas de milhares de pessoas morreram no conflito entre o governo etíope e as forças na região norte de Tigray, com outras 400 mil vivendo em condições de fome.

Abrham Meareg

Crédito, Foxglove

Abrham Meareg quer um pedido de desculpas do Facebook

No mês passado, um acordo de paz surpresa foi acertado — mas, recentemente, houve um aumento de assassinatos por motivos étnicos entre as comunidades de língua amhara e oromo.

No ano passado, o pai de Meareg foi uma das vítimas da violência no país.

Em 3 de novembro de 2021, o professor Meareg Amare Abrha foi seguido depois de sair da universidade por homens armados em motocicletas e baleado à queima-roupa ao tentar entrar na casa da família.

Ameaças de seus agressores impediram que testemunhas o ajudassem enquanto ele sangrava, diz seu filho. Ele morreu caído no chão sete horas depois.

Antes do ataque, postagens no Facebook o difamavam e revelavam informações que ajudavam a identificá-lo, alega seu filho.

Apesar das repetidas reclamações usando a ferramenta de relatórios do Facebook, a plataforma “não apagou essas postagens até que fosse tarde demais”.

Uma delas foi removida após a morte de seu pai.

Outra, que a plataforma se comprometeu a remover, permanecia online em 8 de dezembro de 2022.

‘Lamentavelmente inadequado’

“Se o Facebook tivesse parado de espalhar o ódio e moderado as postagens corretamente, meu pai ainda estaria vivo”, diz Meareg.

Ele quer garantir que nenhuma família sofra como a dele, acrescenta, e reivindica “um pedido de desculpas pessoal” da Meta.

Em uma declaração juramentada apresentada ao tribunal, Meareg alega que o algoritmo do Facebook promove conteúdo “odioso e provocador” porque provavelmente atrai mais interação dos usuários.

Ele também afirma que a moderação de conteúdo do Facebook na África é “lamentavelmente inadequada”, com muito poucos moderadores que lidam com postagens nos idiomas principais do país, como amárico, oromo e tigrínia.

Questionada pela BBC News sobre o caso, a Meta diz que “empregamos funcionários com conhecimento e experiência locais, e continuamos a desenvolver nossas capacidades para detectar conteúdo violador nas línguas mais faladas no país, incluindo amárico, oromo, somali e tigrínia”.

A empresa alega manter a Etiópia como uma “alta prioridade” — embora menos de 10% da população usem o Facebook — e diz que as medidas tomadas incluem:

  • reduzir a viralização das postagens
  • expandir as políticas contra violência e incitação
  • aprimorar a plataforma
Presentational grey line

Análise de Peter Mwai, da BBC em Nairóbi

Este é um avanço significativo, uma tentativa de responsabilizar legalmente uma empresa de mídia social por suas ações durante o conflito na Etiópia.

Os críticos dizem que a Meta e outras empresas de mídia social fazem muito pouco para impedir o compartilhamento e a disseminação de desinformação e conteúdo que promove ódio e incitação contra vários grupos étnicos. E, em alguns casos, demora muito para que o conteúdo seja removido, principalmente depois que as pessoas denunciam.

Outros afirmam que a empresa tem sido injusta em sua repressão ao conteúdo odioso, visando postagens escritas em alguns idiomas de forma desproporcional.

A Meta sempre insistiu que faz muito e investiu pesadamente na capacidade de rastrear conteúdo odioso e inflamatório nas línguas mais faladas no país.

Possui moderadores de conteúdo familiarizados com os principais idiomas locais, mas também conta com inteligência artificial e parceiros locais para averiguar o conteúdo. Mas nunca ficou claro quantos moderadores trabalham com a Meta com foco na Etiópia.

Mas esta não é a primeira vez que o Facebook é acusado de fazer muito pouco para impedir a disseminação de conteúdo que promove o ódio étnico e a violência na Etiópia.

Ex-funcionária do Facebook Frances Haugen testemunhando diante do Congresso dos EUA

Crédito, Getty Images

Ex-funcionária do Facebook Frances Haugen testemunhando diante do Congresso dos EUA

Em 2021, Frances Haugen, uma ex-funcionária do Facebook, disse ao Senado dos Estados Unidos que o algoritmo da plataforma estava “estimulando a violência étnica… captando os sentimentos extremos, a divisão”, pois essas postagens atraíram alto engajamento, enquanto o Facebook não conseguia identificar adequadamente o conteúdo perigoso e carecia de conhecimento suficiente em muitos idiomas locais — incluindo alguns falados na Etiópia.

Outros requerentes na ação incluem o Instituto Katiba e Fisseha Tekle.

Tekle alega que as falhas de moderação do Facebook tornaram impossível seu relatório sobre direitos humanos no conflito para a ONG Anistia Internacional — e colocou a vida de sua família em risco.

Eles pedem à Justiça que determine que o Facebook tome medidas para remediar a situação, incluindo:

  • criar um fundo de restituição de cerca de 200 bilhões de xelins quenianos (cerca de R$ 8,7 bilhões) para vítimas de ódio e violência no Facebook e mais 50 bilhões de xelins quenianos (cerca de R$ 2,2 bilhões) por danos semelhantes causados por postagens patrocinadas;
  • impedir o algoritmo de recomendar “conteúdo provocador, odioso e perigoso”;
  • empregar moderadores suficientes para traduzir o conteúdo local, garantindo equidade entre a moderação em Nairóbi e a dos usuários dos Estados Unidos.

Fonte: BBC