28 jan. 2021 | 11h02 BRT

Quando um tuíte vira crime de ódio?

Clara Becker Por

Clara Becker

e
Gabriela de Almeida Por

Gabriela de Almeida

Imagem de AK Rockefeller Título: Rohingya

O massacre de 2017 da etnia rohingya pelo Exército birmanês foi um dos mais tristes episódios da história de Mianmar. Considerado oficialmente um caso de genocídio pela ONU, pela atuação sistemática contra os , chocou pela perversidade dos ataques e por ter tido como ponto de partida uma série de postagens de ódio disparadas via Facebook. Os assassinatos são um dos mais ilustrativos exemplos em todo o mundo de como pode ser a escalada do ódio do virtual para o mundo real, um movimento que é previsto por estudiosos do enfrentamento ao problema e que precisa, para ser contido, do envolvimento de toda a sociedade.

“Todos temos de lembrar que crimes de ódio são precedidos por discurso de ódio.” Essa frase, proferida pelo conselheiro especial para a Prevenção do Genocídio da ONU, Adama Dieng, traz o senso de urgência necessário para que governos, sociedade civil e setor privado atuem contra esse tipo de discurso. Por isso, discutir a moderação de conteúdo dentro das plataformas é urgente. O banimento e as restrições impostas ao ex-presidente Donald Trump pelas principais redes sociais após ele incitar a invasão ao Capitólio reacenderam o debate sobre a linha tênue que separa o ambiente físico do virtual. Como prever quando discursos odiosos poderão sair do campo das ameaças e se tornar uma violência física real? Pode uma empresa privada banir o presidente da República do seu espaço? Isso não fere o princípio da liberdade de expressão?

Encontrar a linha que separa nosso direito fundamental à liberdade de expressão e a proibição a incitar discriminação, hostilidade e violência é sempre motivo de controvérsias.

Em fevereiro de 2013, o Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos lançou o Plano de Ação de Rabat, que dá diretrizes para que governos possam conciliar esses dois conceitos polarizantes. O plano incentiva que governos definam a incitação à discriminação de forma precisa, observando que, “quanto mais ampla a definição de incitamento ao ódio está na legislação doméstica, maior a margem para a aplicação arbitrária dessas leis”.

As restrições à liberdade de expressão devem também passar pelo teste de três partes: legalidade, proporcionalidade e necessidade. Isso quer dizer que as restrições devem estar previstas em lei, serem precisamente definidas para servirem a um interesse legítimo e também necessárias em uma sociedade democrática para proteger esse interesse.

O Plano de Rabat também pode servir de inspiração para que empresas, principalmente as de tecnologia, apliquem de maneira mais consistente práticas contra o discurso de ódio. Isso implicaria abrir mão de padrões de comunidade padronizados e investir no detalhamento e transparência de suas políticas internas.

Para o desenvolvimento da jurisprudência, o Plano de Rabat oferece seis fatores para os tribunais nacionais considerarem ao avaliar se uma instância específica de discurso deve ser proibida ou punida como incitação: o contexto, a pessoa que fala, a intenção, o conteúdo ou a forma, a extensão do discurso e a probabilidade, incluindo a iminência, de incitar o ódio.

Portanto, há que se considerar, no caso de Trump, o contexto de extrema polarização, ser ele naquele momento o presidente da República, a intenção dele ao incitar a invasão, o fato de tê-lo feito em uma manifestação pública com a presença de grupos violentos, com extensão para todo o mundo e disseminado em suas redes sociais, e a iminência da certificação de Biden pelo Congresso americano.

Em Mianmar, as centenas de mensagens direcionadas com o intuito de causar pânico e ódio contra os rohingyas manipularam a opinião pública com algumas características importantes, como a percepção dos moradores da região de que o Facebook era o que poderia se considerar como internet. Eles não navegavam por diferentes sites: entravam apenas em páginas e grupos daquela plataforma, tendo ali seus principais ambientes de informação. Pesou ainda a demora do Facebook para tomar uma atitude mais eficaz para frear a forte onda de ódio.

A empresa já reconheceu sua parcela de participação no caso e, na época, disse que a situação saiu de controle em parte também pelo baixo número de moderadores falantes da língua local. E paulatinamente vem tentando melhorar seus sistemas de prevenção de combate ao ódio.

Para que casos assim não voltem a ocorrer, no entanto, é necessário que se faça mais e mais rápido.

 

Artigo originalmente publicado no El País Brasil.


Veja também