Por Katie Paul e Munsif Vengattil

(Reuters) – Dias após o atentado de 9 de março a uma maternidade e hospital infantil na cidade ucraniana de Mariupol, comentários alegando que o ataque nunca aconteceu começaram a inundar os pedidos de denúncia para moderadores de conteúdo do Facebook e Instagram, da Meta.

O bombardeio matou pelo menos três pessoas, incluindo uma criança, disse publicamente o presidente da Ucrânia, Volodymyr Zelenskiy. Entre as mulheres mais reconhecidas estava Mariana Vishegirskaya, influenciadora de moda e beleza. Fotos dela descendo uma escada de hospital de pijama de bolinhas circularam após o ataque, capturadas por um fotógrafo da Associated Press.

Expressões online de apoio à futura mãe rapidamente se transformaram em ataques em sua conta no Instagram, de acordo com dois contratados que moderam diretamente o conteúdo do conflito no Facebook e no Instagram. Eles falaram com a Reuters sob condição de anonimato, citando acordos de confidencialidade que os impediam de discutir seu trabalho publicamente.

O caso é um exemplo de como as políticas de conteúdo da Meta permitiram a propaganda pró-Rússia durante a invasão da Ucrânia, disseram os moderadores à Reuters.

Autoridades russas apreenderam as imagens, colocando-as lado a lado com suas fotos do Instagram, em um esforço para persuadir espectadores de que o ataque foi encenado. Na TV estatal, nas mídias sociais e na câmara do Conselho de Segurança da ONU, Moscou alegou – falsamente – que Vishegirskaya fez uma farsa orquestrada por forças ucranianas.

No auge do ataque, comentários contendo falsas alegações sobre a mulher representavam a maior parte do material na fila de conteúdo de um moderador, que normalmente conteria uma mistura de postagens suspeitas de violar as inúmeras políticas da Meta, lembrou a pessoa.

“As postagens eram vis” e pareciam ser orquestradas, disse o moderador à Reuters. Mas muitos estavam dentro das regras da empresa, disse a pessoa, porque não mencionaram diretamente o ataque. “Eu não podia fazer nada sobre eles”, disse o moderador.

A Reuters não conseguiu entrar em contato com Vishegirskaya. A Meta se recusou a comentar sobre como está lidando com a atividade envolvendo Vishegirskaya, mas disse em comunicado à Reuters que várias equipes estão abordando o assunto.

O chefe de política da Meta, Nick Clegg, disse a repórteres na quarta-feira que a empresa estava considerando novas medidas para lidar com desinformações e fraudes.

O Ministério de Desenvolvimento Digital, Comunicações e Mídia de Massa da Rússia e o Kremlin não responderam aos pedidos de comentários. Representantes da Ucrânia não responderam a um pedido de comentário.

‘ESPÍRITO DA POLÍTICA’

Na Ucrânia e em outros 11 países da Europa Oriental e do Cáucaso, a empresa criou uma série de isenções temporárias às suas regras que proíbem discurso de ódio, ameaças violentas e muito mais; as mudanças pretendiam honrar os princípios gerais dessas políticas, em vez de sua redação literal, de acordo com as instruções da Meta aos moderadores vistas pela Reuters.

Por exemplo, permitiu “discurso desumanizante contra soldados russos” e pedidos de morte para o presidente russo Vladimir Putin e seu aliado presidente bielorrusso Alexander Lukashenko, a menos que essas chamadas fossem consideradas críveis ou contivessem alvos adicionais, de acordo com as instruções vistas pela Reuters.

As mudanças tornaram-se um problema para a Meta, pois navegou pelas pressões tanto dentro da empresa quanto de Moscou, que abriu um processo criminal contra a empresa após matéria da Reuters tornar públicas as exclusões. A Rússia também baniu o Facebook e o Instagram dentro de suas fronteiras, com um tribunal acusando Meta de “atividade extremista”.

Os documentos oferecem uma visão rara de como a Meta interpreta suas políticas, chamadas de padrões comunitários. A empresa diz que seu sistema é neutro e baseado em regras.

Os críticos dizem que muitas vezes é reativo, impulsionado tanto por considerações de negócios e ciclos de notícias quanto por princípio. É uma queixa que perseguiu a Meta em outros conflitos globais, incluindo Mianmar, Síria e Etiópia.

Pesquisadores de mídia social dizem que a abordagem permite que a empresa escape da responsabilidade de como suas políticas afetam os 3,6 bilhões de usuários de seus serviços.

A mudança de orientação sobre a Ucrânia gerou confusão e frustração para os moderadores, que dizem que têm 90 segundos em média para decidir se uma determinada postagem viola a política.

Alguns empregados da Meta expressaram frustração porque o Facebook permitiu que ucranianos fizessem declarações que seriam consideradas fora dos limites para usuários que postassem sobre conflitos anteriores no Oriente Médio e outras partes do mundo, segundo a cópias das mensagens vistas pela Reuters.

“Parece que esta política está dizendo que o discurso de ódio e a violência são aceitáveis ​​se forem direcionados às pessoas ‘certas'”, escreveu um funcionário.

Enquanto isso, o Meta não deu aos moderadores uma orientação para melhorar sua capacidade de desativar postagens que promovam narrativas falsas sobre a invasão da Rússia, como negações de que ocorreram mortes de civis, disseram as pessoas à Reuters.

Em teoria, a Meta tem uma regra que deveria permitir que os moderadores abordem comentários como os feitos a Vishegirskaya. A empresa citou essa regra quando removeu postagens da Embaixada da Rússia em Londres que haviam divulgado falsas alegações sobre o atentado de Mariupol após o ataque de 9 de março.

Postagens que alegavam explicitamente que o atentado foi encenado eram elegíveis para remoção, mas comentários como “você é uma atriz tão boa” foram considerados muito vagos e tiveram que permanecer, mesmo quando o contexto era claro.

tagreuters.com2022binary_LYNXNPEI3A0SD-BASEIMAGE