Com a intenção de manter as notícias falsas sob controle, as empresas de mídia social estão procurando novas maneiras de limitar esse comportamento, que, aliás, elas mesmas causaram.

Seguindo o exemplo do Twitter, o Facebook está testando uma nova função para incentivar os usuários a ler o link de um artigo antes de compartilhá-lo. De acordo com a empresa, o teste inicial será aplicado a 6% dos usuários da plataforma globalmente, ao longo do tempo será implementado para o resto dos usuários.

+ Mark Zuckerberg exibe cabra chamada ‘Bitcoin’ e gera especulações

O Facebook afirmou que a implementação deste pop-up visa promover a “troca informada” de notícias dentro da plataforma. Embora a intenção do gigante das mídias sociais seja reduzir a disseminação de notícias falsas, a plataforma de Mark Zuckerberg indicou que não limitará a capacidade de compartilhar links, mas a partir de agora, e da mesma forma que o Twitter, o usuário que compartilha um link sem abri-lo, você receberá uma mensagem pop-up perguntando se deseja compartilhar sem abrir as informações.

O Facebook vem realizando ações semelhantes desde o ano passado, sendo a mais proeminente a mensagem pop-up lançada pela plataforma alertando os usuários antes de compartilharem informações com mais de 90 dias de existência, no esforço de reduzir as histórias tiradas do contexto, também a empresa trabalha com verificadores de notícias independentes que em 2020 e antes do início da pandemia Covid-19 conseguiram capturar e marcar mais de 50 milhões de links com informações errôneas , esta ação é particularmente eficaz, pois o Facebook relata que em 95% dos casos, os usuários não clicam no conteúdo rotulado pela empresa como enganoso.

Segundo dados do Twitter, a implementação de mensagens pop-up fez com que os links abrissem pelo menos 40% mais vezes do que o normal, uma vez que o usuário conhecia a informação, ele continuava a compartilhá-la.

As mensagens pop-up dão ao usuário a sensação de que seu mau comportamento está sendo observado, o que, por sua vez, limita sua falta de verificação de dados, o que pode ser um passo à frente na moderação automatizada em plataformas de mídia social , a fim de reduzir a desinformação ou conteúdo online que promova o discurso de ódio.