O Facebook admitiu que falhou ao não evitar que o vídeo ao vivo postado pelo autor do massacre em duas mesquitas na Nova Zelândia fosse retirado do ar momentos depois da sua publicação. Em uma nota postada nesta quarta-feira (20), a vice-presidente de integridade da rede social, Guy Rosen, afirmou que o sistema de inteligência artificial (IA) dos servidores não estava preparado para excluir as imagens imediatamente.

O vídeo foi retirado do ar 29 minutos após ser postado. O Facebook afirmou ainda que o streaming de 17 minutos foi assistido ao vivo por 200 pessoas e outras 4 mil tiveram acesso as imagens ainda através da rede social até que os links fossem excluídos. Rapidamente o vídeo das mortes se espalhou por milhares de servidores na internet.

“O que desafiou nossa abordagem foi a proliferação de muitas variantes diferentes do vídeo, impulsionadas pelas formas amplas e diversificadas que as pessoas o compartilhavam”, afirmou ela.

A rede social usa uma combinação de IA e supervisão humana para avaliar e excluir conteúdos impróprios, como nudez e propaganda terrorista. Depois da tragédia e de todas as críticas sofridas por autoridades da Nova Zelândia, a representante afirmou que novas tecnologias serão desenvolvidas.