Por Débora Ely e Victor Pinheiro

31 Mar (Reuters) – O governo do presidente Luiz Inácio Lula da Silva e o presidente do Tribunal Superior Eleitoral (TSE), ministro Alexandre de Moraes, detalharam nesta semana propostas para responsabilizar empresas de tecnologia por conteúdos publicados por usuários em suas plataformas, incluindo publicações com conteúdo criminoso e desinformação.

Na quinta-feira, o Palácio do Planalto propôs ao relator do chamado “PL das Fake News”, deputado federal Orlando Silva (PCdoB-SP), a criação de uma entidade autônoma para fiscalizar a conduta das plataformas e responsabilizar civilmente as empresas por “danos decorrentes de conteúdo gerado por terceiros… quando demonstrado conhecimento prévio e comprovado o descumprimento do dever de cuidado” diante de crimes como violações ao Estado Democrático de Direito, racismo e terrorismo, entre outros.

Em outra frente, o presidente do TSE disse que a corte vai encaminhar ao Congresso sugestões como a moderação de conteúdo considerado nocivo aos moldes do que as empresas já fazem contra pedofilia e violações de direitos autorais, com uso de inteligência artificial e análise humana, e a exclusão de postagens idênticas às que já foram alvo de decisão judicial, sem necessidade de nova determinação.  

Esta última medida foi usada pelo TSE nas eleições de 2022, mas por meio de resolução da própria corte. 

“Eu não sou daqueles que acham que precisa de uma grande regulamentação. Se nós aplicarmos o que já temos, interpretando com o que é o mundo virtual, nós já conseguimos limitar essas agressões”, afirmou Moraes durante evento em São Paulo nesta sexta-feira, sem mencionar diretamente a proposta do governo. 

O ministro defendeu que as plataformas devem ser responsabilizadas pelos conteúdos que geram receitas para as empresas, como publicidade. Já a proposta do Executivo prevê que a multa em caso de descumprimento de ordem judicial para remoção de conteúdo poderá ser triplicada caso a publicação tenha sido monetizada ou impulsionada. 

As propostas do Executivo e do TSE também cobram mais transparência em relação aos algoritmos usados pelas plataformas para recomendar conteúdo aos usuários. 

COMBATE À DESINFORMAÇÃO 

Até o momento, nenhuma das propostas define o que seria considerado desinformação.

Para Moraes, as medidas focadas no conteúdo que gera receita para as plataformas são “muito mais eficientes” do que definir “fake news de forma abstrata”.  

O projeto do governo, por sua vez, prevê que o Congresso crie uma “comissão provisória destinada à elaboração de Código de Conduta de Enfrentamento à Desinformação”, formada por membros do poder público e da sociedade civil.  

Segundo o texto, tal código deverá incluir medidas para “garantir a desmonetização de conteúdo que contenha desinformação” e identificar “responsáveis por estratégias coordenadas de desinformação”, entre outras, assim como “sanções” em caso de descumprimento das regras. 

Orlando Silva disse que irá analisar as propostas do governo e “definir o que deve ser incorporado nos próximos dias” ao projeto de lei. Depois disso, o deputado afirmou que pretende levar à votação um requerimento de urgência para o texto e submetê-lo ao plenário da Câmara.

Segundo o TSE, ainda não há data prevista para envio das propostas do tribunal ao Legislativo. Silva disse à Reuters que Moraes avisou que iria encaminhá-las e que aguarda as “propostas objetivas”.

As propostas do governo e de Moraes para responsabilizar as plataformas podem encontrar um obstáculo na atual redação do Marco Civil da Internet. O artigo 19 da lei exime as plataformas de responsabilidade jurídica “por danos decorrentes de conteúdo gerado por terceiros”, a não ser quando houver uma ordem judicial específica para a remoção do conteúdo. 

O Supremo Tribunal Federal (STF) discute desde 2017 a constitucionalidade do artigo 19 a partir de processos abertos pela Meta Platforms, dona do Facebook e do Instagram, e Google, da Alphabet. Os casos discutem a responsabilidade das plataformas removerem conteúdo publicado por usuários quando há ofensas, discurso de ódio ou desinformação mesmo sem ordem judicial. 

Em audiência no STF na terça-feira, representantes de Meta e Google defenderam o atual formato do Marco Civil e refutaram a hipótese de que as empresas não removem conteúdos ilegais ou que violem as políticas de suas plataformas mesmo quando não há ordem judicial. 

Em entrevista à Reuters no dia 17, o secretário de Políticas Digitais do governo federal, João Brant, disse que o papel do governo é “propor mudanças na lei e trazer a avaliação do atual regime”. “Se isso é uma discussão de constitucionalidade, é o STF que vai dizer”, afirmou.

(Reportagem de Débora Ely, em Porto Alegre, e Victor Pinheiro, em São Paulo. Edição de Bernardo Barbosa e Pedro Fonseca)

tagreuters.com2023binary_LYNXMPEJ2U0YI-BASEIMAGE