Por Andrew Goudsward

WASHINGTON (Reuters) – Quando a Suprema Corte dos Estados Unidos decidir nos próximos meses se enfraquecerá um poderoso escudo que protege as empresas de internet, a decisão também poderá ter implicações para tecnologias em rápido desenvolvimento, como o chatbot de inteligência artificial ChatGPT.

Os juízes devem decidir até o final de junho se o YouTube pode ser processado por suas recomendações de vídeo aos usuários. O caso testa se uma lei norte-americana que protege as plataformas de tecnologia da responsabilidade legal pelo conteúdo publicado online por seus usuários também se aplica quando as empresas usam algoritmos para direcionar recomendações aos usuários.

A discussão ocorre porque os algoritmos que alimentam ferramentas de inteligência artificial generativas, como o ChatGPT e seu sucessor GPT-4, operam de maneira um tanto semelhante àquelas que sugerem vídeos aos usuários do YouTube, acrescentaram os especialistas.

Representantes da OpenAI, criadora do ChaGPT, e do Google não comentaram o assunto.

Durante audiência em fevereiro, os juízes da Suprema Corte expressaram incerteza sobre se deverão enfraquecer as proteções consagradas na lei, conhecidas como Seção 230 da Lei de Decência das Comunicações de 1996. Embora o caso não esteja diretamente relacionado à IA generativa, o juiz Neil Gorsuch observou que as ferramentas que geram “poesias” e “polêmicas” provavelmente não usufruem de tais proteções legais.

“CONSEQUÊNCIAS DE SUAS PRÓPRIAS AÇÕES”

O senador democrata Ron Wyden, que ajudou a redigir a lei enquanto estava na Câmara dos Deputados, disse que o escudo de responsabilidade não deverá se aplicar a ferramentas de inteligência artificial generativas porque essas ferramentas “criam conteúdo”.

“A Seção 230 trata da proteção de usuários e sites para hospedar e organizar o discurso dos usuários. A lei não deve proteger as empresas das consequências de suas próprias ações e produtos”, disse Wyden em comunicado à Reuters.

A indústria de tecnologia pressionou para preservar a Seção 230, apesar da oposição bipartidária à imunidade. O setor disse que ferramentas como o ChatGPT funcionam como mecanismos de busca, direcionando os usuários para o conteúdo existente em resposta a uma consulta.

“A inteligência artificial não está realmente criando nada. Está pegando o conteúdo existente e colocando-o de uma maneira ou formato diferente”, disse Carl Szabo, vice-presidente e conselheiro geral da NetChoice, um grupo de lobby da indústria de tecnologia.

Szabo disse que uma Seção 230 enfraquecida apresentará uma tarefa impossível para os desenvolvedores de IA, ameaçando expô-los a uma enxurrada de litígios que poderão sufocar a inovação.

Alguns especialistas prevêem que os tribunais podem adotar um meio-termo, examinando o contexto no qual o modelo de IA gerou uma resposta potencialmente prejudicial.

Hany Farid, tecnólogo e professor da Universidade da Califórnia, em Berkeley, disse que é muito difícil argumentar que os desenvolvedores de IA devem ser imunes a processos judiciais sobre modelos que eles “programaram, treinaram e implantaram”.

“Quando as empresas são responsabilizadas em litígios civis por danos causados pelos produtos que produzem, elas produzem produtos mais seguros”, disse Farid. “E quando não são responsabilizados, produzem produtos menos seguros.”

O caso que está sendo decidido pela Suprema Corte envolve um recurso contra o YouTube feito pela família de Nohemi Gonzalez, uma estudante universitária de 23 anos da Califórnia que foi morta a tiros em um tumulto de 2015 por militantes islâmicos em Paris.

O processo acusa a empresa de fornecer “apoio material” ao terrorismo e afirmou que o YouTube, por meio dos algoritmos da plataforma de compartilhamento de vídeos, recomendou ilegalmente vídeos do grupo militante Estado Islâmico, que reivindicou a responsabilidade pelos ataques de Paris, a certos usuários.

tagreuters.com2023binary_LYNXMPEJ3N0KX-BASEIMAGE