Por David Shepardson e Diane Bartz

WASHINGTON (Reuters) – O governo Biden disse na terça-feira que está fazendo uma consulta pública sobre possíveis medidas de responsabilização para sistemas de inteligência artificial (IA), à medida que surgem dúvidas sobre seu impacto na segurança nacional e na educação.

O ChatGPT, um programa que recentemente chamou a atenção do público por sua capacidade de escrever respostas rapidamente para uma ampla gama de perguntas, atraiu a atenção dos parlamentares norte-americanos ao se tornar o aplicativo de consumo de mais rápido crescimento na história, com mais de 100 milhões de usuários ativos mensais.

A Administração Nacional de Telecomunicações e Informações (NTIA), uma agência do Departamento de Comércio que assessora a Casa Branca em políticas para o setor, quer informações, pois há “crescente interesse regulatório” em um “mecanismo de responsabilização” da inteligência artificial.

A agência quer saber se há medidas que poderiam ser implementadas para fornecer garantia “de que os sistemas de inteligência artificial são legais, eficazes, éticos, seguros e confiáveis”.

A NTIA planeja redigir um relatório que analisa “os esforços para garantir que os sistemas de inteligência artificial funcionem como alegado –e sem causar danos”, contribuindo para o trabalho contínuo do governo Biden de “assegurar uma abordagem coesa e abrangente do governo federal para riscos e oportunidades relacionadas à inteligência artificial”.

Um grupo de ética tecnológica, o Centro de Inteligência Artificial e Política Digital, pediu à Comissão Federal de Comércio dos Estados Unidos que impeça a OpenAI de emitir novos lançamentos comerciais do GPT-4, dizendo que o chatbot era “tendencioso, enganoso e um risco à privacidade e à segurança pública”.

tagreuters.com2023binary_LYNXMPEJ3A0J6-BASEIMAGE