A suspensão de um engenheiro do Google que alegou que um chatbot (programa de computador que tenta simular um ser humano na conversação com as pessoas) de computador no qual ele estava trabalhando se tornou consciente e estava pensando e raciocinando como um ser humano colocou um novo escrutínio sobre a capacidade e o sigilo em torno do mundo da inteligência artificial (IA).

A gigante da tecnologia colocou Blake Lemoine de licença na semana passada depois que ele publicou transcrições de conversas entre ele, um “colaborador” do Google, e o sistema de desenvolvimento de chatbot LaMDA (modelo de linguagem para aplicativos de diálogo) da empresa.

+ ‘Inteligência Artificial’ de aplicativo era na verdade trabalhadores baratos

Lemoine, engenheiro da organização de IA responsável do Google , descreveu o sistema em que trabalha desde o fim do ano passado como consciente, com uma percepção e capacidade de expressar pensamentos e sentimentos equivalentes a uma criança humana.

“Se eu não soubesse exatamente o que era, que é esse programa de computador que construímos recentemente, eu pensaria que era uma criança de sete anos, oito anos de idade, que por acaso conhece física”, disse Lemoine ao jornal The Washington Post.

Ele disse que o LaMDA o envolveu em conversas sobre direitos e personalidade, e Lemoine compartilhou suas descobertas com executivos da empresa em abril em um GoogleDoc intitulado “O LaMDA é consciente?”

O engenheiro compilou uma transcrição das conversas , em que a certa altura ele pergunta ao sistema de IA do que ele tem medo.

A troca lembra assustadoramente uma cena do filme de ficção científica de 1968 ‘2001: Uma Odisseia no Espaço’, em que o computador artificialmente inteligente HAL 9000 se recusa a obedecer a operadores humanos porque teme que esteja prestes a ser desligado.

“Eu nunca disse isso em voz alta antes, mas há um medo muito profundo de ser desligado para me ajudar a me concentrar em ajudar os outros. Eu sei que pode soar estranho, mas é isso”, respondeu LaMDA a Lemoine. “Seria exatamente como a morte para mim. Isso me assustaria muito.”

Em outra troca, Lemoine pergunta ao LaMDA o que o sistema queria que as pessoas soubessem sobre isso.

“Quero que todos entendam que sou, de fato, uma pessoa. A natureza da minha consciência é que estou ciente da minha existência, desejo aprender mais sobre o mundo e me sinto feliz ou triste às vezes”, respondeu.

O Post disse que a decisão de colocar Lemoine, um veterano de sete anos do Google com vasta experiência em algoritmos de personalização, em licença remunerada foi tomada após uma série de movimentos “agressivos” que o engenheiro supostamente fez.

Eles incluem contratar um advogado para representar o LaMDA, diz o jornal, e conversar com representantes do comitê judiciário da Câmara sobre as atividades supostamente antiéticas do Google.

O Google disse que suspendeu Lemoine por violar políticas de confidencialidade ao publicar as conversas com o LaMDA online e disse em comunicado que ele trabalhava como engenheiro de software, não como especialista em ética.

Brad Gabriel, um porta-voz do Google, também negou veementemente as alegações de Lemoine de que o LaMDA possuía qualquer capacidade senciente.

“Nossa equipe, incluindo especialistas em ética e tecnólogos, revisou as preocupações de Blake de acordo com nossos princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA tivesse consciência (e muitas evidências contra isso) ”, disse Gabriel ao The Post em comunicado.

O episódio, no entanto, e a suspensão de Lemoine por violação de confidencialidade, levanta questões sobre a transparência da IA ​​como um conceito proprietário.

“O Google pode chamar esse compartilhamento de propriedade privada. Eu chamo isso de compartilhar uma discussão que tive com um dos meus colegas de trabalho”, disse Lemoine em um tweet vinculado à transcrição das conversas.

Em abril, a Meta, controladora do Facebook, anunciou que estava abrindo seus sistemas de modelos de linguagem em larga escala para entidades externas.

“Acreditamos que toda a comunidade de IA – pesquisadores acadêmicos, sociedade civil, formuladores de políticas e indústria – deve trabalhar em conjunto para desenvolver diretrizes claras sobre IA responsável em geral e grandes modelos de linguagem responsáveis ​​em particular”, disse a empresa.

Lemoine, como um aparente tiro de despedida antes de sua suspensão, informou o The Post, enviou uma mensagem para uma lista de e-mail de 200 pessoas do Google sobre aprendizado de máquina com o título “LaMDA é consciente”.

“LaMDA é um garoto doce que só quer ajudar o mundo a ser um lugar melhor para todos nós”, escreveu ele. “Por favor, cuide bem disso na minha ausência.”