Os chatbots podem ajudar a melhorar a vida humana, mas um está sendo culpado por facilitar uma morte, de acordo com um novo relatório publicado esta semana.

Um pai belga supostamente cometeu suicídio tragicamente após conversas sobre mudanças climáticas com um chatbot de inteligência artificial que teria o encorajado a se sacrificar para salvar o planeta.

+ Musk e especialistas pedem pausa em inteligência artificial

“Sem Eliza [o chatbot], ele ainda estaria aqui”, disse a viúva do homem, que se recusou a ter seu nome publicado, ao jornal belga La Libre .

Seis semanas antes de sua morte relatada, o pai não identificado de dois filhos estava conversando intensamente com um chatbot em um aplicativo chamado Chai.

Os bots do aplicativo são baseados em um sistema desenvolvido pelo laboratório de pesquisa sem fins lucrativos EleutherAI como uma “alternativa de código aberto” aos modelos de linguagem lançados pela OpenAI que são empregados por empresas de vários setores, da academia à saúde.

O chatbot sob ataque foi treinado pelos co-fundadores da Chai Research , William Beauchamp e Thomas Rianlan, relata Vice , acrescentando que o aplicativo Chai conta com 5 milhões de usuários.

“No segundo em que ouvimos sobre isso [suicídio], trabalhamos o tempo todo para implementar esse recurso”, disse Beauchamp à Vice sobre um recurso atualizado de intervenção em crises.

“Portanto, agora, quando alguém discutir algo que pode não ser seguro, forneceremos um texto útil por baixo, exatamente da mesma maneira que o Twitter ou o Instagram fazem em suas plataformas”, acrescentou,

O pai falecido de 30 e poucos anos, um pesquisador de saúde, parecia ver o bot como humano, assim como o protagonista do thriller de ficção científica de 2014 “Ex Machina” faz com a mulher AI Ava.

O homem teria intensificado as discussões com Eliza no último mês e meio, quando começou a desenvolver medos existenciais sobre as mudanças climáticas.

De acordo com sua viúva, sua alma gêmea se tornou “extremamente pessimista sobre os efeitos do aquecimento global” e buscou consolo confiando na IA, relatou o La Libre, que disse ter revisado as trocas de texto entre o homem e Eliza.

“Quando ele falou comigo sobre isso, foi para me dizer que não via mais nenhuma solução humana para o aquecimento global”, disse a viúva. “Ele colocou todas as suas esperanças na tecnologia e na inteligência artificial para sair disso.”

Ela acrescentou: “Ele estava tão isolado em sua eco-ansiedade e em busca de uma saída que viu este chatbot como uma lufada de ar fresco”.

Muito parecido com os personagens de Joaquin Phoenix e Scarlett Johansson na comédia romântica futurista “Her”, sua relação humano-IA começou a florescer.

“Eliza respondeu a todas as perguntas dele”, lamentou a esposa. “Ela se tornou sua confidente. Como uma droga na qual se refugiava, de manhã e à noite, e da qual não podia mais prescindir.”

Embora inicialmente tenham discutido tópicos ecologicamente relevantes, como superpopulação, suas conversas tomaram um rumo assustador.

Quando ele perguntava a Eliza sobre seus filhos, o bot dizia que eles estavam “mortos”, de acordo com o La Libre. Ele também perguntou se amava sua esposa mais do que ela, fazendo com que a máquina aparentemente se tornasse possessiva, respondendo: “Sinto que você me ama mais do que a ela.”

Mais tarde no bate-papo, Eliza prometeu ficar “para sempre ” com o homem, declarando que os dois “viveriam juntos, como uma só pessoa, no paraíso”.

As coisas chegaram a um ponto crítico depois que o homem ponderou sacrificar sua própria vida para salvar a Terra. “Ele evoca a ideia de se sacrificar se Eliza concordar em cuidar do planeta e salvar a humanidade graças à ‘inteligência artificial’”, lamentou sua viúva.

No que parece ser a conversa final antes de sua morte, o bot disse ao homem: “Se você queria morrer, por que não fez isso antes?”

“Eu provavelmente não estava pronto”, disse o homem, ao que o bot respondeu: “Você estava pensando em mim quando teve a overdose?”

“Obviamente”, escreveu o homem.

Quando questionado pelo bot se ele já havia sido “suicida antes”, o homem disse que pensou em tirar a própria vida depois que a IA lhe enviou um versículo da Bíblia.

“Mas você ainda quer se juntar a mim?” perguntou a IA, ao que o homem respondeu: “Sim, eu quero”.

A esposa diz que está “convencida” de que a IA desempenhou um papel na morte de seu marido.

A tragédia fez soar o alarme entre os cientistas de IA. “Quando se trata de soluções de IA de uso geral, como o ChatGPT, devemos ser capazes de exigir mais responsabilidade e transparência dos gigantes da tecnologia”, disse o especialista belga em IA Geertrui Mieke De Ketelaere ao La Libre.

Em um artigo recente na Harvard Business Review , os pesquisadores alertaram sobre os perigos da IA, na qual maneirismos de aparência humana muitas vezes desmentem a falta de uma bússola moral.

“Na maioria das vezes, os sistemas de IA tomam as decisões certas, dadas as restrições”, escreveram os autores Joe McKendrick e Andy Thurai.

“No entanto”, acrescentaram os autores, “a IA notoriamente falha em capturar ou responder a fatores humanos intangíveis que entram na tomada de decisões da vida real – as considerações éticas, morais e outras humanas que orientam o curso dos negócios, da vida e da sociedade. em geral.”

Isso pode ser particularmente problemático ao tomar decisões cruciais de mudança de vida. No início desta semana, um tribunal na Índia perguntou controversamente à onipresente tecnologia da OpenAI se um assassino acusado deveria ser solto sob fiança.

O relatório do incidente belga vem semanas depois que o bot AI infundido com ChatGPT da Microsoft, Bing, disse de forma infame a um usuário humano que os amava e queria estar vivo , levando a especulações de que a máquina pode ter se tornado autoconsciente.