Artigo

Quem tem medo da inteligência artificial?

Um grupo de especialistas, entre eles Elon Musk, está pedindo limites para robôs de guerra e coloca em debate a ética dos sistemas inteligentes

Quem tem medo da inteligência artificial?

Todos os titãs do Vale do Silício estão apostando na inteligência artificial. Google, Apple, IBM, Amazon, Facebook e Microsoft estão lutando por um mercado que pode atingir US$ 153 bilhões, de acordo com estimativas do Bank of America Merrill Lynch. Ninguém quer ficar de fora dessa festa bilionária, que impactará diversas áreas da economia, como os setores de agricultura, da indústria, de veículos, de entretenimento, de saúde e financeiro. Os carros autônomos, por exemplo, podem movimentar US$ 87 bilhões até 2030.

Ao mesmo tempo, a inteligência artificial desperta temor em um grande número de pessoas. As máquinas estão aumentando sua capacidade para aprender e para superar desafios com autonomia em uma velocidade estonteante. Em alguns anos, cientistas acreditam que poderão existir chips com capacidade de processamento similar à do cérebro humano. A questão que surge nos meios acadêmicos e até mesmo empresariais é se, em algum momento, não será necessário criar limites para a inteligência artificial.

Muita gente séria que acredita que sim. Na semana passada, um grupo de 116 especialistas em robótica e inteligência artificial escreveu uma carta para a Organização das Nações Unidas (ONU) pedindo a proibição de robôs dedicados à guerra. O documento traz a assinatura de Elon Musk, o bilionário fundador da fabricante de carros autônomos Tesla e de foguetes Space X, considerado uma das pessoas mais inovadoras do planeta. O empreendedor Mustafa Suleyman, cofundador da companhia de inteligência artificial DeepMind, do Google, é também um dos signatários do manifesto.

“Uma vez desenvolvidas [as armas autônomas], permitirão que conflitos armados sejam travados em uma escala maior do que nunca, e em escalas de tempo mais rápidas do que os humanos podem compreender. Estas podem ser armas de terror, armas que os déspotas e os terroristas usam contra populações inocentes, e armas hackeadas para comportar-se de maneira indesejável. Não temos muito tempo para agir. Quando a caixa de Pandora se abrir, será difícil de fechar”, relata o documento entregue à ONU.

Não se trata de ficção científica. É uma ameaça real que coloca em evidência os dilemas éticos da adoção em massa da inteligência artificial. Pense no exemplo de um carro autônomo. Como ele deverá agir na iminência de um atropelamento: salvar a vida dos ocupantes do veículo ou tentar desviar do pedestre? E se os robôs começarem a agir por si próprios? Isso já até aconteceu recentemente. Pesquisadores do Facebook colocaram para conversar dois chatbots, robôs de bate-papo para atendimento ao consumidor. Depois de um tempo, a dupla batizada de Alice e Bob começou a usar uma linguagem desconhecida. Sem entender a nova língua, os cientistas desligaram os chatbots.

Não se trata aqui de ter uma visão pessimista da inteligência artificial. Ela será imprescindível para os grandes desafios que a espécie humana deve enfrentar, como o aquecimento global, as doenças crônicas, o risco de pandemias e a pobreza. No lado dos negócios, permitirá comodidade e um sem número de bons serviços para consumidores e empresas. O problema não é a tecnologia, mas sim o uso que se pode fazer dela. É como uma faca. Ela pode ser usada para salvar vidas ou matar. O físico Stephen Hawking diz que essa tecnologia é “o maior feito da história da humanidade”. Mas faz um alerta: “O desenvolvimento da inteligência artificial total poderia significar o fim da raça humana”, afirmou ele, em 2014. Resta torcer para que sua previsão esteja errada.