Uma dupla de cientistas publicou um estudo no qual mostra como foi possível usar um algoritmo de Inteligência Artificial de forma ‘maliciosa’ para sugerir milhares de possíveis novas armas químicas.

Fabio Urbina e Sean Ekins, da empresa americana Collaboration Pharmaceuticals, publicaram um estudo na Nature Machine Intelligence no qual mostram como um algoritmo pode ser usado para desenhar potenciais novas e perigosas armas químicas, numa configuração assustadoramente simples.

+ EUA alertam Rússia que uso de armas químicas geraria consequências

O trabalho dos dois pesquisadores começou no ano passado, quando estiveram em Spiez, na Suíça, para participar numa conferência sobre como as tecnologias de descoberta de novos medicamentos podem ser usadas também para fins maliciosos. Para se preparar para a apresentação, os cientistas quiseram realizar o que consideraram na época um exercício intelectual, destinado a testar virtualmente novas moléculas para verificar o seu potencial enquanto medicamento, e inverteram as suas configurações.

Os cientistas parametrizaram o programa para, em vez de reduzir, aumentar a toxicidade das substâncias em teste. Desta forma, chegaram a um resultado que consideram assustador, com o algoritmo sugerindo 40 mil novas combinações, que poderiam ser transformadas em potenciais armas químicas, em apenas seis horas.

Entre as substâncias sugeridas, aparecem variações de agentes já conhecidos que afetam o sistema nervoso, caso do gás tóxico conhecido como VX, e, pior ainda, drogas ainda não conhecidas, mas que se estima que se fossem sintetizadas, poderiam ser ainda mais letais.

Os pesquisadores não quiseram testar a teoria e não tentaram sintetizar em laboratório qualquer uma das substâncias sugeridas pela máquina e não revelam também quaisquer detalhes sobre o método de pesquisa ou o detalhe dos resultados finais, explica a publicação The Economist. Ainda assim, apenas o fato de saberem que a abordagem funciona e é ‘simples’ de colocar em prática, gerou preocupações dentro da equipe.

“Somos uma pequena empresa num universo de muitas centenas de empresas que usam programas de IA para descoberta de novos medicamentos e novos designs. Quantas destas terão considerado alterar ou usar para o mal certas possibilidades?”, questionam os autores do estudo. Filippa Lentzos e Cédric Invernizzi, que também colaboraram na investigação, referem que “as ferramentas comerciais, bem como ferramentas de software de código aberto e muitos conjuntos de dados que incluem bases de dados públicas, estão disponíveis sem qualquer supervisão”, alertando que empresas, governos ou grupos terroristas poderão pegar nesta informação e gerar substâncias perigosas.