Nenhum Tom Cruise foi usado nesta reportagem. Todos foram produtos de uma inteligência artificial, de deeplearning, machine learning ou deepfake, quase sinônimos de uma técnica em que a máquina aprende sobre nós e nos reproduz, como jamais conseguiríamos por nós mesmos. Cruise chupando pirulito, brincando de mágico com uma moeda e jogando golfe pipocaram em vídeos no TikTok e nada mais foram que uma brincadeira de um programador de deepfake com um dublê meio parecido com o ator, que teve seu rosto transformado, à perfeição, pela técnica.

O que está acontecendo é uma revolução na capacidade da máquina de nos copiar, algo que já faz parte da indústria cinematográfica e adjacências e fará parte do anunciado Metaverso de Mark Zuckerberg. Mas o que é o deepfake? É uma tecnologia aberta, ou seja, qualquer um com mediano conhecimento de efeitos especiais pode usar. O software aprende feições de rostos mediante o upload de várias cenas/imagens da pessoa que se quer copiar. Daí os atores serem os preferidos, pois estão registrados em filmes ao longo de anos e em alta-resolução. Ao mesmo tempo, a máquina carrega imagens de outra pessoa qualquer — por exemplo, você —, e vai aprendendo seu jeito. Ela então mistura os dois rostos e você escolhe qual vai ser o final. Pronto. Parece uma brincadeira, mas isso é parte da chamada nova grande indústria nos próximos anos. O mercado de deeplearning, que engloba tecnologias de reprodução de rostos e avatares, deve gerar US$ 261 bilhões, até 2027 segundo relatório da americana Persistence Market Research. Só em 2020, as 100 startups de inteligência artificial do ranking anual da CB Insights, empresa de inteligência de mercado, garantiram US$ 7,4 bilhões em investimentos.

Divulgação

MÁQUINA DIRIGE CARRO, DESCOBRE DOENÇAS Os resultados de deeplearning são espantosos, e não estão relegados a copiar o Tom Cruise. Incluem como aprender a dirigir um carro, como os autônomos com rede neural da Tesla; ficar mestre em escanear nosso corpo com precisão cirúrgica e inteligente em busca de doenças; aperfeiçoar mundos como o vislumbrado por Zuckerberg; projetar mapas meteorológicos para companhias aéreas e até criar conexões mais assertivas entre consumidores e produtos. A Disney é um exemplo disso com seu Laboratório de Pesquisas na Alemanha, agregando pessoas no mundo inteiro para estudar machine learning e IA. Ou fazendo parcerias com a Universidade da Califórnia para captar imagens em cinemas e entender como reagimos a cada cena, retendo expressões de visitantes de seus parques temáticos para melhorar a experiência de seus produtos.

EM CASA ELE FEZ MELHOR QUE A DISNEY O rejuvenescimento do ator Mark Hamill, de Star Wars, para The Mandalorian, usando tecnologia mista e cara pela Disney: no último quadro à direita, a recriação feita em em casa em deepfake pelo artista Shamook ficou melhor. O estúdio acabou o contratando. (Crédito:Divulgação)

Uma das mais fortes empresas no ramo é a Nvidia, um dia famosa por suas placas de vídeo e que agora se denomina líder em computação de inteligência artificial. Ela está criando uma tecnologia que troca imagens em movimento de pessoas em videochamadas por avatares perfeitos, impedindo a fragmentação no rosto das pessoas em conexões entupidas de participantes. Como comparativo de “bola da vez”, o valor de mercado da Nvidia é de US$ 617 bilhões, bem acima de uma tradicional Intel, com US$ 196 bilhões. Também estão entre as empresas mergulhadas no ramo — ninguém quer perder o passo — a Apple, com um novo campus para machine learning com 3 mil novos empregos; a Amazon, liderando na linha de produtos de reconhecimento de voz e pessoas; e a Microsoft, que investiu em 2019 US$ 1 bilhão na empresa de Elon Musk, a OpenAI, que , diz, fará qualquer coisa que a inteligência humana faz. O deepfake pode ter começado como brincadeira — no Brasil, alguns youtubers usam um aplicativo, primário, chamado Impressions, e viralizam nas redes —, mas é a prova de que a máquina pode aprender a imitar o ser humano. E este é um mundo virtual provável para os próximos anos.

CALL COM…HAO LI O GÊNIO DOS AVATARES E DEEPFAKES

Divulgação

O currículo de Hao Li, alemão residente nos EUA, é gigantesco. Uma das 35 maiores mentes inovadoras no mundo, segundo o MIT, é especialista em avatares criados por inteligência artificial, professor na Universidade da Califórnia, ex-empresas de efeitos especiais Industrial Light & Magic e Weta, tem algoritmos seus de avatares embutidos nos iPhone X e é CEO e fundador da Pinscreen, que cria avatares com tecnologias mistas.

Existe realmente um real negócio para o deeplearning/deepfake fora da indústria do entretenimento?
Apesar do deepfake ter ganhado atenção por seu uso negativo, como pornografia e fake news, o âmago dessa tecnologia tem muitas aplicações positivas e para uma variada gama de negócios. As várias técnicas de síntese por inteligência artificial usam modelos de geração profunda para manipulação de expressões faciais, que é o componente-chave para avatares fotorrealísticos em 3D. Elas são a próxima solução de tele presença usando headsets de realidade virtual e aumentada, como vimos com o lançamento da Meta. Atualmente, as tradicionais técnicas de computação gráfica para avatares em tempo real continuam parecendo personagens de videogame, gerando um efeito que chamamos de Uncanny Valley, que é uma sensação de estranheza quando observamos ou interagimos com robôs que parecem humanos — e é algo que não se entende o motivo de sentirmos isso, mas sentimos. Métodos de renderizações neurais ou soluções híbridas como deepfake são promissoras para resolver isso.

É ficção científica para uma empresa como a Disney instalar câmeras em cinemas e parques temáticos para detectar reações faciais e ajustar produtos?
Não. Existem empresas que têm usado tecnologias de reconhecimento facial para aplicar em publicidade com alvos, o que não é muito diferente de plataformas de mídia sociais analisando o que estamos lendo dentro do Facebook, do Twitter.

Como alguém no futuro vai saber que algo é um deepfake ou não? Alguém pode fazer um vídeo para incriminar outra pessoa, por exemplo.
Pesquisadores, e estou incluído nisso, estão desenvolvendo tecnologias que são capazes de detectar se um vídeo foi manipulado ou não. Ainda assim, podemos assumir que essas tecnologias estão ficando tão boas que é possível se criar algo praticamente indetectável. Você pode colocar ruídos visuais e compressões a esses vídeos e alguém dizer que é o contrário, um vídeo real ser descrito como um deepfake e não haver meios de se ter evidências conclusivas. Isso é o chamado “dividendo do mentiroso”. Em casos assim, juris e juízes terão de levar em consideração que ambas as possibilidades são válidas.