Um pesquisador de segurança de 19 anos chamado David Colombo recentemente abriu seu notebook e conseguiu destravar portas e janelas, aumentar o som e dar partida em vários carros da Tesla – os modernos e desejados automóveis elétricos da empresa fundada por Elon Musk. Conseguiu dirigir o veículo, acelerar? Não. Mas carros como os modelos S, X, Y e 3 são praticamente computadores sobre rodas, e suas vantagens trazem, também, vulnerabilidades. O problema no Tesla com o jovem hacker foi um aplicativo de terceiros e não da própria fábrica, mas se acontece algum problema, não dá pra escapar da responsabilidade.

+ Varejo: redes estão mais dependentes da concessão de crédito para sustentar consumo

E há uma arrogância sonhadora demais na venda de um avanço como o Autopilot ou Full Self-Driving (FSD). Os termos claramente apontam para uma autonomia do veículo em relação ao humano, e Musk insiste nisso como algo infalível – mesmo o manual dizendo que o motorista precisa estar totalmente atento à direção e pronto para assumir o comando.

O infalível essa semana lhe custou estar ao longo de um processo que pode gerar uma jurisprudência chave para a indústria automobilística de ponta: um Tesla Model S 2016 saiu em alta-velocidade de uma freway em Gardena, LA, ignorou um sinal vermelho e bateu em um Honda Civic, pouco mais da meia-noite de dezembro de 2019, matando seus dois ocupantes. Dois anos depois, o Estado de Los Angeles apresentou duas acusações de homicídio contra o motorista do Tesla, Kevin Riad, de 27 anos. É o primeiro processo acusando um motorista de uma fatalidade enquanto usava um sistema parcialmente automatizado de direção.

É uma briga da inteligência artificial com o humano. A Tesla foi forçada a ser adulta em relação a seus consumidores, quase como um pai punindo o filho. A National Highway Traffic Safety Administration (NHTSA) exigiu o bloqueio da função Passenger Play nos carros, enquanto em movimento. O software permitia que o motorista jogasse Sky Force Reload, Battle of Polytopia enquanto estava ao volante. E os “pilotos” realmente faziam isso. Segundo a agência governamental americana, no país morrem perto de 3 mil pessoas apenas por distração no trânsito.

A mesma NHTSA foi até o cruzamento da Artesia Boulevard e Vermont Avenue onde ocorreu a colisão do Tesla que matou as duas pessoas. Segundo a perícia, ele estava em Autopilot no momento da colisão. Novamente: a Tesla diz que não quer que os motoristas soltem as mãos do volante e esqueçam que são condutores. Mas quem compra um carro com tais recursos quer fazer exatamente isso.

Uma reportagem de dezembro de 2021 do The New York Times trouxe depoimentos anônimos – todos temem Elon Musk – dizendo que um vídeo gravado em 2016 para mostrar os avanços do Autopilot foi editado tirando uma sequência importante: o Tesla escapando e batendo em uma barreira na estrada, sem feridos, mas com o carro direcionado para a oficina. Em sua versão mais atualizada, o software Full Self-Driving prega garantir dirigibilidade dentro do complexo trânsito de uma cidade, mas a real é que ele não é capaz de reagir a ilógicas situações que acontecem diariamente no trânsito.

As oito câmeras externas, os 12 sensores ultrassônicos e seu poderoso computador de bordo ajudariam a tirar o peso de dirigir como um todo do motorista em modelos mais modernos – anteriores usavam radares, também efetivos. “O Autopilot é para ser usado por motoristas em atenção total, com suas mãos ao volante e preparados para tomar o controle a qualquer momento (…) Os atuais sistemas não fazem do veículo um autônomo”, diz o manual.  Outros carros, de montadoras como Jaguar, Volvo, Mercedes-Benz, Honda e BMW, entre outras, oferecem condução semi-autônoma, como o Pilot Assist, que faz curvas sozinho, e o já popular ACC (Adaptative Cruise Control), que controla a velocidade de acordo com o tráfego à frente, inclusive brecando o carro. Mas nada disso é tão eficiente e nem se diz completo (full) como um Tesla.

A CNN testou um Model 3 e a cada quarteirão o motorista precisou intervir e fazer pequenos ajustes. Do contrário, em algumas ocasiões, poderia colidir com algo. “Não estamos tentando fazer o carro errar, nem tirar um sarro da cara de Elon Musk, só ver como o carro dirigiria na cidade. Até agora… está indo OK”, minimizou o editor Michael Ballaban. O problema não é “ver” o que se passa no entorno do carro, algo que as câmeras fazem bem, mas sim desenvolver programas que permitam reagir a tempo em situações inesperadas, algo que só a experiência ensina ao motorista.