Tesla nega que bug em carro seja a causa de acidente fatal na China
Vídeo mostra veículo tentando estacionar e depois disparando em altíssima velocidade; incidentes de "aceleração não-intencional súbita" em carros da marca foram causados pelos motoristas, concluiu investigação dos EUA
Vídeo mostra veículo tentando estacionar e depois disparando em altíssima velocidade; incidentes de “aceleração não-intencional súbita” em carros da marca foram causados pelos motoristas, concluiu investigação do governo dos EUA
O acidente ocorreu no dia 5 de novembro em Chaozhou, na província de Guangdong (sul da China), e foi registrado por câmeras de vigilância – a gravação, que tem sido compartilhada nas redes sociais chinesas, apareceu na internet ocidental ontem.
Ela mostra um Tesla Model Y tentando estacionar, desistindo e arrancando por uma avenida, na qual percorreu aproximadamente 2,6 km. O veículo alcança uma velocidade muito alta, que realmente assusta – e atropela duas pessoas para então colidir contra uma loja. O incidente deixou dois mortos e três feridos.
Acidente com Tesla Model Y em Guangdong, na China. ATENÇÃO: CENAS FORTES.
A velocidade extrema, a violência do impacto, e o fato de que o carro estava estacionando antes de disparar gerou a teoria, propagada nas redes chinesas, de que o acidente poderia estar ligado a alguma pane – no acelerador, no freio ou no software de direção autônoma da Tesla (o Full Self Driving, ou FSD).
A empresa nega essa possibilidade. Segundo ela, dados extraídos do carro revelam que o acelerador estava sendo fortemente pressionado até o momento do impacto final, e o freio não foi acionado em nenhum momento. Logo, a responsabilidade pelo acidente seria do motorista.
Segundo as autoridades chinesas, trata-se de um homem de 55 anos, cujo nome não foi revelado. Uma pessoa que se identificou como parente do motorista publicou um post no Weibo (a versão chinesa do Twitter) dizendo que aquilo só poderia ser um problema técnico. Essa declaração alimentou a polêmica no país – onde a Tesla já protagonizou uma polêmica similar.
No ano passado, uma chinesa foi ao Salão do Automóvel de Xangai e fez um protesto no estande da empresa. Ela é proprietária de um carro da marca, que teria sofrido uma pane nos freios. A Tesla afirma que a motorista bateu o carro porque estava acima do limite de velocidade. Ou seja, também teria sido falha humana.
Em 2021, o US Department of Transportation, do governo americano, investigou quatro casos de “aceleração não-intencional súbita” em veículos da Tesla – e concluiu que, em todos eles, a responsabilidade foi do motorista.
“Não há evidência de que qualquer falha no pedal do acelerador, nos sistemas de controle do motor, ou nos sistemas de freio tenha contribuido para os incidentes citados”, afirma o relatório.
Os Tesla, assim como diversos outros carros, possuem acelerador eletrônico. Também têm, como é norma nos veículos elétricos, um sistema híbrido de freio: além dos conjuntos de pinça e disco instalados nas rodas, eles possuem frenagem regenerativa – em que os motores do carro ajudam a brecá-lo (e capturam energia, usada para recarregar as baterias).
O acelerador tem dois sensores independentes, e desliga automaticamente se houver erro num deles. Além disso, destaca a Tesla, os freios são fortes o suficiente para brecar o carro em qualquer situação, inclusive se ele estiver sendo acelerado. E o Full Self Driving dirige bem devagar, e é imediatamente desativado por um toque no freio.
Em suma: a hipótese de bug, ao menos com as ínformações disponíveis hoje, parece improvável. Já houve colisões envolvendo os sistemas de automação dos Tesla, mas por outra razão – e ela também tem a ver com o fator humano.
Os acidentes foram causados pelo mau uso do Autopilot, um modo de automação parcial que, ao contrário do FSD, não assume totalmente o controle do carro: ele consegue acelerar, frear e manter o veículo dentro da faixa em que está, mas só isso.
O Autopilot está disponível em mais lugares (a Tesla controla em quais trajetos cada sistema pode ou não ser ativado), e por isso seu uso é bem mais comum do que o FSD.
Mas, se o motorista estiver desatento, e tratar o Autopilot como se ele fosse um modo 100% autônomo, ele pode levar a situações perigosas. No ano passado, segundo as autoridades dos EUA, houve 273 colisões em que o Autopilot esteve envolvido. Isso equivale a 70% das 392 batidas envolvendo sistemas autônomos nas ruas do país durante o período.