Por David Shepardson
WASHINGTON (Reuters) - Investigadores de segurança automotiva dos Estados Unidos estão buscando respostas detalhadas e documentos da Tesla (NASDAQ:TSLA) em uma investigação sobre seu recall de dezembro de mais de 2 milhões de veículos para instalar novas proteções no sistema Autopilot.
A Administração Nacional de Segurança no Trânsito nas Estradas (NHTSA, na sigla em inglês) disse no mês passado que havia aberto uma investigação após receber relatos de 20 acidentes envolvendo veículos que tiveram as atualizações do Autopilot instaladas no recall. O comunicado da agência dizia que ela havia identificado "várias preocupações".
A Tesla disse em dezembro que seu maior recall da história, que abrangeu 2,03 milhões de veículos nos EUA, foi para garantir que os motoristas prestem mais atenção ao usar seu sistema avançado de assistência ao motorista.
A investigação do recall abrange os modelos Y, X, S, 3 e Cybertruck nos EUA, equipados com o Autopilot, produzidos entre os anos de 2012 e 2024.
A Tesla, que não respondeu imediatamente a um pedido de comentário, tem dito repetidamente que o Autopilot não torna os veículos autodirigíveis e se destina ao uso com um motorista totalmente atento, preparado para assumir o controle e com as mãos no volante.
A NHTSA disse que enviou à Tesla uma carta de solicitação de informações, que foi tornada pública nesta terça-feira, buscando detalhes do recall e documentos até 1º de julho.
A agência quer dados comparativos da Tesla sobre o desempenho dos veículos após o recall, incluindo o número de avisos de mãos no volante emitidos.
Ela disse ter preocupações após os 20 acidentes, bem como os resultados dos testes preliminares de veículos atualizados após o recall da Tesla.
A NHTSA disse que "avaliará o momento e os fatores determinantes por trás dessas atualizações, seus impactos no desempenho do veículo em questão e a base da Tesla para não incluí-las".
No mês passado, a NHTSA disse que encontrou evidências de que "o fraco sistema de envolvimento do motorista da Tesla não era apropriado para os recursos operacionais permissivos do Autopilot" e que isso resulta em uma "lacuna crítica de segurança".