Diferente de outros veículos que utilizam uma variedade de sensores, a Tesla optou por um sistema de câmeras que imita a visão humana, mas enfrenta limitações semelhantes, como dificuldade para ver através de neblina ou chuva. Isso leva a situações em que as câmeras podem ser facilmente confundidas, como demonstrado em um vídeo no YouTube que mostra um Tesla Model Y colidindo com uma parede disfarçada de estrada.
A investigação da NHTSA sobre acidentes em que Teslas colidiram com veículos de emergência parados revelou algo preocupante: em 16 desses acidentes, o Autopilot estava ativo, mas desativou menos de um segundo antes do impacto. Isso contradiz as alegações de Elon Musk de que tais incidentes são culpa dos motoristas. Na maioria dos casos investigados, os sistemas de aviso e frenagem de colisão estavam ativos, mas poucos motoristas reagiram.
Mesmo com o nome sugestivo, o Autopilot exige supervisão constante do motorista. A Tesla promove o sistema como mais autônomo do que ele realmente é, necessitando de frequentes lembretes de que a vigilância do motorista é imprescindível.
A desativação do Autopilot antes dos acidentes pode ser um protocolo de segurança, similar a outros mecanismos encontrados em carros modernos. A investigação da NHTSA continua, abrangendo mais de 800.000 veículos Tesla entre 2014 e 2022, após concluir que os sistemas de monitoramento de atenção ao motorista eram ineficientes.
O uso do Autopilot pela Tesla apresenta desafios tecnológicos e de segurança significativos. Com investigações em andamento, a verdadeira extensão das falhas e responsabilidades ainda está por ser esclarecida.
Resumo: Este artigo discute os desafios tecnológicos e as preocupações de segurança do Autopilot da Tesla, destacando investigações recentes da NHTSA sobre sua eficácia e protocolos contestáveis em acidentes.