No YouTube, Mark Rober compartilhou um experimento comparando o Autopilot do Tesla Model Y com um veículo equipado com lidar. Ele usou uma ilusão de ótica, um muro pintado como se fosse uma continuação da estrada, para testar o sistema. Enquanto o radar e o lidar detectaram o obstáculo, o Tesla foi enganado e colidiu com o muro de espuma. Antes do impacto, o Autopilot foi desativado, um detalhe crucial na investigação da NHTSA.
A NHTSA investigou acidentes em que Teslas, com o Autopilot ativado, colidiram com veículos de emergência parados. Em 16 acidentes analisados, o Autopilot desligou menos de um segundo antes do impacto. Apesar da responsabilidade do motorista de supervisionar o sistema, esse comportamento do Autopilot levanta questões.
A investigação ainda não provou que os desligamentos do Autopilot são intencionais para transferir a culpa para os motoristas. O relatório indica que os Teslas ativaram alertas de colisão e freios automáticos em muitos desses incidentes, embora nem sempre com tempo suficiente para que o motorista reagisse.
Embora projetado como assistência ao motorista, implicando em supervisão constante, o Autopilot é frequentemente mal interpretado como um sistema totalmente autônomo. A Tesla enfrenta críticas sobre a forma como promove o Autopilot e tem sido pressionada a melhorar a conscientização sobre a supervisão necessária.
A controvérsia sobre o Autopilot da Tesla continua. O sistema de câmeras, sem o suporte de radar ou lidar, mostrou-se suscetível a erros. A investigação da NHTSA busca esclarecer se a Tesla usa a desativação do sistema para minimizar responsabilidades em acidentes. Em última análise, mesmo com a assistência do Autopilot, a supervisão do motorista permanece essencial.