En un video llamativo, el youtuber Mark Rober ilustra las limitaciones del Autopilot de Tesla comparándolo con un vehículo de prueba equipado con lidar. Ambos autos fueron dirigidos hacia un muro pintado para parecer una continuación de la carretera. El resultado es asombroso: mientras el vehículo con lidar detectó correctamente la obstrucción, el Tesla atravesó el muro ilusorio, confiando ciegamente en sus cámaras.
Lo más inquietante es que justo antes del impacto, el Autopilot del Model Y se desactivó. Este fenómeno despertó nuevas críticas y arrojó luz sobre una investigación de la NHTSA acerca de choques en los que Teslas impactaron vehículos de emergencia estacionados.
La NHTSA encontró que en 16 incidentes investigados, el Autopilot se desactivó menos de un segundo antes del choque. Aunque Tesla a menudo culpa a los conductores por estos accidentes, la investigación revela que el sistema estaba activo hasta justo antes del impacto, momento en el cual ningún conductor podría haber reaccionado a tiempo.
A pesar de las críticas, Tesla afirma que sus sistemas están diseñados para apoyar, no reemplazar, la atención del conductor. Sin embargo, el marketing de Tesla ha llevado a muchos a creer que el Autopilot es capaz de una conducción autónoma completa.
La investigación de la NHTSA está ampliando su alcance para incluir más modelos de Tesla y diversas funciones de monitoreo del conductor. Esto plantea preguntas sobre la responsabilidad y las verdaderas capacidades del software de Tesla, mientras que el público sigue esperando respuestas claras en medio de un debate constante sobre la seguridad del Autopilot.
El video de Mark Rober y la posterior investigación de la NHTSA destacan las limitaciones del Autopilot de Tesla y las expectativas desalineadas sobre su uso. Mientras las cámaras de Tesla proporcionan una solución sencilla y económica, su incapacidad para detectar obstáculos en ciertas situaciones añade una capa de complejidad a la discusión sobre el futuro de la conducción autónoma.