YouTuber Mark Rober demonštroval tento problém na svojom modeli Y, porovnávajúc jeho výkon s vozidlom vybaveným lidarom. Pri pokuse s iluzórnou stenou namaľovanou na ceste Tesla nesprávne vyhodnotila situáciu a narazila do (penovej) steny, zatiaľ čo lidarom vybavené vozidlo rozpoznalo skutočnosť.
Americká agentúra NHTSA nedávno zverejnila správu o vyšetrovaní nehôd spôsobených Tesla Autopilotom, pri ktorých došlo k nárazu do stojacich záchranných vozidiel. Zistilo sa, že v 16 prípadoch Autopilot deaktivoval kontrolu menej ako sekundu pred nárazom. Táto skutočnosť vyvoláva otázky, či Tesla neobchádza zodpovednosť tým, že zneužíva vodičov ako zámienku pre chyby systému.
Existujú teórie, že Autopilot je zámerne vypínaný tesne pred nárazom, aby sa vina preniesla na vodiča. NHTSA však zatiaľ také dôkazy neodhalila. Správa poukazuje na to, že v mnohých prípadoch systém stále aktivoval výstrahy, hoci vodiči na ne včas nereagovali.
Napriek tomu Tesla čelí kritike za spôsob, akým svoje technológie prezentuje. Autopilot je len asistenčný systém a pri jeho používaní je potrebná neustála kontrola zo strany vodiča, čo možno nebolo dostatočne jasne komunikované.
Zhrnutie: Tesla čelí kritike za svoj Autopilot, ktorý sa výlučne spolieha na kamery, čo môže viesť k nesprávnym rozhodnutiam v neistých podmienkach. Americká NHTSA odhalila problematické správanie, kde sa systém vypína tesne pred nehodou, čo vyvoláva obavy ohľadom zodpovednosti za nehody.