YouTuber Mark Rober menguji Model Y miliknya dengan sistem Autopilot melawan kendaraan uji yang dilengkapi lidar. Dalam tes tersebut, digunakan tembok ilusi yang membuat jalur tampak berlanjut. Kamera Tesla tidak mampu membedakan tipu daya ini, sementara lidar dan radar bisa.
Penelitian NHTSA terhadap sejumlah kecelakaan Tesla dengan Autopilot menunjukkan bahwa sistem biasanya mematikan dirinya sesaat sebelum tabrakan terjadi. Dalam 16 kecelakaan, Autopilot "dihentikan" kurang dari satu detik sebelum tabrakan. Meskipun Tesla tampaknya menyalahkan pengemudi, sebagian besar kecelakaan ini sebenarnya bisa terdeteksi beberapa detik sebelumnya.
Ada klaim bahwa Tesla sengaja memprogram Autopilot untuk menonaktifkan kontrol sebelum tabrakan agar pengemudi terlihat bertanggung jawab. Namun, ini hanya spekulasi, dan NHTSA belum menemukan bukti jelas akan hal ini.
Meskipun Autopilot dirancang untuk membantu, pengemudi diharapkan tetap waspada. Tesla terus memasarkan fitur ini secara berlebihan, mengaburkan fakta bahwa sistemnya belum sepenuhnya otonom.
Meskipun Autopilot memiliki peringatan tabrakan dan sistem pengereman darurat, pengemudi tetap harus aktif mengawasi. Hingga penyelidikan selesai dan hasil dari NHTSA terungkap, banyak pertanyaan yang masih belum terjawab tentang keamanan dan prosedur Autopilot.
Sistem Autopilot Tesla masih dalam sorotan terkait masalah keselamatan. Dengan keterbatasan sistem kamera dan cara pemasaran yang bisa menyesatkan, pengemudi harus tetap waspada meskipun fitur ini aktif. Penyelidikan lebih lanjut oleh NHTSA diharapkan dapat memberikan pencerahan tentang mekanisme dan tanggung jawab dalam tabrakan yang terjadi.