Podczas gdy większość nowoczesnych pojazdów polega na kamerach, radarach, a nawet lidarach, Tesla skoncentrowała się głównie na kamerach. Jednak, podobnie jak ludzkie oczy, kamery Tesli mają swoje ograniczenia: słabo radzą sobie we mgle, deszczu czy śniegu. Awarie pojazdów Tesli w wyniku takich ograniczeń są powodem do obaw — choćby w sytuacjach, gdy Autopilot myli się z powodu fatalnych warunków oświetleniowych.
Mark Rober, znany youtuber, porównał zdolności swojego Modelu Y z pojazdem wyposażonym w lidary, wykorzystując manekina dziecka. Tesla, polegając wyłącznie na kamerach, dała się nabrać na iluzję optyczną: nie zauważyła ściany stanowiącej niejako element wystroju kartonowego, i wjechała w nią bez hamowania. Sytuacja ta dowodzi, jak łatwo można oszukać pojazd.
W wyniku licznych wypadków z udziałem Autopilota, gdzie Tesla zderzała się ze stacjonarnymi pojazdami ratunkowymi, raport NHTSA zwraca uwagę na to, że Autopilot wyłączał się tuż przed wypadkami. O ile Tesla upiera się, że to problem użytkownika, krytycy obawiają się, że Autopilot celowo przekazuje kontrolę kierowcy w ostatniej chwili, by zrzucić winę na niego. Jednakże, naukowe dowody na tę teorię są niejednoznaczne.
Pomimo traktowania przez Teslę funkcji Autopilota bardziej jako w pełni autonomiczną, system ten nadal wymaga nadzoru kierowcy. Tesla podkreśla konieczność czujności, ale zarzuca się jej również stworzenie fałszywego poczucia bezpieczeństwa.
Autopilot Tesli budzi wiele emocji, zarówno przez swoje ograniczenia, jak i sposób prezentowania go jako funkcji niemal autonomicznej. Pomimo trwających dochodzeń, pozostają pytania bez odpowiedzi dotyczące jego rzeczywistych możliwości oraz celu, jaki Tesla miała na uwadze, projektując system. Jak dotąd, nie ma dowodów, które jednoznacznie wskazywałyby, że Tesla celowo utrudnia użytkowanie Autopilota w chwili wypadku.