Tesla weist die Kunden selbst darauf hin, dass "Autopilot" nur ein Assistenzsystem sei und deshalb der Mensch im Fahrersitz jederzeit die Hände am Lenkrad behalten müsse. Auch solle er stets bereit sein, die Kontrolle zu übernehmen. Dennoch kommt es immer wieder vor, dass Fahrer sich komplett auf das "Autopilot"-System verlassen. Tesla verschärfte vor einigen Jahren die Sicherheitsmaßnahmen: Die Software merkt, wenn der Fahrer die Hände nicht am Steuer hat und gibt nach kurzer Zeit Warntöne ab.
Die NHTSA (National Highway Traffic Safety Administration) hatte das "Autopilot"-System bereits nach einem tödlichen Unfall im Jahr 2016 untersucht. Damals starb ein Fahrer, nachdem sein Tesla unter den Anhänger eines Sattelschleppers gerast war, der die Straße überquert hatte. Die NHTSA kam zu dem Schluss, dass das System im Rahmen seiner Fähigkeiten korrekt funktioniert habe, aber der Mensch am Steuer sich zu sehr darauf verlassen habe. Das "Autopilot"-System hatte den Anhänger mit seiner weißen Seitenfront nicht erkannt und keinen Bremsvorgang eingeleitet. Auch der Fahrer hatte nicht reagiert.
Die NHTSA wies darauf hin, dass bei allen Auffahrunfällen die Feuerwehr- und Ambulanzfahrzeuge unter anderem dank eingeschaltetem Blinklicht klar erkennbar gewesen seien. Bei allen betroffenen Tesla-Fahrzeugen sei das "Autopilot"-System eingeschaltet gewesen.
Kritik gegen das "Autopilot"-System
An Teslas Vorkehrungen gegen Missbrauch des "Autopilot"-Systems gibt es schon länger Kritik. Im Internet kursieren etwa Videos, die zeigen, wie Fahrer im Straßenverkehr ihren Sitz verlassen. Deshalb wird unter anderem gefordert, dass Tesla die Kamera im Innenraum zur Überwachung der Aufmerksamkeit des Fahrer nutzt. Kritiker finden auch, dass der Name "Autopilot" eine Übertreibung ist, die zu fahrlässiger Nutzung einlädt. Die nächste Stufe des Programms nennt Tesla sogar "Full Self-Driving" (komplett selbstfahrend), obwohl es nach in der Branche gängigen Kriterien weiterhin lediglich ein Assistenzsystem bleibt.