Tesla Autopilot: NHTSA's Investigation Update

Tesla Autopilot: NHTSA -Untersuchungs -Update

Die National Highway Traffic Safety Administration (NHTSA) steht kurz vor dem Abschluss ihrer umfangreichen Untersuchung des Autopilot-Systems von Tesla. Diese Untersuchung wurde aufgrund von Bedenken hinsichtlich Kollisionen von Tesla-Fahrzeugen mit Einsatzfahrzeugen am Straßenrand eingeleitet und wurde seitdem auf ein breiteres Spektrum an Sicherheitsbedenken ausgeweitet.

Ursprünge der Untersuchung

Das Interesse der NHTSA an Teslas Autopilot-System wurde durch eine Reihe von Vorfällen geweckt, darunter ein tödlicher Unfall in Kalifornien mit einer Tesla Model 3 Limousine (Baujahr 2018). Dieser Vorfall war kein Einzelfall, da die NHTSA bereits im März eine weitere Untersuchung wegen eines tödlichen Unfalls eines Tesla Model S (Baujahr 2014) in Kalifornien eingeleitet hatte.

Ann Carlson, die NHTSA-Administratorin, informierte Reuters Die Öffentlichkeit werde bald über die Ergebnisse der Untersuchung informiert. Sie betonte, wie wichtig es sei, dass Fahrer bei der Nutzung von Fahrerassistenzsystemen (ADAS) wie dem Autopiloten wachsam bleibe.

Con Fire PIO-TESLA CRASHED

Umfang und Ergebnisse

Im August 2021 kündigte die NHTSA ihre Absicht an, eine vorläufige Untersuchung des Autopilot-Systems von Tesla einzuleiten, die die Fahrzeuge Tesla Model S, X, 3 und Y aus den Jahren 2014 bis 2021 umfasst. Bis Juni 2022 wurde aus dieser vorläufigen Evaluierung eine eingehendere technische Analyse, die sich auf die Funktionen des Autopiloten in 830.000 Fahrzeugen konzentrierte.

In dieser Phase wurden 191 Unfälle analysiert. Dabei zeigten sich Muster, die über die anfänglichen Einsätze der Einsatzfahrzeuge hinausgingen. 85 dieser Unfälle wurden abgewiesen, und für 43 der verbleibenden 106 Fälle lagen umfassende Fahrzeugdaten vor. In 37 dieser Fälle zeigten die Daten, dass die Fahrer kurz vor dem Unfall noch die Hände am Lenkrad hatten.

Trotz der Behauptungen von Tesla-Chef Elon Musk zur Sicherheit von Tesla-Fahrzeugen sprechen die Daten eine andere Sprache. Seit 2013 gab es Hunderte tödliche Unfälle mit Tesla-Elektrofahrzeugen. Mindestens 32 Todesfälle in den USA und drei im Ausland ereigneten sich bei aktiviertem Autopilot.

Öffentliche Wahrnehmung und Bedenken

Tesla bewirbt den Autopiloten auf seiner Website als wichtiges Sicherheitsmerkmal. NHTSA-Daten aus dem Jahr 2022 widersprechen dieser Darstellung jedoch: Sie belegen 273 Unfälle mit Autopilot zwischen Juli 2021 und Mai 2022. Zudem zeigten geleakte Daten, dass Tesla über 3.000 Kundenbeschwerden über den Autopiloten bekannt waren.

Auch Teslas „Full-Self-Driving“-Funktion stand auf dem Prüfstand. Aufgrund von Bedenken hinsichtlich der Gefahr von Verkehrsverstößen musste Tesla die FSD-Beta für fast 363.000 Fahrzeuge zurückrufen.

Problem mit unbeabsichtigter Beschleunigung

Überraschenderweise nahm die NHTSA eine Untersuchung zu Vorwürfen über unbeabsichtigte Beschleunigung von Tesla-Elektrofahrzeugen wieder auf. Ein Whitepaper eines Sicherheitsforschers aus Minnesota wies auf einen möglichen Konstruktionsfehler im Wechselrichter von Tesla hin, der zu unbeabsichtigter Beschleunigung führen könnte. Dieses Whitepaper veranlasste die NHTSA, ihre bisherige Haltung zu diesem Thema zu überdenken.

Abschluss

Während die NHTSA ihre Untersuchung abschließt, wartet die Automobilwelt gespannt auf die Ergebnisse. Die Ergebnisse könnten erhebliche Auswirkungen auf Tesla und die gesamte Elektrofahrzeugbranche haben. Sicherheit steht weiterhin an erster Stelle, und sowohl für Tesla als auch für die Aufsichtsbehörden ist es entscheidend, das Wohlbefinden von Fahrern und Passagieren zu gewährleisten.

4 Kommentare

zkwrerws
zkwrerws

Tesla Autopilot: NHTSA’s Investigation Update
azkwrerws
zkwrerws http://www.gkp73gz4a2174sae7d6ve65h8k25k78gs.org/
[url=http://www.gkp73gz4a2174sae7d6ve65h8k25k78gs.org/]uzkwrerws[/url]

Anthony Gee
Anthony Gee

Good evening I myself have a tesla model 3 2020 I have purchased months ago full self driving for £6800 in the UK and I use this feature as often as possible I know that the system is not fully self driving and I take this very seriously so when I use this feature myself I am in total concentration and because of this I don’t have any issues with the limitations of the feature
The trouble is some people are blind to the fact that you have to be in full control of your Tesla yourself and have total concentration at all times but drivers of self driving cars sadly take chances and don’t concentrate which is the problem of the driver and not the car entirely as I find the feature great when used properly
Also people drive to fast when using full self driving with its limitations at the moment in the UK you shouldn’t be doing the speed limits on the roads you should drive slower to get a better driving experience as the steering at the moment doesn’t steer fast enough to be driving around bends at the roads speed limits so people need to be aware of this and must be a major part in tesla crashes due to people driving with the feature on driving to fast again it is not the fault of the tesla its the fault of the driver driving to fast and not being in control of the full self driving feature

Colin Dawson
Colin Dawson

This happens to me in my model S P100D. And I keep getting told it’s google maps . My god first time this happened it took off form 60 to 100klms I was shocked. Now I’m aware from first time I’m ready and prepared to cancel Autopilot

Michael Garoust
Michael Garoust

Our model S with autopilot had a few scary occurrences. Once, as we approached a major intersection, the car correctly entered the left turn lane but suddenly veered into the thru lane where a car was. Fortunately I was able to wrestle the steering wheel back away from that car. Otherwise, with proper supervision, it works rather well, especially on interstates.

Hinterlasse einen Kommentar