Am 20. November veröffentlichte das National Transportation Safety Board (NTSB) die Ergebnisse seiner Untersuchung des tödlichen Uber-Unfalls von 2018 in Tempe, Arizona, der weithin als der weltweit erste Todesfall durch ein selbstfahrendes Auto gilt.
Aber anstatt dem Roboterauto von Uber Handschellen anzulegen, hoben die Ermittler stattdessen die vielen menschlichen Fehler hervor, die zum Tod der 49-jährigen Elaine Herzberg führten. Und sie gaben eine Warnung aus: Es könnte wieder passieren.
„Wenn Ihr Unternehmen automatisierte Fahrsysteme auf öffentlichen Straßen testet, dann ging es bei diesem Unfall um Sie“, sagte der NTSB-Vorsitzende Robert Sumwalt in seiner Eröffnungsrede der gestrigen Anhörung.
Als die Behörde ihre Erkenntnisse über die wahrscheinliche Ursache des Unfalls in Tempe vorlas, war die erste Person, die beschuldigt wurde, Rafaela Vasquez, der Sicherheitsfahrer im Fahrzeug zum Zeitpunkt des Unfalls. Vasquez wurde nie namentlich genannt, aber ihr Versagen als Aufpasserin für das automatisierte Fahrsystem wurde vom NTSB deutlich herausgestellt.
In den Minuten vor dem Aufprall schaute Vasquez Berichten zufolge eine Folge von The Voice auf ihrem Telefon, was einen Verstoß gegen die Uber-Richtlinie darstellt, die die Benutzung von Telefonen verbietet. Die Ermittler stellten fest, dass sie mehr als ein Drittel der gesamten Zeit, die sie bis zum Zeitpunkt des Unfalls im Auto verbracht hatte, auf ihr Telefon und nicht auf die Straße geschaut hatte.
Vasquez‘ Versäumnis, „die Fahrumgebung und den Betrieb des automatisierten Fahrsystems zu überwachen, weil sie während der gesamten Fahrt durch ihr persönliches Mobiltelefon abgelenkt war“, wurde als Hauptursache für den Unfall angeführt. Aber sie teilt die Schuld mit ihren Arbeitgebern bei Uber, wo eine völlig unzureichende Sicherheitskultur ebenfalls zu Herzbergs Tod beitrug, so der Ausschuss. Auch die Bundesregierung trage ihren Teil der Verantwortung, weil sie es versäumt habe, den Betrieb autonomer Autos besser zu regulieren.
„Meiner Meinung nach haben sie hier den technologischen Fortschritt vor die Rettung von Leben gestellt“, sagte NTSB-Vorstandsmitglied Jennifer Homendy über die National Highway Traffic Safety Administration (NHTSA), die für die Regulierung von Fahrzeugsicherheitsstandards zuständig ist.
Zum Zeitpunkt des Unfalls hatte die Advanced Technologies Group von Uber keinen unternehmensweiten Sicherheitsplan oder ein Leitdokument, in dem die Rollen und Verantwortlichkeiten der einzelnen Mitarbeiter für das Sicherheitsmanagement festgelegt waren, sagte Michael Fox, leitender Ermittler für Straßenverkehrsunfälle beim NTSB. Das Unternehmen verfügte auch nicht über eine Sicherheitsabteilung und hatte keinen eigenen Sicherheitsmanager, der für die Risikobewertung und -minderung zuständig war. In den Wochen vor dem Unfall traf Uber die verhängnisvolle Entscheidung, die Zahl der Sicherheitsfahrer in jedem Fahrzeug von zwei auf einen zu reduzieren. Diese Entscheidung beseitigte wichtige Redundanzen, die dazu hätten beitragen können, Herzbergs Tod zu verhindern.
Vasquez war zu diesem Zeitpunkt nicht nur allein im Auto, auch ihre selbstgefällige Haltung gegenüber dem automatisierten Fahrsystem des Fahrzeugs trug zu dem Unfall bei. Und diese Einstellung war völlig fehl am Platze. Das Auto erkannte 5,6 Sekunden vor dem Aufprall, dass Herzberg mit ihrem Fahrrad die Straße überquerte. Doch obwohl das System Herzberg bis zum Aufprall verfolgte, erkannte es sie weder korrekt als Mensch auf der Straße, noch sagte es ihren Weg genau voraus.
„Selbstgefälligkeit bei der Automatisierung … muss in jedermanns Vokabular vorkommen“, sagte Bruce Landsberg, ein Vorstandsmitglied des NTSB.
Vasquez war sich dieses Konflikts überhaupt nicht bewusst, bis es zu spät war. Eine der impliziten Lehren aus dem Uber-Crash und der anschließenden NTSB-Untersuchung ist der unzureichende Einsatz von Sicherheitsfahrern in selbstfahrenden Autos, sagte Mary „Missy“ Cummings, Direktorin des Humans and Autonomy Lab an der Duke University. Uber und andere Unternehmen, die selbstfahrende Autos testen, stellen in der Regel unabhängige Auftragnehmer als Sicherheitsfahrer ein, die in den Autos mitfahren und Kilometer sammeln. Sie werden kaum mehr als Körper in Sitzen gesehen. Stattdessen sollten sie als kritische Partner in einem Testprotokoll betrachtet werden, die sehr nützliches Feedback geben können, sagte Cummings.
„Natürlich würde das Geld kosten“, sagte sie. „
Die aggressive Unternehmenskultur von Uber – das Bedürfnis, autonome Fahrzeuge zu testen, obwohl die Technologie noch nicht ausgereift war – wurde nicht nur durch diese Untersuchung aufgedeckt, sondern auch durch die Klage von Waymo, dem aus Google ausgegliederten Unternehmen für selbstfahrende Autos, das Uber beschuldigt, seine Geschäftsgeheimnisse für selbstfahrende Autos gestohlen zu haben.
„Die Fahrerin hatte eine Chance, ihr Leben zu retten“, sagte ein ehemaliger Mitarbeiter von Uber ATG, der zum Zeitpunkt des Unfalls für das Unternehmen tätig war, gegenüber The Verge, „aber Uber hatte Dutzende.“
Uber ATG stand unter enormem Druck, dem neuen CEO Dara Khosrowshahi Ergebnisse vorzulegen, der Berichten zufolge erwog, die Abteilung aufgrund steigender F&D-Kosten zu schließen. Das führte dazu, dass sie an allen Ecken und Enden sparten, obwohl das Unternehmen seither erhebliche Anstrengungen unternommen hat, um diese Fehler zu beheben.
Die Vorstandsmitglieder des NTSB sparten sich ihre schärfsten Beurteilungen für die Bundesregierung auf. Homendy warf der NHTSA vor, dem technologischen Fortschritt Vorrang vor der Rettung von Menschenleben einzuräumen, und nannte die freiwilligen Richtlinien der Behörde so „lasch“, dass sie „lächerlich“ seien.
Die freiwilligen Sicherheitsrichtlinien wurden erstmals unter Präsident Obama aufgestellt, der befürchtete, dass restriktive Regeln für die Erprobung selbstfahrender Autos die Innovation abwürgen könnten. Unter Präsident Trump wurden diese Regeln noch weiter gelockert. Er ging noch einen Schritt weiter, indem er einen All-Star-Bundesausschuss für Fahrzeugautomatisierung abschaffte, der dem Verkehrsministerium als „kritische Ressource“ dienen sollte. Trump hat den Ausschuss aufgelöst, ohne einige seiner Mitglieder darüber zu informieren, wie The Verge kürzlich berichtete.
Bislang haben nur 16 Unternehmen freiwillige Sicherheitsberichte bei der NHTSA eingereicht, von denen viele kaum mehr als „Marketingbroschüren“ sind, so Ensar Becic, Projektleiter und Ermittler für menschliche Leistung im Amt für Straßenverkehrssicherheit. Das ist nur ein Bruchteil der über 60 Unternehmen, die allein in Kalifornien selbstfahrende Autos testen.
„Ich meine, Sie könnten genauso gut sagen, dass wir Ihre Bewertungen gerne hätten, aber wir verlangen sie nicht wirklich“, sagte Homendy während der Anhörung. „
Das Verkehrsministerium hat drei Versionen seiner Sicherheitsrichtlinien für automatisierte Fahrzeuge herausgegeben und plant die Herausgabe einer vierten Version, in die die Lehren aus dem Unfall in Tempe einfließen sollen, sagte Joel Szabat, stellvertretender Unterstaatssekretär für Politik im Verkehrsministerium, bei einer Anhörung im Senat am 20. November. (Das Originaldokument trägt den Titel „Automated Driving Systems: A Vision for Safety“. „Sie sollten es in ‚A Vision for Lack of Safety‘ umbenennen“, scherzte Homendy.)
Heute gibt es keine Bundesgesetze, die von den Betreibern automatisierter Fahrsysteme verlangen, die Sicherheit ihrer Fahrzeuge nachzuweisen, bevor sie sie auf öffentlichen Straßen testen, oder Daten über Abschaltungen oder Ausfälle ihrer automatisierten Fahrsysteme zu liefern. Die einzige Rolle der Regierung ist reaktiv: Sie kann ein defektes Teil zurückrufen oder im Falle eines Unfalls eine Untersuchung einleiten.
In seinem Abschlussbericht empfiehlt das NTSB, dies zu ändern. AV-Betreiber sollten verpflichtet und nicht ermutigt werden, Sicherheitsbewertungen einzureichen, wenn sie ihre Fahrzeuge auf öffentlichen Straßen testen wollen, argumentiert das NTSB, und es muss einen Prozess für die laufende Bewertung geben, um festzustellen, ob AV-Betreiber ihre Sicherheitsziele einhalten.
Aber am Tag nach der Veröffentlichung des Berichts sagte der oberste Verwalter der NHTSA bei einer Senatsanhörung aus, dass der Kongress ein Gesetz verabschieden sollte, um den Einsatz von vollständig selbstfahrenden Autos zu beschleunigen, die keine traditionellen Bedienelemente wie Lenkräder und Pedale haben. Derzeit darf die Behörde nur insgesamt 25.000 Fahrzeuge pro Jahr von den Sicherheitsstandards des Bundes ausnehmen.
„Wie wir von der Industrie hören, könnte diese Obergrenze zu klein sein“, sagte der amtierende NHTSA-Administrator James Owens.
Der vorherige Versuch, die Beschränkungen für Autos ohne menschliche Steuerung aufzuheben, scheiterte. Die Demokraten im Senat blockierten das Gesetz mit der Begründung, dass die Sicherheit nicht ausreichend gewährleistet sei. Ein zweiter Versuch ist in Arbeit, aber es bleibt abzuwarten, ob er genügend Stimmen auf sich vereinigen kann, um verabschiedet zu werden.
Übermäßig restriktive Bundesvorschriften in diesem Stadium einer sich schnell verändernden Technologie werden sehr wahrscheinlich deutlich mehr Schaden als Nutzen anrichten, sagte Raj Rajkumar, Professor für Elektro- und Computertechnik an der Carnegie Mellon University. „Nur weil Uber und sein Betreiber sich schlecht verhalten haben, sollten alle anderen nicht bestraft werden“, sagte er.
Autonome Fahrzeuge sollen Leben retten, nicht nehmen. Und wenn die Menschen den Unternehmen, die die Technologie entwickeln, nicht vertrauen, dann wird das lebensrettende Potenzial selbstfahrender Autos nie zum Tragen kommen. Die Autos werden leer und unausgelastet durch die Straßen fahren, bis die Betreiber den Stecker ziehen.
Umfragen zeigen, dass die Hälfte der erwachsenen US-Bürger automatisierte Fahrzeuge für gefährlicher hält als herkömmliche, von Menschen gesteuerte Fahrzeuge. Die Meinungen verhärten sich bereits, und es ist unklar, was getan werden kann, um den Schaden rückgängig zu machen, den der Uber-Crash bereits verursacht hat.