Ein nüchterner Blick auf den Mythos KI: Automatisiertes Auto verletzt Fussgänger – was nun?

In Fachkreisen sind automatisierte Fahrzeuge seit einigen Jahren ein vieldiskutiertes und zukunftsträchtiges Thema. Dementsprechend wird in zahlreichen nationalen und internationalen Fachgremien intensiv daran gearbeitet, die sichere Verwendung solcher Fahrzeuge im Strassenverkehr nicht nur zu ermöglichen, sondern möglichst auch zu gewährleisten.

In der Öffentlichkeit werden diese Arbeiten kaum zur Kenntnis genommen. Dies wohl deshalb, weil sie von den Medien für das breite Publikum als zu wenig interessant erachtet werden[1]. Stattdessen stehen in den Medien zum Thema des automatisierten Fahrens eher spekulative Betrachtungen im Vordergrund.

So wird teilweise eine eher futuristische – oder gar eschatologische – Haltung eingenommen, die im automatisierten Fahrzeug den Vorboten einer voranschreitenden Ersetzung des Menschen durch Maschinen erkennt. Dies, weil angeblich «selbstfahrende» Fahrzeuge unter Nutzung «künstlicher» Intelligenz[2] eine hoch entwickelte Verbindung von Hardware und Software zur Steuerung von Fahrzeugen einsetzen und Autolenker überflüssig machen. Diese Betrachtungsweise wird vor allem von zwei Faktoren befördert:

  • Einerseits vermitteln die Marketingabteilungen von Autoherstellern in ihren öffentlichen Verlautbarungen gerne den Eindruck, dass der Durchbruch von sogenannt «selbstfahrenden» Fahrzeugen auf breiter Front unmittelbar bevorstehe.
    Dabei wird es regelmässig unterlassen klarzustellen, dass diese Fahrzeuge nach wie vor einen Lenker im Auto selbst oder eine online Überwachung durch eine externe Aufsichtsperson benötigen und sich nur unter mehr oder weniger restriktiven Verkehrsbedingungen (z.B. Fahren auf der Autobahn bis 60 km/h) vorübergehend selber steuern können und dürfen. Von einem tatsächlich «selbstfahrenden» Fahrzeug, das in allen Verkehrslagen ohne Fahrer und Aufsichtsperson sich vollständig selbst steuern kann, ist diese Technologie noch weit entfernt und kann zum heutigen Zeitpunkt nicht Gegenstand einer rationalen und wissensbasierten Diskussion bilden, sondern bestenfalls von nicht näher substanziierten Spekulationen.
  • Anderseits wird aus technologisch-naturwissenschaftlich orientierten Kreisen in der Öffentlichkeit oft ein Vokabular verwendet, welches den Eindruck erweckt, dass aus einer Kombination von Hardware (Maschinen, Roboter) und Software (KI) ein «intelligentes Ganzes» oder gar ein «intelligentes Wesen» entsteht, das menschliche oder sogar übermenschliche Eigenschaften und Fähigkeiten haben soll.
    Solchen Systemen werden dann sprachlich mehr oder weniger unbedarft nicht nur Urteils- und Entscheidungsfähigkeit, Gefühle und Empfindungen (z.B. Hunger) zugeschrieben, sondern auch Rationalität, Verstand und Bewusstsein[3].
    Dabei wird vernachlässigt, dass diese Begriffe in der Gesellschaft eine vorwiegend geisteswissenschaftliche Prägung und Konnotation aufweisen, die für anorganische Materie wenig geeignet ist und die Öffentlichkeit eher in die Irre führt, als Klarheit stiftend informiert.

Solche viel zu optimistischen Marketingversprechen über die technischen Fähigkeiten automatisierter Fahrzeuge und zweifelhafte begriffliche Analogien zwischen Mensch und Maschine tragen dazu bei, dass in den Medien das automatisierte Fahren oftmals verzerrt und wenig realistisch dargestellt wird.

So wird kaum darüber informiert, was sogenannte «selbstfahrende» Fahrzeuge tatsächlich technisch können und was sie rechtlich dürfen, sondern es wird mit Vorliebe über mögliche Unfallszenarien und deren Folgen spekuliert. Im Zentrum steht dabei typischerweise die Frage, ob ein «selbstfahrendes» Auto auf dem Fussgängerstreifen, den Erstklässler oder den pensionierten Senior überfahren soll, falls ein rechtzeitiges Anhalten nicht mehr möglich ist. Dabei liegt der Fokus meist auf einer ethischen Perspektive.

Was ist von solchen medialen Beiträgen zu halten und inwieweit tragen sie zum besseren gesellschaftlichen Verständnis von Vor- und Nachteilen des automatisierten Fahrens bei? Die Antwort auf diese Frage mag sich aus den nachstehenden Feststellungen und Bemerkungen erschliessen:

  1. Die ethische Dilemma-Situation, ob ein «selbstfahrendes» Auto auf dem Fussgängerstreifen das Kind oder die betagte Person überfahren soll, schafft keinen konkreten Erkenntnisgewinn, welcher das gesellschaftliche Verständnis für das automatisierte Fahren verbessern würde. Stattdessen führt die Dilemma-Frage zu Unsicherheit und leistet diffusen Ängsten Vorschub.
    A) Die Dilemma-Situation basiert auf der unzutreffenden Annahme, dass – in jenem Moment, in welchem der Lenker bzw. das «selbstfahrende» Fahrzeug angeblich zu entscheiden hat, wer überfahren werden soll – das künftige Verhalten der beiden gefährdeten Fussgänger bekannt ist. Dies trifft jedoch gerade nicht zutrifft. Wie die beiden Fussgänger sich verhalten werden, steht nämlich nicht im Voraus fest, da beide Personen die Möglichkeit haben, reflexartig anzuhalten oder auszuweichen, um in extremis eine Kollision mit dem Auto zu vermeiden. Wer daher glaubt bei unbekanntem künftigen Verkehrsverhalten von Menschen vorsorglich Entscheidungskriterien für Güterabwägungen mit Blick auf potentielle Unfälle festlegen zu müssen, nimmt das Risiko in Kauf, dass er Unfälle «vorprogrammiert». Mit anderen Worten er verursacht Unfälle, die ohne ihn gar nicht entstanden wären, weil in Wirklichkeit einer der Fussgänger einen reflexartigen Sprung zur Seite machte und das Auto die entsprechende Strassenhälfte unfallfrei hätte passieren können. Dies kann ein strafrechtlich relevantes Verschulden des Autoherstellers darstellen.
    B) Die Dilemma-Situation ist spekulativer bzw. hypothetischer Natur und hat für den realen Verkehr keine praktische Bedeutung. In der einschlägigen Literatur und Rechtsprechung ist kein Fall bekannt geworden, dass ein Autofahrer je bewusst entschieden hätte, ein Kind bzw. eine betagte Person zu überfahren und dafür zur Rechenschaft gezogen worden wäre. Es ist daher nicht ersichtlich, weshalb bei automatisierten Fahrzeugen dies nun zu einem konkreten Problem werden sollte.
    C) Die Ethik selbst vermag auf die aufgeworfene Dilemma-Frage keine Antwort zu geben, da sie Menschenleben nicht gegenseitig bewerten und untereinander rangieren bzw. priorisieren darf. Dies wäre seinerseits unethisch. Mit unbeantwortbaren philosophischen Fragestellungen lassen sich aber keine konkreten Verkehrsprobleme lösen.
  2. Die Zulassung von Motorfahrzeugen zum Strassenverkehr und die Haftung bei Strassenverkehrsunfällen unterliegen einem ausgefeilten, in langjähriger Praxis etablierten Geflecht von internationalen, europäischen und nationalen Rechtsregeln.
    Massgeblich für die sichere Verwendung von Motorfahrzeugen sind demnach technische Standards und rechtliche Normen. Ethische Bewertungen im Sinne von «gut» oder «böse» sind nicht sicherheitsrelevante Faktoren. In der Tat ist von Autolenkern ein rechtskonformes und nicht ein philosophisch-ethisch korrektes Fahrverhalten zu verlangen. Letzteres ist schon deshalb nicht hilfreich, weil ethische Kriterien nicht genügend justiziabel sind, um Autolenker zu Schadenersatz zu verpflichten oder zu büssen bzw. zu Gefängnisstrafen zu verurteilen. Mit anderen Worten Autofahrer müssen keine «Gutmenschen», sondern rechtstreue Lenker sein.
  3. Entgegen einer weitverbreiteten Meinung, deren Ursprung nicht auszumachen ist, führen Unfälle von oder mit automatisierten Fahrzeugen zu keinen grundsätzlich neuen Haftungsproblemen.
    In der Praxis haben Unfallopfer regelmässig kein konkretes Interesse an einer Schadenersatzforderung gegen den Fahrzeuglenker, da sie ihren Schaden direkt gegen den Fahrzeughalter – welchem das Verhalten des Lenkers direkt zugerechnet wird – bzw. gegen dessen Haftpflichtversicherer geltend machen können. Folglich spielt es für einen Geschädigten praktisch gesehen keine Rolle, ob beim Unfall der Lenker das Fahrzeug gesteuert oder das Fahrzeug sich selbst gelenkt hat.
    In beiden Fällen wird es letztlich Sache des Haftpflichtversicherers sein, ob er für seine (dem Unfallopfer) geleisteten Entschädigungszahlungen gegen den Autohersteller Rückgriff nehmen will, falls eine Fehlfunktion des (automatisierten) Fahrzeugs den Unfall (mit-)verursacht hat. Falls der Haftpflichtversicherer gegen den Autohersteller erfolgreich Rückgriff nimmt, wird dieser seinerseits Rückgriff gegen den allfälligen Zulieferanten eines fehlerhaften Autobestandteils nehmen können.
  4. Was schliesslich die Strafbarkeit bei Unfällen von automatisierten Fahrzeugen anbelangt, die sich vorübergehend selbst steuern, wird diese entscheidend davon abhängen, ob der Lenker im Auto bzw. die externe Aufsichtsperson aufgrund der konkreten Umstände eine zumutbare Möglichkeit hatte, den Unfall seines automatisiert fahrenden Fahrzeugs zu verhindern. Führerlose Fahrzeuge, die sich im gesamten Strassenverkehr ohne jede menschliche Aufsicht vollständig selbstgesteuert fortbewegen können, wird es in absehbarer Zeit nicht geben. Falls sie eines Tages tatsächlich auf unseren Strassen zugelassen sein sollten, wird es zu Unfalltoten kommen, ohne dass ein Lenker oder eine Aufsichtsperson bestraft werden kann.

Dies ist allerdings kein Novum. Unsere Gesellschaft akzeptiert nolens volens seit langem, dass beispielsweise bei Flugzeugabstürzen ein selbstmörderischer Pilot für die in den Tod mitgerissenen Passagiere nicht zur Verantwortung gezogen werden kann.
Unfalltote ohne strafrechtliche Sanktion sind in sehr seltenen Situationen nicht zu vermeiden. Jede Technologie birgt gewisse Risiken, was auch für das automatisierte Fahren gilt. Wer idealistisch hohe Anforderungen und Erwartungen an automatisierte Fahrzeuge stellt, läuft daher Gefahr, den «Zug in die Zukunft» des automatisierten Fahrens zu verpassen.

 


[1]     Die Annahme, dass das Publikum sich nicht für die Sicherheit von Motorfahrzeugen interessieren dürfte, erscheint allerdings zweifelhaft, da Strassenverkehrsunfälle praktisch täglich Gegenstand medialer Berichterstattung sind.

[2]     Der Frage, wie sinnvoll dieser Begriff überhaupt ist, wird an dieser Stelle nicht weiter nachgegangen.

[3]     Je nach den Umständen werden diese menschlichen Qualitäten bei sogenannt «intelligenten» Systemen als nur «emuliert» oder «simuliert» verstanden.

Hinweis auf die Gesetzgebung zur Haftung für Motor-fahrzeuge, Art. 58 SVG

1 Wird durch den Betrieb eines Motorfahrzeuges ein Mensch getötet oder verletzt oder Sachschaden verursacht, so haftet der Halter für den Schaden.

2 Wird ein Verkehrsunfall durch ein nicht in Betrieb befindliches Motorfahrzeug veranlasst, so haftet der Halter, wenn der Geschädigte beweist, dass den Halter oder Personen, für die er verantwortlich ist, ein Verschulden trifft oder dass fehlerhafte Beschaffenheit des Motorfahrzeuges mitgewirkt hat.

3 Der Halter haftet nach Ermessen des Richters auch für Schäden infolge der Hilfeleistung nach Unfällen seines Motorfahrzeuges, sofern er für den Unfall haftbar ist oder die Hilfe ihm selbst oder den Insassen seines Fahrzeuges geleistet wurde.

4 Für das Verschulden des Fahrzeugführers und mitwirkender Hilfspersonen ist der Halter wie für eigenes Verschulden verantwortlich.

Die Blogbeiträge dieser Serie bieten eine interdisziplinäre Betrachtung der aktuellen KI-Entwicklung aus technischer und geisteswissenschaftlicher Perspektive. Sie sind das Ergebnis eines wiederkehrenden Austauschs und der Zusammenarbeit mit Thomas Probst, emeritierter Professor für Recht und Technologie (UNIFR), sowie SATW-Mitglied Roger Abächerli, Dozent für Medizinaltechnik (HSLU). Mit diesen monatlichen Beiträgen streben wir eine sachlich neutrale Analyse der wesentlichen Fragen an, die sich im Zusammenhang mit dem Einsatz von KI-Systemen in verschiedenen Anwendungsbereichen ergeben. Unser Ziel ist es, einzelne Aspekte des KI-Themas verständlich und fachlich fundiert zu erläutern, ohne dabei zu technisch ins Detail zu gehen.

Zur Serie