1. DEUTSCH
  2. News
  3. Stories
  4. 2020
  5. 12
  6. „Die Menschen sollen bestimmen können, ob sie das Steuer abgeben“

Wir nutzen Cookies, um Ihnen die bestmögliche Nutzung unserer Webseite zu ermöglichen und unsere Kommunikation mit Ihnen zu verbessern. Wir berücksichtigen hierbei Ihre Präferenzen und verarbeiten Daten für Analytics und Personalisierung nur, wenn Sie uns durch Klicken auf "Zustimmen und weiter" Ihre Einwilligung geben oder über den Button "Cookie Präferenzen setzen" eine spezifische Auswahl festlegen. Sie können Ihre Einwilligung jederzeit mit Wirkung für die Zukunft widerrufen. Informationen zu den einzelnen verwendeten Cookies sowie die Widerrufsmöglichkeit finden Sie in unserer Datenschutzerklärung und in der Cookie-Richtlinie.

Zustimmen und weiter Cookie Präferenzen setzen

„Die Menschen sollen bestimmen können, ob sie das Steuer abgeben“

Interview mit ehemaligen Verfassungsrichter Prof. Udo Di Fabio

Mit einem neuen Gesetz will Deutschland in bestimmten Einsatzbereichen Autos ohne Fahrer erlauben. Im Interview erklärt Prof. Udo Di Fabio, welche Freiheiten dem Menschen bleiben müssen und welche Prinzipien für sogenannte Dilemma-Situationen gelten. Di Fabio war bis 2017 Vorsitzender der Ethik-Kommission für automatisiertes Fahren. Von 1999 bis 2011 war er Richter am Bundesverfassungsgericht.

Wie groß ist der verfassungsrechtliche Spielraum für selbstfahrende Autos?

Die Ethik-Kommission, die ich vor einiger Zeit leiten durfte, hat 20 Leitlinien für die Einführung automatisierter Fahrsysteme aufgestellt – und die Bundesregierung hat signalisiert, dass sie sich daran orientieren will. Ein Kernpunkt: Der Staat muss neue Technologien fördern, wenn sie zu signifikant niedrigeren Unfallzahlen führen. Er darf aber die Bürger nicht in eine Situation bringen, in der sie sich automatisierten Systemen unausweichlich anvertrauen müssen. Die Menschen sollen darüber bestimmen können, ob sie das Steuer abgeben oder nicht.

Wie realistisch ist Wahlfreiheit, wenn die Technik weniger Unfälle verursacht als der Mensch? Versicherer könnten zum Beispiel höhere Prämien von Selbstfahrern verlangen…

Das halte ich durchaus für möglich. Wenn die Technik signifikant sicherer fährt, dann werden solche Fragen aufkommen. Eine Gesellschaft muss allerdings entscheiden, ob sie sich in diese Logik hineinbegibt oder ob das Selbstfahren ein Grundrecht ist, das es zu verteidigen gilt.

Wie weit ist die deutsche Diskussion zum autonomen Fahren?

Wir stehen noch am Anfang. Allerdings läuft die Debatte über Mobilitätskonzepte nüchterner als andere ethische Diskussionen, etwa zur Gentechnik. Wir reflektieren sachlich, was wir wollen und was wir nicht wollen. Das ist ein angemessener Umgang. Autohersteller können die Debatte unterstützen, indem sie den Dialog mit Verbänden, Technischen Universitäten oder einzelnen Nutzern suchen.

„Ist ein Unfall nicht zu verhindern, dann darf Künstliche Intelligenz nicht nach den Eigenschaften möglicher Opfer unterscheiden.“

Prof. Udo Di Fabio

Viel diskutiert sind Dilemma-Situationen, in denen ein Unfall für ein selbstfahrendes Auto unvermeidbar ist. Welche Prinzipien müssen dafür gelten?

Ist ein Unfall nicht zu verhindern, dann darf Künstliche Intelligenz nicht nach den Eigenschaften möglicher Opfer unterscheiden. Sie darf nicht abwägen nach Alter, Geschlecht, Einkommen oder anderen Dingen. Sie darf lediglich so programmiert sein, dass sie dem allgemeinen Grundsatz der Schadensminderung folgt. Dahinter steht unser Verfassungsverständnis: Jedes Menschenleben hat den gleichen Wert.

Wie kommt es, dass seltene Grenzfälle so viel Aufmerksamkeit erhalten?

Es geht nicht so sehr um die praktische Relevanz. Konstruierte Dilemma-Situationen – die Kinder retten oder ihre Großmutter – kommen im Alltag tatsächlich kaum vor. Nach meiner Beobachtung diskutieren wir die Dilemma-Situationen stellvertretend für eine fundamentale Frage: Überlassen wir unser Schicksal einem voll automatisierten System? Da zögert der Mensch aus verständlichen Gründen.

Was sind diese Gründe?

Wir haben die Sorge, in einer smarten Alltagswelt aufzuwachen, in der es die Technik besser macht als wir selbst, aber wir allmählich die Kontrolle verlieren. Zum Unwohlsein gehört auch, dass Menschen an smarten Maschinen gemessen, also Perfektionsansprüche gestellt werden, denen wir nicht gewachsen sind. In einer solchen Welt wäre es denkbar, dass immer mehr Entscheidungen an Künstliche Intelligenz übertragen sind. In den USA gibt es beispielsweise die Diskussion, ob Maschinen die besseren Richter sein können. Sie lassen sich nicht von Vorurteilen oder Stimmungen leiten. Im Moment ist die Technik in vielen Bereichen noch sehr anfällig. Daher ist es offensichtlich, dass der Mensch das letzte Wort behalten muss. Aber wir stehen erst am Beginn einer Entwicklung.

Wer wäre haftbar, wenn ein selbstfahrendes Auto einen Unfall verursacht?

Im Grundsatz ist die Antwort einfach: Steuert das Fahrzeug sich selbst, dann haftet der Hersteller oder der Betreiber der technischen Systeme. Übernimmt der Mensch das Steuer, haftet die Fahrer. Schwierig ist die Abgrenzung. Beim automatisierten Fahren auf Level 3 dürfen Autofahrer die Aufmerksamkeit vorübergehend vom Verkehr abwenden. Sie müssen das Steuer aber wieder übernehmen, wenn das Fahrzeug sie dazu auffordert. Aus juristischer Sicht kommt es darauf an, eindeutige Übergabezeitpunkte zu definieren. Vermutlich wird man Autos ähnlich wie Flugzeuge mit einer Black Box ausstatten müssen, die Fahrdaten aufzeichnet. So kann man nach einer Kollision analysieren, wer im entscheidenden Moment die Verantwortung hatte.

Hände weg vom Lenkrad: Beim automatisierten Fahren auf Level 3 kann die Verantwortung zwischen Mensch und Fahrzeug wechseln.

Der Hersteller eines selbstfahrenden Autos muss nicht der Betreiber sein – denken wir an künftige Mobilitätsdienste. Wer haftet wann?

Dafür wird die Wirtschaft in ihrer Privatautonomie selbst nach Lösungen suchen müssen. Wenn ein Unternehmen ein Auto mit automatisierten Systemen baut und in den Verkehr bringt, dann haftet dieses Unternehmen zunächst einmal. Man kann diese Verpflichtung aber per Vertrag an eine andere Firma übertragen, die die Systeme betreibt, überwacht oder steuert. Ob es zu einer solchen Ausdifferenzierung kommt, muss weder der Gesetzgeber noch eine Ethik-Kommission bestimmen. Das wird sich innerhalb der Mobilitätswirtschaft ergeben.

Welche Halbwertzeit haben Gesetze, wenn sich Technik so schnell verändert wie beim autonomen Fahren?

Ich sehe unterschiedliche Geschwindigkeiten. Einerseits kommt das autonome Fahren in Innenstädten langsamer voran, als es viele erwartet haben. Andererseits werden wir in den nächsten zehn Jahren vermutlich Entwicklungssprünge erleben, die wir uns noch nicht genau vorstellen können. Wir sollten heute darüber reden, inwieweit vollautomatisiertes Fahren auf der Autobahn zugelassen werden kann. Wir sollten außerdem darüber nachdenken, wie wir die Infrastruktur für den automatisierten Verkehr vorbereiten können. Einige Bundesstaaten in den USA sind beim autonomen Fahren bereits vorgeprescht. Es ist wichtig, dass auch Deutschland zu den Vorreitern gehört.

Würden Sie sich in ein autonom fahrendes Auto setzen?

Ich fahre leidenschaftlich gern – aber in manchen Situationen gebe ich die Verantwortung auch ebenso gern ab. Mit der Ethik-Kommission haben wir ein selbstfahrendes Versuchsfahrzeug getestet – bei Starkregen auf der Autobahn. Ich war wirklich genervt, als das System mich gegen Ende aufforderte, das Steuer wieder zu übernehmen. Ich hätte mich lieber noch weiter mit den Mitfahrern unterhalten. Ich kann mir auch gut vorstellen, dann man sich nachts lieber fahren lässt, als übermüdet die letzten Kilometer nach Hause abzureißen. Mein Modell für die Zukunft: Man fährt, wenn man Lust hat. Und wenn man keine Lust hat, lässt man fahren.

Zur Person:

Prof. Udo Di Fabio (66) war von 1999 bis 2011 Richter im Zweiten Senat des Bundesverfassungsgerichts. Sein Dezernat umfasste unter anderem Europarecht, Völkerrecht und Parlamentsrecht. Von 2016 bis 2017 leitete er die vom Bundesverkehrsministerium eingesetzte Ethik-Kommission für automatisiertes und vernetztes Fahren. Seit 2003 ist er Professor für öffentliches Recht an Universität Bonn.

Die Stufen des autonomen Fahrens

  • Level 1: Assistiertes Fahren

    Einzelne Assistenzsysteme unterstützen bei bestimmten Fahraufgaben - in der Längsführung (z.B. Gas geben und Bremsen) oder in der Querführung (Lenkung).

  • Level 2: Teilautomatisiertes Fahren

    Komplexe Assistenzsysteme entlasten den Menschen in der gesamten Fahraufgabe, die sowohl die Längsführung als auch die Querführung umfasst. Der Fahrer muss den Verkehr aber ständig im Blick behalten.

  • Level 3: Hochautomatisiertes Fahren

    Der Fahrer kann die Kontrolle in bestimmten Situationen abgeben. Er muss das Steuer aber übernehmen, wenn die Technik dazu auffordert. Faktisch ist die technische Zulassung eines solchen Systems in Europa derzeit noch nicht möglich.

  • Level 4: Vollautomatisiertes Fahren

    Das System übernimmt für definierte Anwendungen vollständig die Kontrolle. Es kann das Fahrzeug bei Bedarf selbstständig anhalten.

  • Level 5: Autonomes Fahren

    Das Fahrzeug bewegt sich in jeglichem Umfeld fahrerlos. Der Mensch wird zum Passagier.

Inter/view

In der Reihe „Inter/view“ sprechen wir mit unabhängigen Köpfen aus Wissenschaft, Wirtschaft und Politik über die Mobilität der Zukunft. Im offenen Dialog diskutieren wir, wo die Schwierigkeiten liegen, auf welche Lösungen wir uns freuen können und wie sich der Verkehr klimaneutral organisieren lässt.

Wichtiger Hinweis

Wenn Sie auf diesen Link gehen, verlassen Sie die Seiten der Volkswagen AG. Die Volkswagen AG macht sich die durch Links erreichbaren Seiten Dritter nicht zu eigen und ist für deren Inhalte nicht verantwortlich. Volkswagen hat keinen Einfluss darauf, welche Daten auf dieser Seite von Ihnen erhoben, gespeichert oder verarbeitet werden. Nähere Informationen können Sie hierzu in der Datenschutzerklärung des Anbieters der externen Webseite finden.

Weiter zur Seite Abbrechen