Im Dekra Verkehrssicherheitsreport 2025 „Mobilität im Wandel der Zeit“ geht es u. a. um die Integration von künstlicher Intelligenz (KI) in Straßenfahrzeugen. In den Technologien stecke erhebliches Potenzial für mehr Verkehrssicherheit, berge aber auch hohe Risiken. Was die Experten der Dekra fordern, lesen Sie hier.
Zukünftig übernehmen in immer mehr Fahrzeugen Advanced Driver Assistance Systems (ADAS) wichtige Aufgaben.
(Bild: DEKRA)
Künstliche Intelligenz (KI) wird zunehmend in Straßenfahrzeuge integriert. Darin steckt grundsätzlich erhebliches Potenzial für mehr Verkehrssicherheit. Aber: „Nicht außer Acht gelassen werden dürfen die hohen Risiken, die mit dem – nie auszuschließenden – Versagen von KI-Systemen verbunden sein können“, warnt Xavier Valero, Director Artificial Intelligence & Advanced Analytics bei Dekra. Umso wichtiger seien deshalb Vorschriften und Normen wie etwa das KI-Gesetz der EU als rechtlicher Rahmen für die Entwicklung solcher Systeme. Das Thema ist eines von vielen im aktuellen Dekra-Verkehrssicherheitsreport 2025 „Mobilität im Wandel der Zeit“.
Fahrerassistenzsysteme als Hochrisiko-Systeme eingestuft
Zukünftig übernehmen in immer mehr Fahrzeugen Advanced Driver Assistance Systems (ADAS) wichtige Aufgaben:
Zur Erkennung von Verkehrszeichen, zu Fuß Gehenden, Radfahrenden oder Fahrzeugen,
zur Überwachung des Reifendrucks oder der Motortemperatur oder
zur Einleitung automatisierter Brems- oder Spurwechselvorgänge
Da jedoch eine Fehlfunktion Gesundheit und Leben von Menschen gefährden könnte, hat die EU in ihrem 2024 verabschiedeten KI-Gesetz solche ADAS als Hochrisiko-Systeme eingestuft. „Diese Systeme, die für die Fahrsicherheit von entscheidender Bedeutung sind, müssen daher einer strengen Aufsicht und Validierung unterliegen, um ihre Zuverlässigkeit zu gewährleisten und Risiken zu vermeiden“, betont Xavier Valero.
Ein umfassendes Qualitätsmanagementsystem über den gesamten KI-Lebenszyklus hinweg ist für die vollständige Konformität erforderlich, da dadurch sichergestellt wird, dass alle Aktivitäten nachvollziehbar und überprüfbar bleiben.
Xavier Valero, Director Artificial Intelligence & Advanced Analytics bei Dekra
KI-Gesetz lässt Ausnahmen zu
Das KI-Gesetz lässt dabei auch Ausnahmen zu, wenn KI-Systeme bereits im Einklang mit bestehenden Regelungen wie der Fahrzeugtypgenehmigung (Verordnung EU 2018/858) bewertet wurden. Das bedeutet, dass Sicherheitseinrichtungen wie ADAS, obwohl sie indirekt durch das KI-Gesetz geregelt sind, durch bestehende Typgenehmigungsverfahren validiert werden können, ohne dass zusätzliche Bewertungen durch Dritte erforderlich sind.
„Neben der Gewährleistung, dass ihre Systeme die Anforderungen des KI-Gesetzes erfüllen, müssen die Systemanbieter auch ein umfassendes KI-Managementsystem mit klaren Richtlinien und Arbeitsabläufen innerhalb ihrer Organisation etablieren“, ergänzt der Dekra-Experte. Darüber hinaus müssten alle Beteiligten – vorgelagerte Technologielieferanten, nachgelagerte Integratoren und die Hersteller – dazu beitragen, die Systemsicherheit, Datensicherheit und Transparenz zu gewährleisten. „Ein umfassendes Qualitätsmanagementsystem über den gesamten KI-Lebenszyklus hinweg ist für die vollständige Konformität erforderlich, da dadurch sichergestellt wird, dass alle Aktivitäten nachvollziehbar und überprüfbar bleiben“, sagt Xavier Valero.
Leitlinien für die Sicherheit von KI-Systemen in der Automobilindustrie bietet die ISO/PAS 8800. Diese deckt den gesamten KI-Lebenszyklus vom Entwurf bis zum Einsatz ab und gewährleistet, dass die Systeme in jeder Phase sowohl sicher als auch zuverlässig sind. Die Norm ergänzt die ISO 26262 (funktionale Sicherheit) und die ISO 21448 (SOTIF – Sicherheit der beabsichtigten Funktionalität), um potenziellen Risiken zu begegnen, die mit KI-gesteuerten Systemen verbunden sind. Sie betont zudem die Bedeutung der Kontrolle der Datenqualität, der Systemvalidierung und der kontinuierlichen Überwachung während des Betriebs.
Dekra spielt bei der Förderung sicherer und zuverlässiger KI-Anwendungen in Straßenfahrzeugen eine Schlüsselrolle. Die unabhängige Expertenorganisation beteiligt sich an der regulatorischen Diskussion, verfügt über Know-how für die Gestaltung von Best Practices und bietet Training, Bewertung und Zertifizierung nach ISO 8800 an. Damit sollen die Hersteller gewährleisten können, dass ihre KI-Systeme den höchsten Sicherheitsstandards entsprechen.
Je höher der Automatisierungsgrad, desto stärker verschieben sich die Ursachen für Unfälle vom menschlichen Versagen im Fahrzeug selbst zum menschlichen Versagen beim IT-Design hinter der Mensch-Maschine-Schnittstelle.
Dr. Thomas Wagner, Verkehrspsychologe bei Dekra
Ethische Fragestellungen zu KI-Systemen in Fahrzeugen
Mit dem Einsatz von KI-Systemen in Fahrzeugen gehen zugleich auch Herausforderungen etwa in Bezug auf ethische Fragestellungen und die Gewährleistung des fundamentalen Schutzbedürfnisses einher. „Je höher der Automatisierungsgrad, desto stärker verschieben sich die Ursachen für Unfälle vom menschlichen Versagen im Fahrzeug selbst zum menschlichen Versagen beim IT-Design hinter der Mensch-Maschine-Schnittstelle“, erläutert Dekra-Verkehrspsychologe Dr. Thomas Wagner. Denn wer die Software für die KI im Fahrzeug entwickle, müsse eine Vielzahl an Entscheidungen treffen. So etwa über das Verhalten vollautomatisierter Fahrzeuge im Falle eines unvermeidbaren Unfalls und zur Frage, wem potenziell Schaden zugefügt werden soll.
„Im Kern geht es dabei um programmierte Entscheidungsroutinen zur Aufteilung des Risikos für eintretende Schäden zwischen den verschiedenen Unfallbeteiligten“, führt der Dekra-Experte weiter aus. Autohersteller und politische Entscheidungsträger hätten mit diesen moralischen Dilemmata gleichermaßen zu kämpfen. Schließlich sei ein Konsens über die Prinzipien solcher Entscheidungen vor allem für die Bevölkerung von besonderer Bedeutung, da vollautomatisierte Fahrzeuge sonst gesellschaftlich wenig akzeptiert und genutzt werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Um die gesellschaftlichen Erwartungen an die ethischen Grundsätze in Bezug auf das Konfliktverhalten vollautomatisierter Fahrzeuge zu quantifizieren, hat eine Gruppe von Wissenschaftlern um den Briten Edmond Awad schon vor ein paar Jahren das „Moral Machine“-Experiment entwickelt. Die Teilnehmenden mussten dabei aus unvermeidbaren Unfallszenarien mit zwei möglichen Ergebnissen die von ihnen bevorzugte Variante wählen:
Das vollautomatisierte Fahrzeug weicht aus oder
das Fahrzeug bleibt auf seinem Kurs.
Die Sammlung der „Moral Machine“ umfasste am Ende knapp 40 Millionen Entscheidungen von Millionen von Menschen in 233 Ländern beziehungsweise Regionen. Insgesamt wurden 130 Länder in drei grobe Cluster eingeordnet: das westliche Cluster (Nordamerika und viele europäische Länder), das östliche Cluster (zum Beispiel Japan und islamische Länder) und das südliche Cluster (Länder in Mittel- und Südamerika).
Eine intensive gesellschaftliche Diskussion und ein möglichst internationaler Konsens sind in Zukunft unerlässlich.
Dr. Thomas Wagner, Verkehrspsychologe bei Dekra
Zwischen den drei Clustern zeigten sich bei einigen Präferenzen deutliche Unterschiede. So war zum Beispiel die Präferenz, jüngere Personen gegenüber älteren und Personen mit höherem Status gegenüber Personen mit niedrigerem Status zu schonen, in Ländern des östlichen Clusters deutlich niedriger ausgeprägt als im westlichen Cluster. Länder des südlichen Clusters zeigten im Vergleich zu den anderen beiden Clustern eine deutlich schwächere Präferenz für die Schonung von Menschen gegenüber Haustieren. Lediglich die Präferenz für die Schonung von zu Fuß Gehenden gegenüber Insassen und die Präferenz für die Schonung rechtskonformer Verkehrsteilnahme gegenüber unrechtmäßigen Verhaltensweisen scheinen in allen Clustern in gleichem Maße vorhanden zu sein.
„Die Ergebnisse dieses Experiments zeigen, wie vielschichtig und komplex die Fragen sind, die bei der Programmierung zu entscheiden sind“, sagt Dr. Wagner. „Eine intensive gesellschaftliche Diskussion und ein möglichst internationaler Konsens sind in Zukunft unerlässlich.“
Dekra-Verkehrssicherheitsreport
Weitere Hintergründe zum Thema KI im Fahrzeug wie auch zu vielen weiteren Aspekten rund um die „Mobilität im Wandel der Zeit“ finden sich im Dekra-Verkehrssicherheitsreport 2025.