Suchen

Risiko KI

Was Künstliche Intelligenz für die Maschinensicherheit bedeutet

| Redakteur: Jan Vollmuth

Neben vielen Chancen der Künstlichen Intelligenz gibt es auch warnende Stimmen: Wenn die KI versagt, könnten Menschenleben gefährdet werden. Was bedeutet das für die Maschinensicherheit?

Firma zum Thema

Risiko Künstliche Intelligenz: Was bedeutet das für die Maschinensicherheit?
Risiko Künstliche Intelligenz: Was bedeutet das für die Maschinensicherheit?
( Bild: gemeinfrei / Pixabay )

Sie gilt als die wegweisende Zukunftstechnologie: die Künstliche Intelligenz (KI). Ihre Anwendungen wie Sprachassistenten oder Übersetzungsprogramme nutzen wir bereits heute wie selbstverständlich im Alltag, und auch die Industrie setzt zunehmend KI-Anwendungen beispielsweise für vorausschauende Wartung ein, von denen sie sich großes wirtschaftliches Potenzial verspricht. Und hierbei handelt es sich nur um die Vorboten zahlreicher gesellschaftlicher wie wirtschaftlicher Veränderungen, die der Einsatz von Künstlicher Intelligenz künftig mit sich bringen wird.

Risiko Künstliche Intelligenz

Während die Befürworter Künstlicher Intelligenz vor allem deren Chancen und Vorteile hervorheben, gibt es auch warnende Stimmen: Was ist mit den Risiken, wenn beispielsweise ein Roboter in der Fertigung versagt und mit einer falschen Bewegung das Leben eines neben ihm stehenden Arbeiters gefährdet? Oder wenn ein autonom fahrendes Fahrzeug eine rote Ampel überfährt und dadurch Fußgänger in eine lebensbedrohliche Situation bringt?

Dr. Daniel Schneider, Abteilungsleiter Safety Engineering am Fraunhofer-Institut für Experimentelles Software Engineering IESE, erklärt: „Künstliche Intelligenz, und Machine Learning im Besonderen, erweist sich zunehmend als wichtiger Enabler der Automatisierung, wobei die Gewährleistung der Sicherheit von Machine-Learning eine noch weitgehend ungelöste Herausforderung darstellt.“ Das Grundproblem liegt darin, dass etablierte Methoden und Standards zur Gewährleistung der Sicherheit stets von einem vollständigen Verständnis eines Systems und seiner Umgebung ausgehen. Diese Grundannahme ist bei Systemen mit KI-Anteilen nun nicht mehr gegeben.

Wie die Sicherheit nachweisen?

Er hat sich auf die Fahne geschrieben, KI-Systeme sicher zu machen: Dr. Daniel Schneider, Abteilungsleiter Safety Engineering, Fraunhofer IESE.
Er hat sich auf die Fahne geschrieben, KI-Systeme sicher zu machen: Dr. Daniel Schneider, Abteilungsleiter Safety Engineering, Fraunhofer IESE.
( Bild: Fraunhofer IESE )

Damit stellt sich umgehend die Frage: In welcher Form kann ein Nachweis der funktionalen Sicherheit für ein solches System erbracht werden?

„Generell bedeutet ein Sicherheitsnachweis nicht, dass kein Schaden entstehen kann, sondern, dass das Risiko akzeptabel ist – wobei bezüglich des Maßes des akzeptablen Risikos teilweise auch noch Unklarheit herrscht“, sagt Schneider. Bei einem selbstfahrenden Fahrzeug stelle sich die Frage, welches Restrisiko akzeptiert werde. Ein sinnvoller Ansatzpunkt könnte sein, sicherzustellen, dass autonome Fahrzeuge deutlich weniger Unfälle als von Menschen gesteuerte Autos verursachen. Man dürfe jedoch nicht vergessen, dass auch ein schnell reagierendes automatisiertes System zum Beispiel je nach Geschwindigkeit einen gewissen Bremsweg brauche. „Daher wird es in jedem Fall ein Restrisiko geben, mit dem eine Gesellschaft leben muss“, erklärt der KI-Experte.

Anwendertreff Maschinensicherheit Die Künstliche Intelligenz fordert eine neue Herangehensweise an die Maschinensicherheit. Wie das gelingen kann, ist Thema des Anwendertreffs Maschinensicherheit. Hier steht die funktionale Sicherheit von Maschinen und Anlagen im Mittelpunkt.
Mehr Infos: Anwendertreff Maschinensicherheit

Wie KI-Anwendungen abgesichert werden können

„Die Gewährleistung der Sicherheit von ML-Komponenten stellt eine noch weitgehend ungelöste Herausforderung dar“, sagt Dr. Daniel Schneider.
„Die Gewährleistung der Sicherheit von ML-Komponenten stellt eine noch weitgehend ungelöste Herausforderung dar“, sagt Dr. Daniel Schneider.
( Bild: Fraunhofer IESE )

Betrachtet man nun die grundlegenden Optionen zur Absicherung von Machine-Learning(ML)-Komponenten, kann man zwei unterschiedliche, aber durchaus komplementär nutzbare Ansätze unterscheiden. Einerseits kann man versuchen, das ML-Verhalten selbst zu analysieren und abzusichern, etwa durch Anwendung von Techniken aus der Explainable AI. „Hier ist jedoch aktuell noch viel Forschung nötig“, erklärt Schneider. Daher ist die zur Zeit aussichtsreichere Strategie, die Absicherung durch eine parallele Überwachung mithilfe konventioneller Software zu erreichen. Die Kunst besteht dabei darin, den Überwacher so zu entwickeln, dass er die Performanz des überwachten Systems möglichst nicht einschränkt.

Wie und ob dies gelingen kann, ist stark von der jeweiligen Anwendung und den Rahmenbedingungen abhängig. In jedem Fall kann die überwachende „konventionelle“ Software – im Gegensatz zu einer ML-Komponente – auch konventionell abgesichert und nachgewiesen werden, sodass ein Versagen der KI-Lösung ohne ernste Folgen bleibt.

Wie sich die funktionale Sicherheit auch für Maschinen und Anlagen mit KI-Komponenten sicherstellen lässt, darüber wird Dr. Daniel Scheider; Fraunhofer IESE, auf dem 7. Anwendertreff Maschinensicherheit sprechen. Hier geht's zur Anmeldung.

SEMINARTIPPDas Seminar „Risikobeurteilung und Betriebsanleitung“ hilft bei der Umsetzung der wichtigsten Anforderungen der Maschinenrichtlinie 2006/42/EG.
Weitere Informationen

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 46075781)