Studie Warum menschliche Eingriffe KI-Entscheidungen oft verschlechtern

Quelle: Technische Universität Berlin 2 min Lesedauer

Anbieter zum Thema

Mensch-KI-Teams treffen oft schlechtere Entscheidungen als die KI allein, so das Ergebnis einer Studie. Je zuverlässiger die Systeme, desto größer die Gefahr, dass Menschen die korrekten Empfehlungen der KI überstimmen oder ignorieren.

Eine aktuelle Studie der TU Berlin zeigt auf, warum Mensch und Maschine noch kein gutes Team sind.(Bild:  frei lizenziert /  Pixabay)
Eine aktuelle Studie der TU Berlin zeigt auf, warum Mensch und Maschine noch kein gutes Team sind.
(Bild: frei lizenziert / Pixabay)

Mensch-KI-Teams treffen oft schlechtere Entscheidungen als die KI allein, das zeigt sich in vielen Feldern wie Radiologie, Sicherheitstechnik oder Prozessüberwachung. Je zuverlässiger die Systeme, desto größer die Gefahr, dass Menschen die korrekten Empfehlungen der KI überstimmen oder ignorieren.

Die Ursachen sind vielfältig, zwei aber stechen heraus.

  • Erstens: Menschen wollen ihrer Rolle als Entscheider gerecht werden. Wer nur abnickt, fühlt sich überflüssig und greift ein, auch wenn das System recht hat.
  • Zweitens: Die Zuverlässigkeit moderner KI wird unterschätzt. Seltene Fehler erscheinen überbewertet, während die hohe Gesamtleistung kaum wahrgenommen wird.

So entsteht ein Muster, das die Autoren der TU Berlin in zahlreichen Studien beobachten: „Menschen greifen unnötig ein und verschlimmbessern so die Gesamtleistung“, sagt Dr. Tobias Rieger, Psychologe am Fachgebiet Handlungs- und Automationspsychologie der TU Berlin und Erstautor des Positionspapiers. So überschreiben Radiologen korrekte Befunde, weil sie ihrer Rolle als finale Entscheider gerecht werden wollen. Und am Flughafen entscheiden Gepäckscreener zwar besser mit KI-Assistenz, jedoch häufig auch nicht so gut wie das System allein.

Konflikt mit EU-Regulierung

Brisant ist das auch mit Blick auf das EU Gesetz zur Regulierung von KI (AI Act). Dieser fordert „wirksame menschliche Aufsicht“ für Hochrisikoanwendungen. Doch wie soll ein Radiologe oder eine Personalabteilung Verantwortung übernehmen, wenn die Maschine statistisch klar überlegen ist? Wenn Menschen systematisch schlechter entscheiden als die KI, stellt sich die Frage, wie Aufsicht in der Praxis gestaltet werden kann, ohne die Gesamtleistung zu verschlechtern.

Auf dem Weg zur Synergie

Eine Lösung gegen dieses Dilemma ist den Forschenden zufolge mehr Transparenz, wobei der klassische Ansatz der „erklärbaren KI“ nicht genüge: Zu wissen, was ein tiefes neuronales Netzwerk ist, nützt der Radiologin wenig. Stattdessen müsse es um verhaltensleitende Erklärungen gehen. Systeme sollten ihre Stärken und Schwächen klar kommunizieren, zum Beispiel: „Bei dieser Patientengruppe ist meine Prognose für eine Krebserkrankung besonders zuverlässig.“ So wüssten Nutzer, wann Zustimmung angebracht ist und wann sich ein kritischer Blick lohnt.

Noch weiter reichen adaptive Konzepte. Die Maschine könnte lernen, wo der Mensch stark ist und ihm in diesen Fällen die Entscheidung überlassen. Umgekehrt könnte sie nur bei Unsicherheiten Empfehlungen geben. „Das Ziel ist eine echte Synergie, in der Mensch und Maschine sich sinnvoll ergänzen. Dafür gibt es keine One-Size-Fits-All-Lösung, sondern es braucht maßgeschneiderte Ansätze für unterschiedliche Anwendungsfelder“, betont Rieger. Deswegen sollten die späteren Nutzer einer KI bereits in ihre Entwicklung mit eingebunden werden.

Das Positionspapier macht deutlich: Der Schlüssel liegt nicht darin, Menschen aus dem Prozess zu drängen, sondern Systeme so zu gestalten, dass beide Partner einander ergänzen. Erst dann können Mensch und KI gemeinsam tatsächlich bessere Entscheidungen treffen.

Buchtipp

Das Fachbuch „Künstliche Intelligenz“ bietet eine fundierte Einführung in die Grundlagen der Künstlichen Intelligenz und der neuronalen Netze. Anhand von Beispielen aus der Unternehmenspraxis werden mögliche Einsatzgebiete aufgezeigt und Wege dargelegt, wie Unternehmen die Potenziale von KI erkennen und strategisch umsetzen können.

Mehr erfahren bei Vogel Fachbuch

(ID:50608883)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung