Robotik Wenn ein Hilfsroboter auf die menschlichen Bedürfnisse eingeht

Anbieter zum Thema

Ein Roboter erkennt die Stimmung seines menschlichen Gegenübers und kann gezielt darauf eingehen. Forscher arbeiten an Mensch-Maschine-Schnittstellen, die auf die Bedürfnisse eingehen können. Eine Möglichkeit ist das Eye-Tracking.

Was tun wir als nächstes? Um Robotern beizubringen, was Menschen wollen, nutzen Forscher am KIT das Eyetracking.
Was tun wir als nächstes? Um Robotern beizubringen, was Menschen wollen, nutzen Forscher am KIT das Eyetracking.
(Bild: Laila Tkotz / KIT Karlsruhe)

Forscher des KIT aus Karlsruhe arbeiten an zukünftigen Mensch-Maschine-Schnittstellen, die nicht nur nutzerfreundlich, sondern auch adaptiv sind. Damit soll es möglich sein, Bedürfnisse des Menschen zu erkennen und auf diese einzugehen. Gerade mobile Roboter-Helfer können bei körperlich eingeschränkten Personen zur Hand gehen. Der Roboter erkennt Stress oder Probleme mit einer zu pflegenden Person und kann Hilfe anbieten.

Barbara Deml ist Leiterin des Instituts für Arbeitswissenschaft und Betriebsorganisation am KIT in Karlsruhe. Die Psychologin und Ingenieurin arbeitet daran, Maschinen beizubringen, die körperliche Verfassung sowie die Gemütszustände von Menschen zu erfassen und sich entsprechend zu verhalten. Dabei sei es relativ gleichgültig, ob Assistenzsysteme in einem Maschinenleitstand, dem Cockpit eines Flugzeugs, einem Operationssaal oder eben der häuslichen Pflege zum Einsatz kämen.

Berührungen als auch Annäherungen erkennen

Beim Projekt „SINA“ – einer Art fahrbarem Greifarm – gehe es darum, Übergabevorgänge zwischen Mensch und Roboter zu organisieren: „Etwa wenn der Patient ein Glas Wasser möchte.“ Hierbei müssen neuartige Sensoren eingesetzt werden, die sowohl Berührungen als auch Annäherungen erkennen können, um Unfälle zu vermeiden. Ein weiterer wichtiger Punkt sei die Akzeptanz von Roboter-Helfern.

Eine Möglichkeit, Maschinen erkennen zu lassen, was wir wollen oder was wir als nächstes tun werden, ist das Eyetracking. „Wohin wir schauen, wie lange unser Blick auf einer Stelle verharrt oder ob unsere Pupillen geweitet sind, lässt darauf schließen, was wir empfinden“, erläutert Deml. Darüber hinaus nutzt sie Messungen physiologischer Parameter wie Herzrhythmus, Muskelaktivität oder Hautleitfähigkeit.

Diese Daten werden von der Maschine statistisch abgeglichen; gibt es Abweichungen vom Üblichen, wird sie aktiv. So könnten beispielsweise Fahrassistenzsysteme durch Beobachtung des Fahrers brenzlige Verkehrssituationen voraussehen oder Industrieroboter Arbeiter vor Überbeanspruchung schützen, indem sie etwa ihr Arbeitstempo Beim Ableiten psychologischer Zustände aus physiologischer Information stünden empirische Studien und deren statistische Datenauswertung im Mittelpunkt: „Uns ist es wichtig, bei der Analyse nicht nur rein datengetrieben vorzugehen, wie es im Moment mit vielen Deep-Learning-Ansätzen im Bereich der Künstlichen Intelligenz verfolgt wird, sondern entgegen des Trends auch modellbasiert zu arbeiten“, sagt Deml abschließend.

Dieser Beitrag erschien zuerst auf unserem Partnerportal Elektronikpraxis.de.

(ID:45247059)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung