Suchen

Künstliche Intelligenz Wie man Robotern das Denken beibringt

| Redakteur: Katharina Juschkat

Eine neue Generation autonomer Roboter soll künftig Aufgaben selbstständig lösen können – auch dann, wenn Unvorhersehbares passiert. Informatiker der Technischen Universität Graz treiben mit Unterstützung des Wissenschaftsfonds FWF die Entwicklung der künstlichen Intelligenz voran und bringen den Robotern Hausverstand bei.

Firmen zum Thema

Wie menschlich werden Roboter eines Tages sein? Forscher der TU Graz haben einen wichtigen Schritt dazu beigetragen und Robotern beigebracht, unvorhergesehene Probleme logisch zu lösen.
Wie menschlich werden Roboter eines Tages sein? Forscher der TU Graz haben einen wichtigen Schritt dazu beigetragen und Robotern beigebracht, unvorhergesehene Probleme logisch zu lösen.
(jim/(c) Fotolia)

Was Kinder spielend lernen und Erwachsene aufgrund ihrer Erfahrungen beherrschen, zum Beispiel auf unerwartete Situationen zu reagieren, stellt immer noch eine der großen Herausforderungen in der Robotik dar. Autonome Systeme sollen vom Menschen vorgegebene Aufgaben selbstständig lösen können. Besonders in kritischen Situationen wären solche intelligenten Roboter praktisch – etwa bei Umweltkatastrophen oder Industrieunfällen. Weltweit beschäftigen sich Wissenschaftler daher mit der Frage, wie Roboter auch in ungewöhnlichen und neuen Situationen ihre Ziele eigenständig erreichen können. Auch Gerald Steinbauer von der Technischen Universität Graz arbeitet seit Jahren in der Grundlagenforschung an der Entwicklung des intelligenten und autonomen Roboters mit.

Roboter schlussfolgern lassen

In einem vor Kurzem abgeschlossenen Projekt des Wissenschaftsfonds FWF haben sich Steinbauer und sein Team der Aufgabe gestellt, einem Roboter so etwas wie Hausverstand beizubringen. „In unserer Umwelt passieren immer wieder Überraschungen oder kleine Irrtümer, wie etwa, dass ich im fünften Stock eines Gebäudes lande statt im dritten. Wenn ein Roboter nicht merkt, dass er im falschen Stockwerk ist, kann er seine Aufgabe nicht erfüllen“, erklärt Steinbauer ein einfaches Beispiel.

In dem Projekt haben die Grazer Forscherinnen und Forscher nun eine Art Schlussfolgerungsmechanismus entwickelt, der es dem Roboter erlaubt, solche Irrtümer zu erkennen und daraus Reparaturaktionen für sein Wissen abzuleiten. „Wir haben Schlussfolgerungen mit dem sogenannten Situationskalkül in Logik abgebildet. Dieses ermöglicht, die von einem Agenten ausgeführten Aktionen und deren Effekte zu beschreiben“, erklärt Steinbauer.

Das Weltbild des Roboters bauen

Die Informatiker der TU Graz erstellen dabei laufend automatisch Diagnosen, indem sie beobachten, wo das Wissen des Roboters mit der aktuellen Situation nicht mehr zusammenpasst. Dabei konnten sie herausfinden, dass das Situationskalkül sowohl für die Überwachung und Diagnose genutzt werden kann als auch für die autonomen Entscheidungen des Roboters. Aus dem Wissen, was eine Aktion bewirkt, lernt der Roboter abzuleiten, was er als nächstes tun muss. Stimmt das Wissen des Roboters mit den Anforderungen in der realen Welt nicht mehr überein, weil sich eben eine Situation verändert hat, wird das „Weltbild“ des Roboters zurechtgerückt

Mit dem Situationskalkül werden Schlussfolgerungen in Logik abgebildet. Dies ermöglicht, die vom Roboter ausgeführten Aktionen und deren Effekte zu beschreiben.
Mit dem Situationskalkül werden Schlussfolgerungen in Logik abgebildet. Dies ermöglicht, die vom Roboter ausgeführten Aktionen und deren Effekte zu beschreiben.
(Bild: TU Graz)

„Wir versuchen in Einklang zu bringen, was der Roboter geplant hat und was wirklich passiert ist, indem wir es formal niederschreiben“, so Steinbauer. Im Test hat sich das Modell bereits bewährt: Ein Roboter, der mehrere Tage durchgehend im Forschungsinstitut mit einfachen Lieferaufgaben betraut wurde, ließ sich auch durch Tricks nicht irritieren.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 44150696)