Neuro-morphe Sensoren Ein Roboter, der wie ein Mensch denkt
Das menschliche Gehirn hat eine erstaunliche Leistungsfähigkeit und verarbeitet Informationen anhand einzigartiger neuro-morpher Algorithmen. Ulmer Forscher wollen die neurologische Leistung auf Roboter übertragen, damit diese Aufgaben schneller und effizienter erledigen können. Ein Prototyp fährt bereits durch die Gänge der Universität.
Anbieter zum Thema

Er hat tintenblaue Ohren, und mit seinen dunklen Kameraaugen, die seitlich auf dem rundlichen Aufbau montiert sind, sieht er recht possierlich aus. Auf einem fahrbaren Untersatz rollt der kleine Roboter den Ulmer Wissenschaftlern vorsichtig entgegen. Der Ninja Turtle, so sein Name, hilft den Neuroinformatikern und Kognitionsforschern dabei, spezielle Algorithmen zu testen, die der menschlichen Wahrnehmung und Kognition nachempfunden sind.
„Das menschliche Gehirn ist das effektivste Datenverarbeitungssystem“
Mit dem VA-Morph-Projekt möchten die Wissenschaftler neurobiologische Funktionen des Gehirns auf robotische und informationstechnische Systeme übertragen. Im Mittelpunkt steht dabei die Entwicklung sogenannter neuro-morpher Algorithmen, die sich in ihrer Struktur und Arbeitsweise am menschlichen Gehirn und seinen elementaren Bestandteilen, den Neuronen, orientieren. Ausgang spunkt ist dabei die Frage, wie visuelle und auditive Sensorströme verarbeitet, fusioniert und technisch genutzt werden können, beispielsweise für die räumliche Orientierung und Navigation. Damit wollen die Ulmer Forscher die Verarbeitung von visuellen und auditiven Sensordaten robuster, schneller und effizienter machen.
„Das menschliche Gehirn gehört noch immer zu den effektivsten Datenverarbeitungssystemen überhaupt“, erklärt Prof. Heiko Neumann, stellvertretender Leiter des Instituts für Neuroinformatik. „Vor allem bei der Auswertung von Sinneseindrücken arbeiten natürliche Nervensysteme hocheffektiv und sind vielen technischen Systemen überlegen.“
Gehirn filtert Informationen nach Relevanz
„Die menschliche Wahrnehmung ist nicht wie bei technischen Systemen getaktet, sondern arbeitet ereignisbasiert“, erklärt der Kognitionspsychologe Prof. Marc Ernst, der das Projekt mitbetreut. „Das heißt, relevant ist vor allem das, was sich über einen bestimmten Zeitraum hinweg verändert. Aus all den Informationen, die auf uns einströmen, wählt das Gehirn nur diejenigen aus, die überlebensrelevant sind und in der jeweiligen Situation einen Sinn ergeben“, erläutert Ernst weiter. Das laufe eben nicht wie bei einer herkömmlichen Kamera ab, wo die räumliche Umgebung über Einzelbilder erfasst wird.
Der biologische Hörvorgang ist ebenso komplex und dabei nicht weniger Daten-ökonomisch. Hierfür kombiniert das Gehirn Signale mit Erwartungen aus unterschiedlichen Erfahrungskontexten und verrechnet die Informationen zu einem multisensorischen Gesamteindruck. „Die Integration dieser sensorischen Datenströme ist eine Meisterleistung des Gehirns. Wenn wir verstanden haben, wie das genau funktioniert, können wir versuchen, diese Funktionsweisen auf technische Systeme zur Sensordatenverarbeitung zu übertragen“, fassen die Ulmer Forscher ihren wissenschaftlichen Auftrag zusammen. Gehirninspirierte Hard- und Software sind die Grundlage für Cognitive Computing, der Neurorobotik und der Künstlichen Intelligenz.
(ID:44918799)