Suchen

Vision-Sensor Vision-Sensor reduziert Programmieraufwand für Roboter

Redakteur: Jan Vollmuth

Damit ein Roboter ein vom Vision-Sensor erkanntes Teil exakt greifen kann, müssen die Pixel der Sensorbilder zuvor in Roboterkoordinaten umgerechnet werden. Mit einer entsprechenden Kalibrierfunktion im Vision-Sensor entfällt künftig der Programmieraufwand für die Koordinatentransformation.

Firmen zum Thema

Der Roboter bezieht seinen Aktionsradius auf ein festes Koordinatensystem, dessen Ursprung z. B. sein Fußpunkt bildet. Ein Vision-Sensor der Reihe Visor übernimmt die Transformation von relativen Bild- in absolute Roboterkoordinaten.
Der Roboter bezieht seinen Aktionsradius auf ein festes Koordinatensystem, dessen Ursprung z. B. sein Fußpunkt bildet. Ein Vision-Sensor der Reihe Visor übernimmt die Transformation von relativen Bild- in absolute Roboterkoordinaten.
(Bild: Sensopart)

Wo liegt das Teil genau? An welcher Stelle fasst man es am besten an? Ist für die Aufnahme ausreichend Platz oder liegt ein anderes Teil im Weg? All diese Informationen benötigt ein Roboter, um ein Teil von einem Förderband oder einem Vibrationsförderer aufzunehmen. Die nötigen Informationen liefert ihm ein bildverarbeitender Vision-Sensor. Das Problem dabei: Sensor und Roboter arbeiten mit verschiedenen Koordinatensystemen und Maßeinheiten. Der Ursprung (0,0) der Sensorkoodinaten liegt z.B. in der Bildmitte oder in der oberen linken Bildecke und Längenangaben werden in Bildpixeln ausgegeben; der Roboter hingegen benötigt alle Angaben in Millimetern und bezogen auf einen realen Ort in der Welt, zum Beispiel seinen Fußpunkt.

Aufwendige Koordinatentransformation

Zur Konfiguration einer Pick-and-Place-Anwendung gehört somit zwingend eine Koordinatentransformation von Bild- in Roboterkoordinaten. Diese bedeutete bisher einen nicht unerheblichen Programmieraufwand, denn außer der Teileposition müssen in der Robotersteuerung auch Faktoren wie die perspektivische Bildverzerrung aufgrund eines schrägen Sensor-Blickwinkels sowie die vor allem bei kleinen Brennweiten auftretende signifikante Kissenverzeichnung des Sensorobjektivs berücksichtigt werden – eine mathematisch anspruchsvolle und entsprechend zeitaufwändige Aufgabe.

Bildergalerie
Bildergalerie mit 5 Bildern

Bei der Einrichtung einer Pick-and-Place-Anwendung bei einem süddeutschen Automobilzulieferer wurde nun erstmals ein anderer Weg beschritten. Anstatt die Koordinatentransformation in der Steuerung des eingesetzten Sechsachs-Roboters vorzunehmen, wurde sie in den Sensor verlagert. Hierzu setzte man einen Vision-Sensor der Reihe Visor des Herstellers Sensopart ein, der über eine entsprechende Kalibrierfunktion verfügt; damit ließ sich der Einrichtungsaufwand auf ein Minimum reduzieren.

Punktepaare als Umrechnungsbasis

Die sonst händisch zu erstellenden Routinen sind bereits im Sensor vorkonfiguriert und müssen – ähnlich dem Teach-in bei einem schaltenden Sensor – lediglich an den konkreten Einsatzfall angepasst werden. Dies geschieht in der Visor-Konfigurationssoftware mit Hilfe einer sogenannten Punktepaarliste. Dabei handelt es sich um eine Liste korrespondierender Punkte in Bild- und Roboterkoordinaten. Ein Punktepaar in der Liste wird wie folgt erzeugt:

  • Der Roboter legt ein geeignetes Kalibrierteil – z.B. ein rotationssymmetrisches, gut zu greifendes Teil – an einer beiliebigen Position im Sichtfeld des Sensors ab.
  • Die Positon des Roboters wird aus der Robotersteuerung übernommen und in die Spalte „Weltkoordinaten“ der Punktpaarliste eingetragen.
  • Die entsprechende Position wird im Sensorbild mit Hilfe einer grafischen „Snap“-Funktion ermittelt und in der Spalte „Bildkoordinaten“ den Roboterkoordinaten zugeordnet.

Damit ist ein Punktepaar bestimmt. Dieser Ablauf wird nun noch mindestens fünfmal wiederholt, sodass am Ende wenigstens sechs Punktepaare in der Liste stehen. Sobald diese ausreichende Anzahl von Punktepaaren erfasst ist, errechnet der Sensor die Koordinatentransformation und kompensiert dabei zugleich eine perspektivische Verzerrung und Objektivverzeichnung. Jede Teileposition wird dem Roboter ab jetzt in in seinem eigenen Koordinatensystem übermittelt, sodass er die Teile ohne weitere Umrechnung direkt greifen kann.

(ID:44033739)