Anzeige

Vision-Sensor berechnet Roboterkoordinaten

Kalibrieren statt programmieren

Ein Vision-Sensor erkennt ein Objekt und der Roboter nimmt es auf. Damit dies in der Praxis funktioniert, müssen die Sensorbilder aber zuvor in Roboterkoordinaten umgerechnet werden. Aktuelle Vision-Sensoren verfügen über eine Kalibrierfunktion, mit der sich diese Umrechnung mit wenigen Mausklicks konfigurieren lässt.

Bevor der Roboter ein Teil greifen kann, müssen die koordinaten des Sensors in Roboterkoordinaten umgerechnet werden. Mit der Visor-Kalibrierfunktion kann u.a. eine Greifpunktverschiebung oder eine Freiraumprüfung vorgenommen werden. (Bild: SensoPart Industriesensorik GmbH)

Bevor der Roboter ein Teil greifen kann, müssen die koordinaten des Sensors in Roboterkoordinaten umgerechnet werden. Mit der Visor-Kalibrierfunktion kann u.a. eine Greifpunktverschiebung oder eine Freiraumprüfung vorgenommen werden. (Bild: SensoPart Industriesensorik GmbH)

Handling-Roboter und Vision-Sensoren bewegen sich in zwei verschiedenen Welten: Der Ursprung (0,0) der Sensorkoordinaten liegt meist in der oberen linken Bildecke und Längen-angaben werden in Bildpixeln ausgegeben; der Roboter hingegen benötigt alle Angaben in Millimetern – bezogen auf einen realen Ort in der Welt, z.B. seinen Fußpunkt. Die notwendige Koordinatentransformation bedeutete bisher einen erheblichen Programmieraufwand in der Robotersteuerung, zumal außer der Teileposition auch Faktoren, wie die perspektivische Bildverzerrung aufgrund eines, schrägen Sensor-Blickwinkels sowie die Kissenverzeichnung des Sensorobjektivs zu berücksichtigen waren. Mit den Visor-Vision-Sensoren lässt sich dieser Aufwand nun reduzieren. Die sonst händisch zu erstellenden Routinen sind in Form einer Kalibrierfunktion bereits im Sensor vorkonfiguriert und müssen – ähnlich dem Teach-in bei einem schaltenden Sensor – lediglich an den konkreten Einsatzfall angepasst werden. Hierzu wird eine Punktepaarliste aus Bild- und Weltkoordinaten mit mindestens sechs korrespondierenden Koordinatenpaaren gebildet. Dazu lässt man den Roboter ein Kalibrierteil an verschiedenen Positionen im Sichtfeld des Vision-Sensors ablegen und überträgt die Koordinaten aus der Robotersteuerung in das Sensor-Konfigurationsprogramm, Eingriffe in die Robotersteuerung sind nicht mehr nötig. Einmal kalibriert, übermittelt der Sensor jede Teileposition in absoluten Roboterkoordinaten, sodass der Roboter die Teile ohne weitere Umrechnung direkt greifen kann. Perspektivische Verzerrungen und Objektivverzeichnungen werden durch die Kalibrierung automatisch mitkorrigiert. Der Kalibriervorgang lässt sich mittels Schnittstellenkommandos, z.B. via Ethernet, vollständig automatisieren. Die Kalibrierung lässt sich einfach an wechselnde Teilegeometrien anpassen. So kann ein vertikaler Versatz zwischen Kalibrier- und Messebene oder eine Greifpunktkorrektur berücksichtigt werden. Auch der verfügbare Freiraum rund um das zu greifende Teil lässt sich überprüfen; übereinander oder zu eng liegende Teile werden gar nicht erst an den Roboter gemeldet.

Vision-Sensor berechnet Roboterkoordinaten
Bild: SensoPart Industriesensorik GmbH


Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Universal Robots zieht eine durchweg positive Bilanz seiner Roadshow. Von Mitte April bis Ende Juni 2018 tourte der Anbieter für kollaborative Robotik durch Deutschland, Österreich und die Schweiz. Mehr als 1.000 Besucher kamen zum Tour-Truck, der in über 80 Städten stoppte. Ob Montage, Pick&Place oder Verpacken: Zwölf Wochen lang stellten sich die Ingenieure jeden Tag den verschiedenen Bedürfnissen der Robotikinteressenten.‣ weiterlesen

Anzeige

Mit der Softwareschnittstelle Motologix lassen sich Motoman-Roboter von Yaskawa im gängigen IEC61131-Umfeld schnell und unkompliziert über die SPS programmieren und steuern. Jetzt erweitert der Hersteller das Spektrum unterstützter Plattformen um den Standard Ethercat.‣ weiterlesen

Anzeige

Müssen chemisch verseuchte Areale saniert oder kerntechnische Anlagen zurück­gebaut werden, sind die Arbeiter – allen Vorsichtsmaßnahmen und Schutzaus­rüstungen zum Trotz – erheblichen Gesundheitsrisiken ausgesetzt. Künftig sollen Robotersysteme solche Dekontaminationsarbeiten ausführen, damit Menschen der Gefahrenzone fernbleiben können.‣ weiterlesen

Der kompakte, mechatronische 24V-Kleinteilegreifer Schunk EGP mit IO-Link erfüllt den für einen erhöhten Strombedarf geeigneten IO-Link Class B Standard und kann unmittelbar mit einem IO-Link Class B Master verbunden werden. Seine Greiferfinger lassen sich bei jedem Zyklus frei positionieren, was Flexibilität und über eine Vorpositionierung gegebenenfalls auch besonders kurze Zykluszeiten gewährleisten soll.‣ weiterlesen

Rethink blickt auf ein erfolgreiches zweites Quartal 2018 zurück und verzeichnet im Jahresvergleich ein Rekordwachstum in Europa. Die steigende Nachfrage nach dem kollaborativem Roboter Sawyer beantwortet das Unternehmen mit dem Ausbau seines weltweiten Partnernetzwerks: Mit den neuen Vertriebspartnerschaften in Europa, den USA und im asiatisch-pazifischen Raum die die Verfügbarkeit des Cobots erhöht werden.‣ weiterlesen

Transnova-Ruf feierte im Juli 25-jähriges Bestehen. Im vergangenen Vierteljahrhundert hat sich das Unternehmen vom Standardmaschinenbauer für konventionelle Kartonpacker und Lagenpalettierer hin zu einem Anbieter von primär roboterbasierten, maßgeschneiderten Automatisierungslösungen für End-of-Line-Packaging-Prozesse entwickelt.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige