Anzeige

Vision-Sensor berechnet Roboterkoordinaten

Kalibrieren statt programmieren

Ein Vision-Sensor erkennt ein Objekt und der Roboter nimmt es auf. Damit dies in der Praxis funktioniert, müssen die Sensorbilder aber zuvor in Roboterkoordinaten umgerechnet werden. Aktuelle Vision-Sensoren verfügen über eine Kalibrierfunktion, mit der sich diese Umrechnung mit wenigen Mausklicks konfigurieren lässt.

Bevor der Roboter ein Teil greifen kann, müssen die koordinaten des Sensors in Roboterkoordinaten umgerechnet werden. Mit der Visor-Kalibrierfunktion kann u.a. eine Greifpunktverschiebung oder eine Freiraumprüfung vorgenommen werden. (Bild: SensoPart Industriesensorik GmbH)

Bevor der Roboter ein Teil greifen kann, müssen die koordinaten des Sensors in Roboterkoordinaten umgerechnet werden. Mit der Visor-Kalibrierfunktion kann u.a. eine Greifpunktverschiebung oder eine Freiraumprüfung vorgenommen werden. (Bild: SensoPart Industriesensorik GmbH)

Handling-Roboter und Vision-Sensoren bewegen sich in zwei verschiedenen Welten: Der Ursprung (0,0) der Sensorkoordinaten liegt meist in der oberen linken Bildecke und Längen-angaben werden in Bildpixeln ausgegeben; der Roboter hingegen benötigt alle Angaben in Millimetern – bezogen auf einen realen Ort in der Welt, z.B. seinen Fußpunkt. Die notwendige Koordinatentransformation bedeutete bisher einen erheblichen Programmieraufwand in der Robotersteuerung, zumal außer der Teileposition auch Faktoren, wie die perspektivische Bildverzerrung aufgrund eines, schrägen Sensor-Blickwinkels sowie die Kissenverzeichnung des Sensorobjektivs zu berücksichtigen waren. Mit den Visor-Vision-Sensoren lässt sich dieser Aufwand nun reduzieren. Die sonst händisch zu erstellenden Routinen sind in Form einer Kalibrierfunktion bereits im Sensor vorkonfiguriert und müssen – ähnlich dem Teach-in bei einem schaltenden Sensor – lediglich an den konkreten Einsatzfall angepasst werden. Hierzu wird eine Punktepaarliste aus Bild- und Weltkoordinaten mit mindestens sechs korrespondierenden Koordinatenpaaren gebildet. Dazu lässt man den Roboter ein Kalibrierteil an verschiedenen Positionen im Sichtfeld des Vision-Sensors ablegen und überträgt die Koordinaten aus der Robotersteuerung in das Sensor-Konfigurationsprogramm, Eingriffe in die Robotersteuerung sind nicht mehr nötig. Einmal kalibriert, übermittelt der Sensor jede Teileposition in absoluten Roboterkoordinaten, sodass der Roboter die Teile ohne weitere Umrechnung direkt greifen kann. Perspektivische Verzerrungen und Objektivverzeichnungen werden durch die Kalibrierung automatisch mitkorrigiert. Der Kalibriervorgang lässt sich mittels Schnittstellenkommandos, z.B. via Ethernet, vollständig automatisieren. Die Kalibrierung lässt sich einfach an wechselnde Teilegeometrien anpassen. So kann ein vertikaler Versatz zwischen Kalibrier- und Messebene oder eine Greifpunktkorrektur berücksichtigt werden. Auch der verfügbare Freiraum rund um das zu greifende Teil lässt sich überprüfen; übereinander oder zu eng liegende Teile werden gar nicht erst an den Roboter gemeldet.

Vision-Sensor berechnet Roboterkoordinaten
Bild: SensoPart Industriesensorik GmbH


Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Über neuartige und smarte Technologielösungen wie SuperTrak aus dem Hause B&R spricht Maurizio Tarozzi, Global Technology Manager Packing Solutions, im Interview mit ROBOTIK UND PRODUKTION. Gerade bei Verpackungsanwendungen werden solch intelligente Transportsysteme immer wichtiger. Aber auch die Integration von Robotern spielt eine große Rolle.‣ weiterlesen

Anzeige

Steigende Anforderungen im Bereich der Arbeitssicherheit, Ergonomie und Effizienz sowie der zunehmende Fachkräftemangel machen Automationslösungen auch für die anspruchsvollen Produktionsbedingungen in der Gießerei- und Schmiedeindustrie interessant. Durch die Automatisierung mittels Robotergreifer wird es möglich, Mitarbeiter aus Gefahrenbereichen, wie die unmittelbare Nähe glühender Teile, herauszunehmen und damit die Unfallgefahr zu senken.‣ weiterlesen

Anzeige

Twenty-five different startups were funded in January cumulatively raising $784 million; a great start for the new year. Four acquisitions were reported during the month while the IPO front lay waiting for something to happen. According to Silicon Valley Bank's annual survey of 1,000+ executives, startup founders are confident 2018 will be a good year for funding and for business conditions - except hiring and retaining foreign talent.‣ weiterlesen

Anzeige
%title

Mit dem Caesar PH-0,8 hat MLR einen Plattformwagen speziell für die Automobilindustrie konzipiert. Das 3.090mm lange und 1.368mm breite Fahrzeug transportiert Bauteile, Motoren oder vollständige Karosserien in der Vormontage und kann dort als Alternative zur Bandfertigung eingesetzt werden. Im Fahrzeug ist ein Hubtisch integriert, der sich bis zu einer Höhe von 818mm ausfahren lässt. Dadurch können Arbeiter, die Montagen an den transportierten Lasten vornehmen, eine für sich richtige Arbeitshöhe individuell und ergonomisch einstellen.‣ weiterlesen

Anzeige

In den Bildern, die von der Hannover Messe um die Welt gehen, werden sie auch in diesem Jahr wieder die Hauptrolle spielen: Roboter. Sie faszinieren, sie begeistern, sie geben einer Zukunftsvision Gestalt. Auch im Prozess der digitalen Transformation und der Automatisierung innerhalb der Industrie kommt der Robotik eine Schlüsselrolle zu.‣ weiterlesen

Anzeige

Bei der Planung und Auslegung aller Komponenten von fahrerlosen Transportsystemen müssen die am geplanten Einsatzort vorhandenen Gegebenheiten und baulichen Belange berücksichtigt werden. Für die Gewährleistung eines vorschriftsmäßigen, sicheren und störungsfreien Betriebs spielen die Schnittstellen des FTS zur Infrastruktur und zu den peripheren Einrichtungen eine wichtige Rolle.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige