Vision-Sensoren für Handling-Roboter

Vision-Sensoren für Handling-Roboter

Eingespieltes Team

Ohne Roboter ist die Automatisierung in vielen Industriebranchen nicht mehr vorstellbar. Vision-Sensoren agieren dabei oft als Augen des Roboters und liefern ihm alle benötigten Informationen über die Teilepositionen, bereits umgerechnet in dessen eigenes Koordinatensystem, sodass der Roboter nur noch zugreifen muss. Spezielle Funktionen wie Greiferfreiraumprüfung und Greifpunktoffset ermöglichen zusätzliche Flexibilität bei der Automatisierung von Handling-Aufgaben.

Zwei Vision-Sensoren der Reihe Visor von Sensopart unterstützen einen Handling-Roboter bei der Zuführung und Kontrolle von Kunststoffteilen. (Bild: Sensopart Industriesensorik GmbH)

Sensopart beschäftigt sich schon lange mit dem Thema Industrielle Bildverarbeitung – erste Visionsensoren wurden bereits im Jahr 2005 in den Markt eingeführt. Heute sind die bildverarbeitenden Sensoren längst ein zentraler Baustein in der Fabrikautomation und Robotik geworden. Der Hauptvorteil von Visionsensoren besteht neben ihrer kompakten Bauform und dem guten Preis/Leistungsverhältnis auch bei wachsendem Funktionsumfang nach wie vor in der einfachen Bedienbarkeit. Ein Beispiel hierfür ist die Kalibrierfunktion der Baureihe Visor: Positionen und Abstände im Sensorbild lassen sich mit dieser Funktion einfach in Roboterkoordinaten umwandeln. Gleichzeitig werden perspektivische Verzerrungen durch schräge Blickwinkel oder Linsenverzeichnungen korrigiert. Bisher musste diese Umrechung erst mühsam in der Robotersteuerung programmiert werden; dieser Aufwand für den Anwender entfällt nun, die Kamera liefert alle Positionen direkt im gewünschten Koordinatensystem.

Kamerageführte Robotersysteme

Unterschiedlich geformte Teile lassen sich mit einem solchen System erfassen, ohne dass es erforderlich ist, Aufnahmen oder Greifer zu verändern. Ähnliches gilt für Transportbehälter und Förderbänder, die nicht mehr an bestimmte Teile und Baugruppen angepasst werden müssen. Der mechanische Anpassungsaufwand entfällt und verschiebt sich in die Software. Da der Sensorhersteller die entsprechende Programmierarbeit bereits erledigt hat, genügen dem Anwender ein paar Mausklicks, um seine Anwendung startklar zu machen. Jede Teileform wird im Visionsensor einmal eingelernt, anschließend gilt es nur noch, den passenden Job im Sensor aufzurufen. Was gerade transportiert wird und wie das aussieht, teilt der Sensor dem Roboter mit, sodass er jedes Teil richtig greifen kann. Das Sensor-Roboter-Team sorgt so für geringere Engineeringkosten und mehr Flexibilität bei Produktwechseln. Das Sensorauge ermöglicht es dem Roboter, auch komplexe Pick&Place-Aufgabenstellungen zu lösen. Mit einer leicht konfigurierbaren Freiraumprüfung rund um das aufzunehmende Teil lässt sich sicherstellen, dass genügend Platz für den Greifer vorhanden ist. Eine Greifpunktverschiebung ist ebenfalls möglich: Hier erhält der Roboter z.B. die Botschaft, das Teil nicht mittig, sondern seitlich zu greifen. Zusätzliche Funktionen des Visionsensors wie Codelesen oder Klarschrifterkennung (OCR) ermöglichen gleichzeitig ein Tracking der Teile auf ihrem Produktionsweg.

Einfacheres Einlernen per Konturerkennung

Um Teilepositionen einfach zu erfassen, gibt es verschiedene Möglichkeiten. So hat der Nutzer die Möglichkeit, eine Konturlagenachführung zu definieren, indem er das zu erkennende Teil im Livebild mit der Maus markiert. Dabei lassen sich bei Bedarf auch die bereits beschriebenen Optionen ‚Greiferfreiraumprüfung‘ oder ‚Greifpunktoffset‘ nutzen. Sie senden dem Roboter die Teileposition und sorgen dafür, dass sich zusätzlich weitere Prüfungen ausführen lassen. So lässt sich ein Code lesen, eine Markierung oder die lagerichtige Zuführung erfassen. Mit der aktuell erscheinenden Funktionserweiterung bietet der Sensor außerdem weitere Möglichkeiten zur Positionserkennung. Hierzu dient jetzt auch der Konturdetektor selbst. Er bietet die Möglichkeit, bis zu 200 Objektinstanzen in einem Bild zu erkennen. Dies ist z.B. für schnelle Handlingprozesse mit einem Sauggreifer von Nutzen.

Seiten: 1 2Auf einer Seite lesen

SensoPart Industriesensorik GmbH
www.sensopart.com

Das könnte Sie auch Interessieren

Bild: Conductix-Wampfler AG
Bild: Conductix-Wampfler AG
Lösungspaket für FTS und AMR

Lösungspaket für FTS und AMR

Conductix-Wampfler, ein Hersteller von Systemen für die Energie- und Datenübertragung zu beweglichen Verbrauchern, zeigt auf der diesjährigen Logimat ein umfangreiches Lösungspaket für fahrerlose Transportsysteme und autonome mobile Roboter, bestehend aus Systemen zur Batterieladung, Energiespeichern und Kommunikationslösungen inklusive einem Nothalt-System.

Bild: Faulhaber/ EduArt
Bild: Faulhaber/ EduArt
Einstieg in die mobile Robotik leicht gemacht

Einstieg in die mobile Robotik leicht gemacht

Typischerweise entlasten Roboter Menschen von monotonen Tätigkeiten. Das gilt auch für den Transport in der Produktion und Intralogistik. Hier können in zahlreichen Anwendungsfällen autonome mobile Roboter oder fahrerlose Transportsysteme zu effizienzsteigernden Helfern werden. Allerdings fehlt in vielen Unternehmen noch das Knowhow bzw. die Erfahrung im Umgang mit diesen Systemen. Eine entsprechende Roboterlernplattform erleichtert Anwendern nun den Einstieg in die Welt von AMR und FTS. Von den eingesetzten Antrieben wird in der Lernplattform ebenso wie in der realen Anwendung einiges verlangt.

Bild: Linde Material Handling GmbH
Bild: Linde Material Handling GmbH
Auf dem Weg zum autonomen Outdoor-Stapler

Auf dem Weg zum autonomen Outdoor-Stapler

Im Forschungsprojekt ‚KAnIS – Kooperative Autonome Intralogistik Systeme‘ haben die Projektpartner Linde Material Handling und die technische Hochschule Aschaffenburg Lösungen für die anspruchsvollen Einsätze autonomer Gegengewichtsstapler entwickelt, die sowohl im Innen- als auch im Außenbereich Lasten bewegen. Ein Schwerpunkt lag auf deren kooperativem Verhalten: Über ein 5G-Netz und einen Edge-Server tauschen die Fahrzeuge Informationen in Echtzeit aus und können sich gegenseitig vor Hindernissen warnen.