Anzeige

3D-Bewegungsprofile in Echtzeit mittels Bildverarbeitung

Kollisionsvorhersage

Eine neue 3D-Vision-Lösung ermöglicht es, die Bewegungsrichtung und Geschwindigkeit von Objekten im Raum präzise zu ermitteln. Das eröffnet neue Möglichkeiten für die reibungslose Zusammenarbeit von Mensch und Roboter.

Bahn frei für autonome Gabelstapler dank 3D-basierter Machine-Vision-Technologie. Position, Bewegungsrichtung und Geschwindigkeit von Objekten lassen sich mit dem ´3D-Scene-Flow´-Verfahren im dreidimensionalen Raum ermitteln. (Bild: MVTec Software GmbH)

Bahn frei für autonome Gabelstapler dank 3D-basierter Machine-Vision-Technologie. Position, Bewegungsrichtung und Geschwindigkeit von Objekten lassen sich mit dem ´3D-Scene-Flow´-Verfahren im dreidimensionalen Raum ermitteln. (Bild: MVTec Software GmbH)

Ein wichtiges Einsatzszenario der industriellen Bildverarbeitung ist die präzise Positionsbestimmung von Objekten in Fertigungsprozessen. Traditionelle, standardisierte Bildverarbeitungssoftware arbeitet jedoch lediglich im 2D-Bereich. So lassen sich Gegenstände, die sich linear bewegen – wie etwa auf einem Fließband – problemlos nachverfolgen. Die Position von dreidimensional agierenden Objekten wie z.B. Montageroboter kann mit 2D hingegen nicht zuverlässig erkannt werden. Daher eignet sich dieses Verfahren nur bedingt für Branchen mit einem hohen Automatisierungsgrad. Eine neue 3D-basierte Vision-Lösung namens 3D Scene Flow schließt nun diese Lücke. Damit kann die Lage von Objekten auch im 3D-Raum zuverlässig bestimmt werden. Hierbei werden an verschiedenen Standorten mehrere Kameras installiert, die digitale Bildinformationen aus unterschiedlichen Perspektiven zur Verfügung stellen (Mehrbild-Kameraaufbau). So lässt sich nicht nur die präzise Position von Gegenständen ermitteln, sondern auch deren Bewegungsrichtung und Geschwindigkeit. 3D Scene Flow wurde nun in die Machine-Vision-Lösung Halcon von MVTec integriert. Die neue Lösung ist in der Lage, die Zusammenarbeit von Menschen und Maschinen in automatisierten Produktionsprozessen deutlich zu verbessern. Das wird an folgendem Beispiel deutlich: Fertigungsroboter, die Schweiß- oder andere Montagevorgänge ausführen, arbeiten meist in einem 3D-Aktionsradius. Dieser ist in der Regel auf bestimmte Fertigungszellen begrenzt. Kommt ein Mitarbeiter dem Bereich zu nahe, schalten Sensoren den Roboter ab, um Kollisionen zu vermeiden. Der Automat muss neu hochgefahren werden, was die Montageprozesse unnötig lange unterbricht und teure Produktionsausfälle zur Folge hat. Mit 3D Scene Flow lässt sich dieses Szenario optimieren: Die an mehreren Stellen installierten Kameras liefern detaillierte Bildinformationen, mit denen sich ein exaktes 3D-Bewegungsprofil von Mensch und Maschine in Echtzeit erstellen lässt. Kreuzen sich die Bahnen beider Akteure, kann dies frühzeitig vorhergesagt werden. Dies bewahrt die Mitarbeiter vor Kollisionen und erhöht die Sicherheit in der Produktion. Zudem muss der Roboter nicht bei jeder Annäherung eines Menschen abgeschaltet werden, sondern nur dann, wenn ein Zusammentreffen laut Bewegungsprofil als sicher erscheint. Das 3D-Verfahren unterstützt auch bei der Interaktion von Menschen mit mobilen Robotern, die sich eigenständig durch die Produktionshallen bewegen. Insbesondere bei großen Online-Versandhändlern dominieren bereits heute autonome Gabelstapler und Hebezeuge die Kommissionierung und Beförderung von Waren im Hochregallager. Aufgrund der neuen Lösung lässt sich dort die Sicherheit im Fahrverkehr deutlich erhöhen.

Kollisionsvorhersage
Bild: MVTec Software GmbH


Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Stefan Roßkopf, Geschäftsführer bei Teamtechnik, kann mit dem Geschäftsverlauf eigentlich sehr zufrieden sein. Doch er wirkt beim Thema E-Mobilität etwas angefasst, weil es nicht so recht vorangeht.‣ weiterlesen

Anzeige

Mit seinen Vision-Sensoren ist SensoPart in vielen Roboteranwendungen vertreten. Pünktlich zum 25-jährigen Firmenbestehen hat sich ROBOTIK UND PRODUKTION mit CEO Theodor Wanner über die Entwicklung des Unternehmens und die steigenden Anforderungen aus dem Automatisierungs- und Robotikbereich unterhalten.‣ weiterlesen

In der größten Fabrik für Körperpflegeprodukte im Nahen Osten und in Afrika wurde eine Anlage mit modularem Design benötigt, um mit platzsparenden und reaktiven Produktionslinien kürzere Markteinführungszeiten zu erhalten. Für die angestrebte Verarbeitung acht verschiedener Formate bei einer Produktionsleistung von 350 Produkten pro Minute und pro Anlage bei gleichzeitiger Verkürzung der zahlreichen täglichen Umrüstungen auf nur zehn Minuten kamen zwei robotergestützte End-of-line-Anlagen zum Einsatz.‣ weiterlesen

Anzeige

Die Be- und Entladung von Sinteröfen erfolgt in der Regel manuell und ist mit hohen Belastungen durch Hitze und Schmutz verbunden. Um diese zu automatisieren, eignet sich eine Lösung mit Horizontal-Knickarmrobotern. Durch das modulare Konzept lassen sich die einzelnen Module, wie Maschinengestell, Roboter, Greifhand oder Vision-System, problemlos für ähnliche Aufgaben mit beliebigen Formaten anpassen.‣ weiterlesen

Dank einer Echtzeitkorrektur für Verzeichnung, Shading und perspektivische Verzerrung bietet Baumer für die VeriSens Vision-Sensoren nun einen Weg zur exakten Bildauswertung verzeichneter Bilder. Die korrigierten Bilder sehen danach wie aus der Vogelperspektive aufgenommen aus.‣ weiterlesen

Schweißnahtvorbereitungen per manuellem Autogenschneider oder Winkelschleifer nehmen viel Zeit in Anspruch. Eine automatisierte Schneidlösung mit einer Zone für die Bearbeitung mittels Roboter kann hier Abhilfe schaffen. Aufgrund des auf der Anlage montierten Roboterarms ist die CNC-Plasma- und Autogen-Portalschneidanlage in der Lage, sowohl Bleche als auch besonders große und dickwandige Rohre zu schneiden.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige