Roboterdemonstrator kombiniert Simulation und Bildverarbeitung

Roboterdemonstrator kombiniert Simulation und Bildverarbeitung

Verformte Teile? Kein Problem!

Die Handhabung biegeschlaffer Objekte mit Industrierobotern erfordert eine flexible Reaktionsfähigkeit auf Deformationen. Viele solcher Handling-Aufgaben werden daher heute manuell durchgeführt. Eine Alternative zeigt ein Ansatz auf, der eine Physiksimulation des biegeschlaffen Objekts zusammen mit dem Feedback aus einer Stereokamera nutzt. Das ISW der Uni Stuttgart hat dafür einen Demonstrator zur simulationsbasierten Positionierung realisiert.

 (Bild: Universität Stuttgart, ISW)

(Bild: Universität Stuttgart, ISW)

Ein wesentlicher Vorteil von Robotersystemen ist ihr großer Arbeitsraum gepaart mit verlässlicher Genauigkeit. Damit sind sie häufig das Mittel der Wahl für Aufgabenstellungen in der Handhabungstechnik. So bieten Roboterlösungen meist eine schnelle und präzise wiederholbare Ausführung. Damit ist die Automatisierung mit Robotern auch ein Schlüssel zur Qualitätssteigerung von Produktionsprozessen. Eine Herausforderung für heutige Robotersysteme sind jedoch Aufgaben die nicht strikt schematisch nach einem definierten Ablauf erfolgen. Ein wichtiges Anwendungsbeispiel solcher Aufgaben ist die Handhabung biegeschlaffer Bauteile.

Zustandsgraph der Anwendung zur Demonstration simulationsbasierter Positionierung biegeschlaffer Objekte (Bild: Universität Stuttgart, ISW)

Zustandsgraph der Anwendung zur Demonstration simulationsbasierter Positionierung biegeschlaffer Objekte (Bild: Universität Stuttgart, ISW)

Große Verformungen

Problematisch bei der Handhabung biegeschlaffer Bauteile wie Kabel, Schläuche oder Dichtungen sind insbesondere die großen Verformungen, die bereits bei geringen Kräften auftreten. Die Objekte verformen sich bereits durch ihr Eigengewicht, geringe Kontaktkräfte mit der Umgebung oder aufgrund der Interaktion mit dem Roboter während der Manipulation. Damit ergeben sich Unsicherheiten über den aktuellen Zustand des Bauteils, z.B. seine Position und Lage. Für viele Handhabungsaufgaben kann die Konfiguration des biegeschlaffen Bauteils während der Manipulation nicht außer Acht gelassen werden, weshalb diese heute noch weitgehend noch manuell erledigt werden. Beispiele sind die Verlegung von Kabelbäumen in der Automobilproduktion oder die Verdrahtung von Steuerungskomponenten im Schaltschrankbau. Diese Aufgaben erfordern ein enges Zusammenspiel sensorischer und motorischer Fähigkeiten, das vom Menschen gemeinhin intuitiv beherrscht wird. Die Entwicklung von technischen Systemen mit vergleichbaren Fähigkeiten ist hingegen höchst anspruchsvoll und allgemeine Lösungen zur Automatisierung von Handhabungsaufgaben für Biegeschlaffe Bauteile existieren heute nicht. Im Rahmen des Graduiertenkollegs Soft Tissue Robotics wurde ein Ansatz entwickelt, der das Deformationsverhalten biegeschlaffer Objekte über ein Simulationsmodell abbildet. Die im Modell hinterlegten kinematischen und dynamischen Zusammenhänge lassen sich dann sowohl für die Ableitung von Handhabungsstrategien als auch für die Lokalisierung des Objektes nutzen. Das Konzept wurde in Form eines Demonstrators für ein Pick&Place Szenario umgesetzt.

Roboterzelle (links) und die parallel dazu berechnete Simulationsumgebung (rechts) (Bild: Universität Stuttgart, ISW)

Roboterzelle (links) und die parallel dazu berechnete Simulationsumgebung (rechts) (Bild: Universität Stuttgart, ISW)

Aufbau des Versuchsstands

Der für die Manipulation genutzte Versuchsstand nutzt als Aktorik den siebenachsigen Leichtbauroboter Franka Emika Panda, der über eine offene C++-API mit der Physik-Simulationsumgebung Dart gekoppelt wird. Für die Ansteuerung des Roboters über dessen API wird ein Framework zur Bewegungsplanung verwendet, welches die kartesischen Positionen, Geschwindigkeiten und Beschleunigungen analytisch ermittelt und in Diskretisierungsschritten von 1ms an den Roboter übergibt. Durch die Trennung von geometrischer Bahn und Geschwindigkeitsprofil kann das Einhalten dynamischer Beschränkungen, wie maximal möglicher Gelenkgeschwindigkeiten durch Skalierung der Trajektorie sichergestellt werden. Die Erkennung der deformierbaren Objekte erfolgt mit einer Stereokamera Nerian Scene Scan Pro. Durch die Nutzung eines FPGAs zur Verarbeitung der Stereobilder in eine 3D-Punktwolke lassen sich Bildfrequenzen bis zu 100Hz erreichen. Nach einer initialen Kalibrierung der Kamera selbst ist auch eine Auge/Hand-Kalibrierung (engl. Hand-Eye-Calibration) erforderlich, um die mit der Kamera gemessenen Positionen des Kabels zum Koordinatensystem des Roboters in Beziehung zu setzten. Hierbei wird am TCP des Roboters eine Kalibriertafel mit definierten Kalibriermuster (z.B. Schachbrettmuster) befestigt. Über eine Menge von mindestens drei Roboterposen und zugehörigen Aufnahmen des Kalibriermusters kann hieraus die relative Position und Orientierung zwischen Kamera und Kalibriertafel als Optimierungsproblem berechnet werden.

Seiten: 1 2Auf einer Seite lesen

ISW Institut für Steuerungstechnik der
www.isw.uni-stuttgart.de

Das könnte Sie auch Interessieren

Bild: KUKA AG
Bild: KUKA AG
Cobot-Einsatz in der Qualitätssicherung

Cobot-Einsatz in der Qualitätssicherung

Zur Qualitätssicherung des neuen Mahlwerks für die neue Kaffeemarke Ligre hinsichtlich Langlebigkeit und Einhaltung des voreingestellten Kaffeegewichts setzten die Entwicklungstechniker von Gronbach in einem Testaufbau auf die Unterstützung durch den Cobot LBR iisy von Kuka.

Bild: Fraunhofer-Institut IML
Bild: Fraunhofer-Institut IML
Belohnung als 
Anreiz zum Lernen

Belohnung als Anreiz zum Lernen

KI-Entwickler Julian Eßer trainiert Roboter, sich intelligent zu verhalten. Denn das Entscheidende ist, dass die Maschinen nicht nur bei kalkulierbaren Ereignissen richtig handeln. Vor allem müssen sie auch in unvorhergesehen Situationen das Richtige tun. Dafür testet er als Mitglied des AI Grids, einer Initiative des Bundesforschungsministeriums, die vielversprechende Talente in künstlicher Intelligenz in Deutschland fördert, am Fraunhofer IML Hunderte Roboter in virtuellen Welten. Ziel ist, dass die Maschinen üben und lernen, mit Störungen und Varianten ähnlicher Situationen umzugehen – und dann selbst Varianten anbieten. Dafür kommt eine Art Belohnungssystem für Roboter zum Einsatz: So lernen sie leichter aus Fehlern und wählen den schnellsten und effektivsten Weg zum Ziel.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
inVISION Day Metrology 2024

inVISION Day Metrology 2024

Am 16. Mai 2024 findet zum zweiten Mal der inVISION Day Metrology – Digital Conference for Metrology statt. An dem Tag werden in den vier Sessions 3D-Scanner, Inline Metrology, Surface Inspection sowie CT & X-Ray aktuelle Lösungen und Produkte in zahlreichen 20-minütigen Vorträgen präsentiert.