Roboterdemonstrator kombiniert Simulation und Bildverarbeitung

Simulationsbasierte Positionierung

Der Demonstrator veranschaulicht die Integration von Physiksimulation, Bilderkennung und einer darauf aufbauenden Ansteuerung des Roboters und illustriert die damit verbunden Problemstellungen sowie technische Lösungsmöglichkeiten anhand einer Pick&Place-Applikation. Zu Beginn der Anwendung wird ein biegeschlaffes Objekt – beliebig im Arbeitsraum des Roboters platziert – von der Stereokamera erfasst und als Punktwolke gesampelt. Durch geeignete Filter wird das erkannte Objekt in der Punktwolke freigestellt. Basierend auf der Repräsentation als Punktwolke wird ein Mehrkörpermodell mit voreingestellter Segmentlänge dynamisch aufgebaut. Durch die Länge der Segmente lässt sich dabei die Genauigkeit einer späteren Simulation steigern, gleichzeitig steigt aber die Rechenzeit pro Simulationsschritt. Die Kinematikbeschreibung der Bilderkennung wird nachfolgend um ein Dynamikmodell in der Simulationsumgebung erweitert. Die gesamte Simulation umfasst weiterhin den Roboter und die umgebende Zelle, wodurch auch Kontakte und Kollisionen simuliert werden können. Das simulierte Mehrkörperobjekt kann nun in der Simulation per Drag&Drop mit der Maus gegriffen und positioniert werden. Die Bewegung der mit der Maus gegriffenen Objektposition wird nach dem Positioniervorgang in der Simulation in eine Trajektorie für den Roboter übersetzt, wobei vor dem Greifen der Punkt über dem Greifpunkt auf einer Sicherheitsebene angefahren wird, um die letzte Bewegung zum Objekt orthogonal zur Tischoberfläche durchzuführen. Während der Roboterbewegung werden die Gelenkwinkel und Position der Greiferfinger mit der Simulation synchronisiert. In der Simulation und am Versuchsstand lassen sich so die simulierte und die reale Verformung des weichen Objekts nachverfolgen.

Zusammenfassung und offene Fragen

Die Schwierigkeit im Umgang mit biegeschlaffen Objekten begründet sich in der Verknüpfung der einzelnen Disziplinen. Der vorgestellte Demonstrator zeigt durch die Verknüpfung der Simulation mit Steuerung und Bilderkennung, wie dieser Ansatz funktionieren kann. Basierend auf dem realisierten Ansatz lässt sich der Handhabungsvorgang als geschlossener Regelkreis aufbauen und die Verformung des beigeschafften Objektes als Regelgröße begreifen. Der Entwurf von Regelungsstrategien zur Automatisierung von Handling-Applikationen ist damit der logische nächste Schritt. Zu beachten ist hierbei insbesondere, dass das biegeschlaffe Verhalten nicht beliebige Objektkonfigurationen stabil zulässt, daher muss die Bahnplanung bereits das physikalische Verhalten und Beschränkungen durch Kontakte berücksichtigen. Durch den hohen Rechenaufwand der Bildverarbeitung liegt eine weitere Herausforderung darin, ein kontinuierliches Feedback der Kamera zu erreichen. Dabei müssen besonders unterschiedliche Taktzeiten zwischen Simulation und Kamera-Pipeline berücksichtigt werden. Das Schließen des Regelkreises eröffnet hierbei neue Möglichkeiten in der Handhabungstechnik und wird den automatisierten Umgang mit biegeschlaffen Objekten in Zukunft einen Schritt näherbringen.

Seiten: 1 2Auf einer Seite lesen

ISW Institut für Steuerungstechnik der
www.isw.uni-stuttgart.de

Das könnte Sie auch Interessieren

Bild: KUKA AG
Bild: KUKA AG
Cobot-Einsatz in der Qualitätssicherung

Cobot-Einsatz in der Qualitätssicherung

Zur Qualitätssicherung des neuen Mahlwerks für die neue Kaffeemarke Ligre hinsichtlich Langlebigkeit und Einhaltung des voreingestellten Kaffeegewichts setzten die Entwicklungstechniker von Gronbach in einem Testaufbau auf die Unterstützung durch den Cobot LBR iisy von Kuka.

Bild: Fraunhofer-Institut IML
Bild: Fraunhofer-Institut IML
Belohnung als 
Anreiz zum Lernen

Belohnung als Anreiz zum Lernen

KI-Entwickler Julian Eßer trainiert Roboter, sich intelligent zu verhalten. Denn das Entscheidende ist, dass die Maschinen nicht nur bei kalkulierbaren Ereignissen richtig handeln. Vor allem müssen sie auch in unvorhergesehen Situationen das Richtige tun. Dafür testet er als Mitglied des AI Grids, einer Initiative des Bundesforschungsministeriums, die vielversprechende Talente in künstlicher Intelligenz in Deutschland fördert, am Fraunhofer IML Hunderte Roboter in virtuellen Welten. Ziel ist, dass die Maschinen üben und lernen, mit Störungen und Varianten ähnlicher Situationen umzugehen – und dann selbst Varianten anbieten. Dafür kommt eine Art Belohnungssystem für Roboter zum Einsatz: So lernen sie leichter aus Fehlern und wählen den schnellsten und effektivsten Weg zum Ziel.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
inVISION Day Metrology 2024

inVISION Day Metrology 2024

Am 16. Mai 2024 findet zum zweiten Mal der inVISION Day Metrology – Digital Conference for Metrology statt. An dem Tag werden in den vier Sessions 3D-Scanner, Inline Metrology, Surface Inspection sowie CT & X-Ray aktuelle Lösungen und Produkte in zahlreichen 20-minütigen Vorträgen präsentiert.