Anzeige
Anzeige

Bildentzerrung und Shading-Korrektur in Echtzeit

Schräge Sicht

Dank einer Echtzeitkorrektur für Verzeichnung, Shading und perspektivische Verzerrung bietet Baumer für die VeriSens Vision-Sensoren nun einen Weg zur exakten Bildauswertung verzeichneter Bilder. Die korrigierten Bilder sehen danach wie aus der Vogelperspektive aufgenommen aus.

 Die VeriSens-700/800er-Modelle der XF- und XC-Serie lassen sich per Software-Update mit einer Echtzeitkorrektur für Verzeichnung, Shading und perspektivischer Verzerrung nachrüsten. ohne (l.) und nach (r.) der Verzeichnungskorrektur. (Bild: Baumer Optronic GmbH)

Die VeriSens-700/800er-Modelle der XF- und XC-Serie lassen sich per Software-Update mit einer Echtzeitkorrektur für Verzeichnung, Shading und perspektivischer Verzerrung nachrüsten. ohne (l.) und nach (r.) der Verzeichnungskorrektur. (Bild: Baumer Optronic GmbH)

Kennen Sie Fischaugen-Objektive? Diese extremen Weitwinkel fangen eine ganze Szenerie in einem einzigen Bild ein. Doch ein 180°-Rundumblick fordert seinen Tribut. Das Bild ist kreisförmig und an den Rändern fließt es entsprechend zusammen. Weitwinkel, wenn auch vielleicht keine Fischaugen, machen auch häufig in der Bildverarbeitung Sinn. Mit wenig Bauraum kann ein großes Objekt so aus der Nähe überwacht werden. Die damit einhergehende Objektivverzeichnung ist jedoch kontraproduktiv, denn die Objekte sehen erst einmal krumm und damit fehlerhaft aus. Eine ungewollte Abweichung des Bildes vom realen Objekt entsteht nicht nur durch die sogenannten entozentrischen Objektive. Auch die Anordnung von Kamera bzw. Vision Sensor zum Objekt kann eine Rolle spielen, wenn bsp. schräg seitlich auf das Objekt geschaut werden muss. Bei Pick&Place Applikationen funktioniert eine exakte Roboterpositionierung ohne Korrekturmaßnahmen gar nicht.

 (Bild: Baumer)

(Bild: Baumer)

Abweichungen ableiten

Eine einfache Methode ist es, nicht das Bild, sondern ausschließlich die Koordinaten zu korrigieren, nachdem diese durch eine Kalibrierung eingelernt wurden. Allerdings eine Applikation an einem verzerrten Bild einzurichten und diesen Zustand später als Visualisierung zu nutzen, bleibt eine Herausforderung mit entsprechendem Fehlerpotential. Die optimale Lösung ist, das gesamte Bild mittels Kalibrierung, mathematischer Verfahren und hoher Rechenleistung vollständig zu entzerren. Wie ist das aber möglich? Kennt man das ideale Bild, kann man anhand des durch den Vision Sensor gesehenen Bildes und einer bekannten Vorlage die Abweichung ableiten. So kann sogar eine seitlich verzerrende Sicht, genauso wie die Verzeichnung durch das Objektiv mathematisch korrigiert werden. Ausgewählte Vision Sensoren der 700/800er VeriSens Modelle der XF- und XC-Serie unterstützen die Bildentzerrung in Echtzeit bereits bzw. können mit einem einfachen Software-Update nachgerüstet werden. Nach einer Bildkalibrierung mittels einer Kalibrierplatte kennt der Vision Sensor die Bildverhältnisse aus Einbauposition, Blickwinkel und Objektiv und korrigiert das gesamte Bild automatisch. So ähnelt es einer Vogelperspektive. Die Inspektionsaufgabe erfolgt damit auf einem idealen Bild ohne störende Verzerrungen. Das Kalibrieren ist ein einfacher und strukturierter Prozess, der kein Lesen einer Dokumentation erfordert. Intelligente Algorithmen im Hintergrund prüfen permanent die Kalibrierbedingungen und geben Hinweise, wann ein Teachen sinnvoll ist. Der Anwender ist nur dort gefragt, wo die Vision Sensoren weitere Informationen benötigen. Weitere neue Features der Geräte sind…

  • • Integrierte Shading-Korrektur: Eine schräge Montage ändert auch die Beleuchtungsverhältnisse, da ein Teil der Lichtquelle weiter entfernt vom Objekt ist. Deshalb wurde gleichzeitig eine optionale Shading-Korrektur implementiert. Es genügt ein weißes Blatt Papier als Vorlage, um den Algorithmus mit einem Mausklick die Idealsituation einlernen zu lassen. Im Ergebnis geht dies dann mit in die Bildkorrektur ein und reguliert die Bildhelligkeit für jeden Bildpunkt passend zur Einbausituation.
  • • Weltkoordinaten automatisch einrichten: Der Abgleich mit Weltkoordinaten ist bereits länger eine Funktion der VeriSens Vision Sensoren. Damit können statt Pixeln beliebige Maßeinheiten verarbeitet werden. Das unterstützt Anwendungen wie Maßprüfung und Pick&Place, bei denen die Denkweise in Pixeln oft nicht genügt. Das Einlernen der Weltkoordinaten profitiert von der Bildstruktur der Kalibrierplatte für die Bildverzeichnung und nutzt deren quadratische Struktur für eine automatische Einrichtung.
Mittels einer Kalibrierplatte können in der Application Suite verzeichnungen automatisch korrigiert und Weltkoordinaten eingerichtet werden. (Bild: Baumer)

Mittels einer Kalibrierplatte können in der Application Suite Bildverzeichnungen automatisch korrigiert und Weltkoordinaten eingerichtet werden. (Bild: Baumer)

Einsatz für Roboter

Nutzen Roboter zur Orientierung die Bildverarbeitung, kommt zum Roboter-Koordinatensystem, welches naturgemäß unverzerrt ist, das Koordinatensystem der Bildverarbeitung dazu. Ist dieses entzerrt, passend skaliert und auf Ursprung und Orientierung adaptiert, können dem Roboter direkte Positionen der Objekte übermittelt werden. Visuell gibt es dabei keinerlei Abweichungen zwischen Bild und Roboterorientierung. Bei einem fest installiertem Vision Sensor über dem Roboter ist die Bildverarbeitung dem Roboter möglicherweise bei Pick&Place Anwendungen im Weg. Eine schräge Installation löst das Problem unter Zuhilfenahme der Entzerrung. Die Vision Sensoren sind nun in der Lage, mehrere Objekte gleichzeitig zu erfassen und dem Roboter intelligenten Input zu geben. Dabei ist beides, die optimale Anordnung der Objekte als auch die Berücksichtigung ungewünschter Teileüberlagerungen, möglich. Die neuen Funktionen können einfach per Software-Update auch nachträglich in die monochromen 700/800er Modelle der XF- und XC-Serie implementiert werden.

Bildentzerrung und Shading-Korrektur in Echtzeit
Bild: Baumer Optronic GmbH


Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Wie sieht die Messtechnik der Zukunft aus? Um dies zu erfahren, trafen sich Experten von Faro, GOM, Isra Vision, Werth Messtechnik und Zeiss AI sowie ein Anwender im Rahmen des Control Vision Talks Forums. In Teil 2 der Diskussion geht es um Daten-Handling, Bedienbarkeit und Kosten.‣ weiterlesen

Anzeige

Rose+Krieger und das Fraunhofer IEM präsentieren als jüngstes Projekt ihrer Zusammenarbeit ein dreiachsiges Raumportal für ein System zur roboterbasierten Bearbeitung. ‣ weiterlesen

Der Carbon-Vakuumgreifer der CVGC-Serie von Coval ist das erste Produkt einer Greiferreihe für kollaborative Roboter. Der leichte Greifer lässt sich einfach in verschiedene Roboter integrieren. ‣ weiterlesen

Anzeige

Als UR+-Partner hat FerRobotics speziell für die Universal-Robots-Modelle UR10 und UR10e den Active Orbital Kit 905 als abgestimmte Plug&Play-Schleif- und -Polierlösung entwickelt. Die Lösung eignet sich für die Oberflächenveredelung von komplex geformten Werkstücken. ‣ weiterlesen

Moderne Lösungen für das Robotergreifen umfassen Machine-Learning-Methoden, die auch das sichere Greifen unbekannter Werkstücke mit variablen Geometrien ermöglichen. Das befähigt Industrieroboter, Objekte zu erkennen, zu lokalisieren und schließlich zu greifen.‣ weiterlesen

Im Ofenbau spielen saubere Schweißnähte eine entscheidende Rolle, vor allem beim Verschweißen der Abschirmplatte für die Brennkammer. Das kann durch einen anspruchsvollen Werkstoff, wie austenitischen Edelstahl, erschwert werden, der einer genauen Kontrolle der Schweißtemperatur und Stromstärke bedarf. Eine Roboterzelle zum WIG-Schweißen sorgt hier mithilfe eines Sechsachs-Schweißroboters für gleichbleibend hohe Schweißqualität.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige