Bildentzerrung und Shading-Korrektur in Echtzeit

Bildentzerrung und Shading-Korrektur in Echtzeit

Schräge Sicht

Dank einer Echtzeitkorrektur für Verzeichnung, Shading und perspektivische Verzerrung bietet Baumer für die VeriSens Vision-Sensoren nun einen Weg zur exakten Bildauswertung verzeichneter Bilder. Die korrigierten Bilder sehen danach wie aus der Vogelperspektive aufgenommen aus.

 Die VeriSens-700/800er-Modelle der XF- und XC-Serie lassen sich per Software-Update mit einer Echtzeitkorrektur für Verzeichnung, Shading und perspektivischer Verzerrung nachrüsten. ohne (l.) und nach (r.) der Verzeichnungskorrektur. (Bild: Baumer Optronic GmbH)

Die VeriSens-700/800er-Modelle der XF- und XC-Serie lassen sich per Software-Update mit einer Echtzeitkorrektur für Verzeichnung, Shading und perspektivischer Verzerrung nachrüsten. ohne (l.) und nach (r.) der Verzeichnungskorrektur. (Bild: Baumer Optronic GmbH)

Kennen Sie Fischaugen-Objektive? Diese extremen Weitwinkel fangen eine ganze Szenerie in einem einzigen Bild ein. Doch ein 180°-Rundumblick fordert seinen Tribut. Das Bild ist kreisförmig und an den Rändern fließt es entsprechend zusammen. Weitwinkel, wenn auch vielleicht keine Fischaugen, machen auch häufig in der Bildverarbeitung Sinn. Mit wenig Bauraum kann ein großes Objekt so aus der Nähe überwacht werden. Die damit einhergehende Objektivverzeichnung ist jedoch kontraproduktiv, denn die Objekte sehen erst einmal krumm und damit fehlerhaft aus. Eine ungewollte Abweichung des Bildes vom realen Objekt entsteht nicht nur durch die sogenannten entozentrischen Objektive. Auch die Anordnung von Kamera bzw. Vision Sensor zum Objekt kann eine Rolle spielen, wenn bsp. schräg seitlich auf das Objekt geschaut werden muss. Bei Pick&Place Applikationen funktioniert eine exakte Roboterpositionierung ohne Korrekturmaßnahmen gar nicht.

 (Bild: Baumer)

(Bild: Baumer)

Abweichungen ableiten

Eine einfache Methode ist es, nicht das Bild, sondern ausschließlich die Koordinaten zu korrigieren, nachdem diese durch eine Kalibrierung eingelernt wurden. Allerdings eine Applikation an einem verzerrten Bild einzurichten und diesen Zustand später als Visualisierung zu nutzen, bleibt eine Herausforderung mit entsprechendem Fehlerpotential. Die optimale Lösung ist, das gesamte Bild mittels Kalibrierung, mathematischer Verfahren und hoher Rechenleistung vollständig zu entzerren. Wie ist das aber möglich? Kennt man das ideale Bild, kann man anhand des durch den Vision Sensor gesehenen Bildes und einer bekannten Vorlage die Abweichung ableiten. So kann sogar eine seitlich verzerrende Sicht, genauso wie die Verzeichnung durch das Objektiv mathematisch korrigiert werden. Ausgewählte Vision Sensoren der 700/800er VeriSens Modelle der XF- und XC-Serie unterstützen die Bildentzerrung in Echtzeit bereits bzw. können mit einem einfachen Software-Update nachgerüstet werden. Nach einer Bildkalibrierung mittels einer Kalibrierplatte kennt der Vision Sensor die Bildverhältnisse aus Einbauposition, Blickwinkel und Objektiv und korrigiert das gesamte Bild automatisch. So ähnelt es einer Vogelperspektive. Die Inspektionsaufgabe erfolgt damit auf einem idealen Bild ohne störende Verzerrungen. Das Kalibrieren ist ein einfacher und strukturierter Prozess, der kein Lesen einer Dokumentation erfordert. Intelligente Algorithmen im Hintergrund prüfen permanent die Kalibrierbedingungen und geben Hinweise, wann ein Teachen sinnvoll ist. Der Anwender ist nur dort gefragt, wo die Vision Sensoren weitere Informationen benötigen. Weitere neue Features der Geräte sind…

  • • Integrierte Shading-Korrektur: Eine schräge Montage ändert auch die Beleuchtungsverhältnisse, da ein Teil der Lichtquelle weiter entfernt vom Objekt ist. Deshalb wurde gleichzeitig eine optionale Shading-Korrektur implementiert. Es genügt ein weißes Blatt Papier als Vorlage, um den Algorithmus mit einem Mausklick die Idealsituation einlernen zu lassen. Im Ergebnis geht dies dann mit in die Bildkorrektur ein und reguliert die Bildhelligkeit für jeden Bildpunkt passend zur Einbausituation.
  • • Weltkoordinaten automatisch einrichten: Der Abgleich mit Weltkoordinaten ist bereits länger eine Funktion der VeriSens Vision Sensoren. Damit können statt Pixeln beliebige Maßeinheiten verarbeitet werden. Das unterstützt Anwendungen wie Maßprüfung und Pick&Place, bei denen die Denkweise in Pixeln oft nicht genügt. Das Einlernen der Weltkoordinaten profitiert von der Bildstruktur der Kalibrierplatte für die Bildverzeichnung und nutzt deren quadratische Struktur für eine automatische Einrichtung.
Mittels einer Kalibrierplatte können in der Application Suite verzeichnungen automatisch korrigiert und Weltkoordinaten eingerichtet werden. (Bild: Baumer)

Mittels einer Kalibrierplatte können in der Application Suite Bildverzeichnungen automatisch korrigiert und Weltkoordinaten eingerichtet werden. (Bild: Baumer)

Einsatz für Roboter

Nutzen Roboter zur Orientierung die Bildverarbeitung, kommt zum Roboter-Koordinatensystem, welches naturgemäß unverzerrt ist, das Koordinatensystem der Bildverarbeitung dazu. Ist dieses entzerrt, passend skaliert und auf Ursprung und Orientierung adaptiert, können dem Roboter direkte Positionen der Objekte übermittelt werden. Visuell gibt es dabei keinerlei Abweichungen zwischen Bild und Roboterorientierung. Bei einem fest installiertem Vision Sensor über dem Roboter ist die Bildverarbeitung dem Roboter möglicherweise bei Pick&Place Anwendungen im Weg. Eine schräge Installation löst das Problem unter Zuhilfenahme der Entzerrung. Die Vision Sensoren sind nun in der Lage, mehrere Objekte gleichzeitig zu erfassen und dem Roboter intelligenten Input zu geben. Dabei ist beides, die optimale Anordnung der Objekte als auch die Berücksichtigung ungewünschter Teileüberlagerungen, möglich. Die neuen Funktionen können einfach per Software-Update auch nachträglich in die monochromen 700/800er Modelle der XF- und XC-Serie implementiert werden.

Baumer Optronic GmbH
www.baumer.com

Das könnte Sie auch Interessieren

Bild: Fraunhofer-Institut IML
Bild: Fraunhofer-Institut IML
Belohnung als 
Anreiz zum Lernen

Belohnung als Anreiz zum Lernen

KI-Entwickler Julian Eßer trainiert Roboter, sich intelligent zu verhalten. Denn das Entscheidende ist, dass die Maschinen nicht nur bei kalkulierbaren Ereignissen richtig handeln. Vor allem müssen sie auch in unvorhergesehen Situationen das Richtige tun. Dafür testet er als Mitglied des AI Grids, einer Initiative des Bundesforschungsministeriums, die vielversprechende Talente in künstlicher Intelligenz in Deutschland fördert, am Fraunhofer IML Hunderte Roboter in virtuellen Welten. Ziel ist, dass die Maschinen üben und lernen, mit Störungen und Varianten ähnlicher Situationen umzugehen – und dann selbst Varianten anbieten. Dafür kommt eine Art Belohnungssystem für Roboter zum Einsatz: So lernen sie leichter aus Fehlern und wählen den schnellsten und effektivsten Weg zum Ziel.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
inVISION Day Metrology 2024

inVISION Day Metrology 2024

Am 16. Mai 2024 findet zum zweiten Mal der inVISION Day Metrology – Digital Conference for Metrology statt. An dem Tag werden in den vier Sessions 3D-Scanner, Inline Metrology, Surface Inspection sowie CT & X-Ray aktuelle Lösungen und Produkte in zahlreichen 20-minütigen Vorträgen präsentiert.