360°-Time-of-Flight-Sensor mit großem Sichtfeld für die Robotik

360°-Time-of-Flight-Sensor mit großem Sichtfeld für die Robotik

Mehr im Blick

Der omnidirektionale 360°-Time-of-Flight-Sensor von Jabil Optics bietet mit seinem weiten Sichtfeld einen Vorteil gegenüber bereits auf dem Markt existierenden Lösungen.

Im Gegensatz zu herkömmlichen ToF-Kameras ermöglicht das Sichtfeld des omnidirektionalen 360°-Time-of-Flight-Sensors von Jabil Optics eine nahtlose Erkennung, Klassifizierung und Verfolgung von Objekten im Fahrweg eines Roboters. (Bild: Jabil Optics Germany GmbH)

Im Gegensatz zu herkömmlichen ToF-Kameras ermöglicht das Sichtfeld des omnidirektionalen 360°-Time-of-Flight-Sensors von Jabil Optics eine nahtlose Erkennung, Klassifizierung und Verfolgung von Objekten im Fahrweg eines Roboters. (Bild: Jabil Optics Germany GmbH)

Auf dem Markt befindliche ToF-Systeme müssen bisher immer einen Kompromiss aus Reichweite, großem, aber planarem Sichtfeld oder Rundumblick mit einer sehr eingeschränkten, vertikalen Auflösung eingehen. Jabil Optics hat dieses Problem erkannt und einen neuen Sensor entwickelt, der zugleich ein großes horizontales als auch vertikales Sichtfeld besitzt. Aus der Kombination neu entwickelter optischer Komponenten und einem aktiven Beleuchtungsansatz ist so ein völlig neuer 3D-ToF-Sensor entstanden. Im Gegensatz zu herkömmlichen ToF-Kameras ermöglicht das Sichtfeld des omnidirektionalen Sensors eine nahtlose Erkennung, Klassifizierung und Verfolgung von Objekten im Fahrweg eines Roboters. Die 360°-ToF-Optik eliminiert nahezu sämtliches Streulicht. Die Nutzung von Szeneninformationen zur dynamischen Beleuchtung vermindern zudem Sensorrauschen sowie Interferenzen und verbessern gleichzeitig sowohl Datenqualität als auch Energiemanagement. Besonders herausfordernd bei der Entwicklung waren die komplexen Kalibrierungsalgorithmen, um eine konstant hohe Genauigkeit im gesamten Sichtfeld des Sensors zu erreichen.

 (Bild: Jabil Optics Germany GmbH)

(Bild: Jabil Optics Germany GmbH)

ToF-Grenzen der Bildgebung erweitern

Der Sensor liefert in der aktuellen Ausbaustufe in einem horizontalen Sichtfeld von 270° Intensitäts- und 3D-Informationen. Eine Erweiterung des Sichtfelds auf 360° ist möglich und wurde in einem Prototyp bereits getestet. Anstatt wie bisher üblich drei bis vier ToF-Sensoren zu verbauen und deren Bilder zusammenzusetzen, reicht nun ein einzelner Sensor für den Rundumblick. Die 360°-Optik wurde für die Sensorauflösung von 640×480 Pixel entsprechend angepasst. In der vertikalen Richtung sind 60° darstellbar, sodass auch Überhänge, Durchfahrten und die Navigation unter Regalen möglich sind. Aufgrund der hohen Reichweite von mehr als 5m und 30fps werden relevante Hindernisse frühzeitig in die Betrachtungen des Roboters mit einbezogen, was auch bei hohen Geschwindigkeiten eine sichere Navigation ermöglicht.

Als weiteres Alleinstellungsmerkmal wird eine API angeboten, mit dem Anwender ihre eigene Software, Programme und Algorithmen direkt im Sensor ausführen und damit die Datenvorverarbeitung beschleunigen können. Ein entsprechend performanter i.MX8M Quad ARM Cortex-A53 inklusive GPU ist dafür vorhanden. Für die externe Kommunikation stehen 1G Ethernet, USB, WiFi und Bluetooth zur Verfügung. Zur einfachen Sensorintegration wird eine entsprechende ROS-Schnittstelle angeboten, sodass unter anderem Rohbilddaten, vorverarbeitete 3D-Tiefeninformationen, Point-Cloud-, oder SLAM-Daten einfach übertragen und ausgewertet werden können. Zum Ausrichten und Testen des Sensors reicht ein Smartphone, Tablet oder Laptop mit WiFi-Schnittstelle aus, um die 3D-Bilddaten binnen Sekunden ohne weitere Software darzustellen.

Die omnidirektionale Sensorarchitektur wurde unter Berücksichtigung der zugrunde liegenden Technologien modular aufgebaut, sodass eine einfache Adaptierung von Innovationen der bildgebenden Sensoren (iToF, dTOF und SPAD) und der Beleuchtung (LED, VCSEL und kantenemittierender Laser) möglich ist. Darüber hinaus ist die Verwendung der Plattform für NIR und SWIR möglich. Der omnidirektionale Sensor in seiner aktuellen Ausbaustufe stellt somit lediglich eine von vielen Möglichkeiten bei der Implementierung dar.

www.jabil.com

Das könnte Sie auch Interessieren

Bild: KUKA AG
Bild: KUKA AG
Cobot-Einsatz in der Qualitätssicherung

Cobot-Einsatz in der Qualitätssicherung

Zur Qualitätssicherung des neuen Mahlwerks für die neue Kaffeemarke Ligre hinsichtlich Langlebigkeit und Einhaltung des voreingestellten Kaffeegewichts setzten die Entwicklungstechniker von Gronbach in einem Testaufbau auf die Unterstützung durch den Cobot LBR iisy von Kuka.

Bild: Fraunhofer-Institut IML
Bild: Fraunhofer-Institut IML
Belohnung als 
Anreiz zum Lernen

Belohnung als Anreiz zum Lernen

KI-Entwickler Julian Eßer trainiert Roboter, sich intelligent zu verhalten. Denn das Entscheidende ist, dass die Maschinen nicht nur bei kalkulierbaren Ereignissen richtig handeln. Vor allem müssen sie auch in unvorhergesehen Situationen das Richtige tun. Dafür testet er als Mitglied des AI Grids, einer Initiative des Bundesforschungsministeriums, die vielversprechende Talente in künstlicher Intelligenz in Deutschland fördert, am Fraunhofer IML Hunderte Roboter in virtuellen Welten. Ziel ist, dass die Maschinen üben und lernen, mit Störungen und Varianten ähnlicher Situationen umzugehen – und dann selbst Varianten anbieten. Dafür kommt eine Art Belohnungssystem für Roboter zum Einsatz: So lernen sie leichter aus Fehlern und wählen den schnellsten und effektivsten Weg zum Ziel.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
inVISION Day Metrology 2024

inVISION Day Metrology 2024

Am 16. Mai 2024 findet zum zweiten Mal der inVISION Day Metrology – Digital Conference for Metrology statt. An dem Tag werden in den vier Sessions 3D-Scanner, Inline Metrology, Surface Inspection sowie CT & X-Ray aktuelle Lösungen und Produkte in zahlreichen 20-minütigen Vorträgen präsentiert.