Anzeige

Roboter lernt Hand/Auge-Koordination

Greifen lernen im neuronalen Netz

Ein zweimonatiges Experiment von Google Research hat es gezeigt: Aufgrund künstlicher neuronaler Netzwerke sind Roboter schon heute in der Lage, selbstständig zu lernen. 14 Roboterarme zeigten nach 800.000 Greifvorgängen erste Anzeichen für intelligentes, vorausschauendes Handeln.

In einem Experiment von Google Research lernten die Robotergreifer, einen Gegenstand erst beiseite zu schieben, um einen anderen besser greifen zu können. (Bild: Google Research Blog)

Noch immer klafft eine große Lücke zwischen den Fähigkeiten des Menschen und den Fähigkeiten heutiger Roboter, selbst wenn es um vermeintlich einfache Dinge wie das Greifen geht. Ein Kleinkind greift bereits nach wenigen Monaten gezielt nach Gegenständen und hat den Greifvorgang nach vier Jahren weitestgehend perfektioniert. Auch Roboter sollen jetzt (eigenständig) besser greifen lernen: In einem Experiment von Google Research ließen die Verantwortlichen 14 Roboterarme, ausgestattet mit Zweifingergreifern und einer monokularen RGB-Kamera, zwei Monate lang chaotisch angeordnete Gegenstände aus einem Behälter greifen. Bei den Gegenständen handelte es sich um Haushalts- und Büroartikel, wie Quietscheentchen, Plastikbecher, Tacker oder Bleistifte. Die Roboter waren dabei über ein künstliches neuronales Netzwerk miteinander verbunden und führten die Greifvorgänge parallel aus.

Überwachung der Greifvorgänge

Anfangs führten die Roboter die Greifvorgänge völlig beliebig aus, nur wenige waren erfolgreich. Doch dann ließen die Google-Mitarbeiter die Ergebnisse der Greifvorgänge in das neuronale Netz einfließen. Die Analyse aus Kamerabild und Greifbewegung wurde in den Inner Loop der Servosteuerung eingespeist. Daraufhin justierten die Roboter ihre Bewegungen in Echtzeit und vergrößerten so die Chance auf einen erfolgreichen Greifvorgang. Durch die eigene Überwachung ihrer Greifvorgänge lernten die Roboter nach und nach, diese immer weiter zu verbessern, und entwickelten eine eigene Hand/Auge-Koordination.

Vorausschauendes Verhalten

Nach 800.000 Greifvorgängen und 3.000 Roboterstunden kamen erste Anzeichen von intelligentem, vorausschauendem Handeln zum Vorschein. So zeigten die Roboter interessante Verhaltensweisen noch vor dem eigentlichen Greifvorgang. Sie schoben beispielsweise einen Gegenstand erst zur Seite, um einen anderen besser greifen zu können, oder änderten die Position eines Gegenstandes. Die Fehlerrate bei den Greifvorgängen sank daraufhin auf 18 Prozent. Vergleichbare Open-Loop-Anordnungen verfügen dagegen über eine Fehlerrate von 34 Prozent. Das Experiment von Google Research bedeutet somit einen ersten Schritt in die Richtung von Robotersystemen, die die Auswirkung ihres Handelns selbst verstehen können. Diese Form des Large-Scale Mashine Learning wird möglicherweise die Entwicklung im Bereich Robotik und Automation weiter voranbringen und den Weg für neue Roboterapplikationen ebnen. (fiz)

Roboter lernt Hand/Auge-Koordination
In einem Experiment von Google Research lernten die Robotergreifer, einen Gegenstand erst beiseite zu schieben, um einen anderen besser greifen zu können. (Bild: Google Research Blog)


Das könnte Sie auch interessieren

Die semiautomatische Kommissionierlösung N20 OptiPick von Linde hilft dabei, im Lager unnötige Wege zwischen Fahrzeug und Regal zu sparen. Sie besteht aus dem Kommissionierer N20, per Funk gekoppelt mit einem smarten Armband mit Fernsteuerung.‣ weiterlesen

Anzeige

Agile1500 ist das erste automatisierte Transportsystem innerhalb der neuen FTS-Plattform von Comau und ist als modulares, skalierbares und vollständig rekonfigurierbares System in der Lage, bis zu 1.500kg mit einer Maximalgeschwindigkeit von 1,7m/s zu transportieren. Mit diesen Eigenschaften dient es z.B. dazu, die Just-in-Time- und Just-in-Sequence-Produktion zu vereinfachen, werksinterne Logistikabläufe sowie die Lagerverwaltung und die Produktionseffizienz zu verbessern.‣ weiterlesen

Anzeige

Das mobile Robotersystem HelMo von Stäubli ist ein autonom fahrendes und navigierendes Robotersystem, das speziell für die Mensch/Roboter-Kollaboration entwickelt wurde. Drei integrierte Laserscanner sichern die Umgebung permanent ab und sorgen für eine exakte Navigation.‣ weiterlesen

Anzeige

Automatisierte Lager leisten auch im Lebensmittelsektor gute Dienste, was die Produktivität, die Zuverlässigkeit und Wiederholgenauigkeit der Prozesse, die Rückverfolgbarkeit sowie die Qualität der Waren angeht. Dabei erledigen Gegengewichtstapler beispielsweise den Transport der gefüllten Käseboxen sowie den Rücktransport der leeren Boxen in das Regalsystem. Für die Kontrolle der Abläufe sorgt dabei eine Software-Lösung für fahrerlose Transportsysteme.‣ weiterlesen

Anzeige

Im Zuge von Industrie 4.0 halten neue Technologien inzwischen in fast allen Wertschöpfungsbereichen Einzug, so auch in der Logistik. Ein aktuelles Pilotprojekt testet einen Kommissionierroboter bei seinem Einsatz im Schuhlager. Er bewegt sich autonom, greift die Schuhkartons, lagert sie in einem integrierten Regal zwischen und bringt sie anschließend direkt zur Versandstation.‣ weiterlesen

Anzeige

Das Auto der Zukunft fährt autonom, vermeidet Gefahren und sucht sich den freien Parkplatz wie von selbst: Was momentan noch visionär klingt, haben Wissenschaftlerinnen und Wissenschaftler längst als Ziel definiert. Am Institut für Kartographie und Geoinformatik werden dynamische Karten entwickelt, um die Realität zu erfassen und Fahrzeugen ein intelligentes Verhalten zu ermöglichen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige