Anzeige

Roboter lernt Hand/Auge-Koordination

Greifen lernen im neuronalen Netz

Ein zweimonatiges Experiment von Google Research hat es gezeigt: Aufgrund künstlicher neuronaler Netzwerke sind Roboter schon heute in der Lage, selbstständig zu lernen. 14 Roboterarme zeigten nach 800.000 Greifvorgängen erste Anzeichen für intelligentes, vorausschauendes Handeln.

In einem Experiment von Google Research lernten die Robotergreifer, einen Gegenstand erst beiseite zu schieben, um einen anderen besser greifen zu können. (Bild: Google Research Blog)

Noch immer klafft eine große Lücke zwischen den Fähigkeiten des Menschen und den Fähigkeiten heutiger Roboter, selbst wenn es um vermeintlich einfache Dinge wie das Greifen geht. Ein Kleinkind greift bereits nach wenigen Monaten gezielt nach Gegenständen und hat den Greifvorgang nach vier Jahren weitestgehend perfektioniert. Auch Roboter sollen jetzt (eigenständig) besser greifen lernen: In einem Experiment von Google Research ließen die Verantwortlichen 14 Roboterarme, ausgestattet mit Zweifingergreifern und einer monokularen RGB-Kamera, zwei Monate lang chaotisch angeordnete Gegenstände aus einem Behälter greifen. Bei den Gegenständen handelte es sich um Haushalts- und Büroartikel, wie Quietscheentchen, Plastikbecher, Tacker oder Bleistifte. Die Roboter waren dabei über ein künstliches neuronales Netzwerk miteinander verbunden und führten die Greifvorgänge parallel aus.

Überwachung der Greifvorgänge

Anfangs führten die Roboter die Greifvorgänge völlig beliebig aus, nur wenige waren erfolgreich. Doch dann ließen die Google-Mitarbeiter die Ergebnisse der Greifvorgänge in das neuronale Netz einfließen. Die Analyse aus Kamerabild und Greifbewegung wurde in den Inner Loop der Servosteuerung eingespeist. Daraufhin justierten die Roboter ihre Bewegungen in Echtzeit und vergrößerten so die Chance auf einen erfolgreichen Greifvorgang. Durch die eigene Überwachung ihrer Greifvorgänge lernten die Roboter nach und nach, diese immer weiter zu verbessern, und entwickelten eine eigene Hand/Auge-Koordination.

Vorausschauendes Verhalten

Nach 800.000 Greifvorgängen und 3.000 Roboterstunden kamen erste Anzeichen von intelligentem, vorausschauendem Handeln zum Vorschein. So zeigten die Roboter interessante Verhaltensweisen noch vor dem eigentlichen Greifvorgang. Sie schoben beispielsweise einen Gegenstand erst zur Seite, um einen anderen besser greifen zu können, oder änderten die Position eines Gegenstandes. Die Fehlerrate bei den Greifvorgängen sank daraufhin auf 18 Prozent. Vergleichbare Open-Loop-Anordnungen verfügen dagegen über eine Fehlerrate von 34 Prozent. Das Experiment von Google Research bedeutet somit einen ersten Schritt in die Richtung von Robotersystemen, die die Auswirkung ihres Handelns selbst verstehen können. Diese Form des Large-Scale Mashine Learning wird möglicherweise die Entwicklung im Bereich Robotik und Automation weiter voranbringen und den Weg für neue Roboterapplikationen ebnen. (fiz)

Roboter lernt Hand/Auge-Koordination
In einem Experiment von Google Research lernten die Robotergreifer, einen Gegenstand erst beiseite zu schieben, um einen anderen besser greifen zu können. (Bild: Google Research Blog)


Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Am vergangenen Dienstag ist der Automation Product Newsletter zum 300. Mal erschienen. Digitale Kanäle haben auch in den Fachmedien der Automatisierungsbranche längst einen hohen Stellenwert, z.B. dann, wenn es um spannende Produktneuheiten geht, die auf den Markt kommen.‣ weiterlesen

Der niederländische Systemintegrator VanRiet gehört ab sofort zu Material Handling Systems, einem Unternehmen der Investmentgesellschaft Thomas H. Lee Partners.‣ weiterlesen

Das Sicherheitssystem Safe Robotics Area Protection von Sick soll eine prozessorientierte Absicherung kooperativer Roboterapplikationen ermöglichen. Es besteht aus der Sicherheitssteuerung Flexi Soft und einem Sicherheits-Laserscanner – entweder dem platzsparenden S300 Mini Remote für kürzere Reichweiten oder dem MicroScan3 Core für größere Überwachungsfelder.‣ weiterlesen

Der Roboter Panda, den Voith auf der Automatica vorgestellt hat, soll die Fertigung durch einen Systemanbieteransatz verbessern, der auch kundenspezifische Anwendungen und Prozessintegration beinhaltet. Plattform- und herstellerunabhängig soll der Roboter die Integrationskosten für die Anwender verringern.‣ weiterlesen

Gudrun Litzenberger, Generalsekretärin der International Federation of Robotics (IFR), hat während der vergangenen Automatica den Joseph F. Engelberger Robotics Award erhalten.‣ weiterlesen

Isra Vision präsentiert den 3D Sensor X-Gage3D, der mit vier hochauflösenden Kameras und einer Hochleistungs-LED ausgestattet ist. Die Multistereotechnik erstellt laut Anbieter eine vollständige, besonders feine Punktewolke, da stereometrische Aufnahmen mit sechs verschiedenen Kamerapaaren möglich werden.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige