Implementierung von Edge-Computing-Konzepten

Implementierung von Edge-Computing-Konzepten

Cobots für Post-Corona-Arbeitsumgebungen

Fabriken sind verstärkt herausgefordert, wendig und geschickt zu sein. Anstatt dieselbe Sache hundertmal, tausend- oder gar millionenfach herzustellen, heißt das neue Paradigma Flexibilität, um Geräte und Ausrüstungen rasch umgestalten zu können und dadurch unterschiedliche Builds zu unterstützen. Das kann streng vertrauliche Informationen betreffen, weswegen OEMs beschließen könnten, einige oder die gesamte entsprechende Fertigungssoftware letztendlich selbst zu schreiben. Das Unternehmen, dessen Roboter ein bestimmtes Produkt baut, muss OEM-Software integrieren und sicherstellen können, dass sie nicht die zugrundeliegende Steuersoftware des Roboters beeinträchtigt.

 (Bild: Lynx Software Technologies, Inc.)

(Bild: Lynx Software Technologies, Inc.)

Das Auftauchen von Cobots, die mit Menschen im selben Raum interagieren oder in nächster Nähe sicher arbeiten sollen, ist eine bedeutende Entwicklung. Cobots stehen in deutlichem Kontrast zu herkömmlichen Industrierobotern, die autonom arbeiten bei gewährleisteter Sicherheit durch Trennung von menschlichem Kontakt. Es handelt sich derzeit um einen sehr kleinen Teil des gesamten Robotikmarkts, jedoch um einen Bereich, von dem wir (und eine Anzahl anerkannter Analysten) glauben, dass er in den nächsten fünf Jahren schnell wachsen wird, und zwar für Anwendungen in der Fertigung, dem Gesundheitswesen und im Einzelhandel. Die Corona-Pandemie beschleunigt diesen Trend, da sie die Akzeptanz gegenüber verstärkter digitaler Transformation und Automation erhöht. In Umgebungen, in denen das Einhalten von 2m Abstand zwischen den Menschen schwierig oder ineffizient ist, werden Cobots zuerst eingesetzt werden. Große Kaufhäuser wie Walmart nutzen Roboter bereits zur Fußbodenreinigung ihrer Filialen. Zunehmen wird der Einsatz übergroßer Roombas zum Putzen in Schulen, Firmen und Krankenhäusern. Angesichts der vorhergesagten kurzfristigen Verlangsamung im Rennen um selbstfahrende Fahrzeuge dürften viele Technologieschmieden in diesem Bereich hin zu diesen neuen Use Cases abschwenken, was spannende Spitzentechnologie in die Robotik einbringt. Da Cobots in der Nähe von Menschen agieren, müssen sie ihre Aufgaben zu jeder Zeit deterministisch ausführen. Die Sicherheit eines neben einem Cobot arbeitenden Menschen ist von größter Bedeutung. Es müssen Sicherheitszertifizierungen und Prozesse definiert und strikt eingehalten werden, wenn dieser Markt sich erfolgreich formieren soll. In diesem Bereich liegt reichlich Fokus auf künstlicher Intelligenz, um die Anwendererfahrung mit diesem Maschinentyp zu verbessern. Der Wunsch, die Lebensdauer dieser Plattformen über einen langen Zeitraum zu erhalten, bedeutet, dass ein sicheres Verfahren für Software-Updates notwendig ist, die diesen Plattformen neue Fähigkeiten ermöglicht. Bei einigen der größeren Plattformen verzeichnen wir auch Schritte in Richtung mehr Modularität, um im Laufe der Zeit Hardware-Upgrades zu ermöglichen. Die Hersteller der Cobot-Hardware möchten sich nicht an einen bestimmten Hardware-Anbieter gebunden fühlen, vor allem nicht auf einem so dynamischen Gebiet wie der KI, auf dem es in den kommenden Jahren zu vielen Akquisitionen, Unternehmensauflösungen und Veränderungen im Leistungsführerschaft-Ranking kommen wird.

 (Bild: Lynx Software Technologies, Inc.)

(Bild: Lynx Software Technologies, Inc.)

Konsolidierung der Schnittstelle zwischen IT und OT

Ein zentraler Aspekt der Cobot-Entwicklung ist also, wie man die Schnittstelle zwischen Informationstechnologie (IT) und operativer Technologie (OT) konsolidiert. Wie verbindet man die Konfigurationsanweisungen zu den Roboteraufgaben (IT) mit dem, was in Echtzeit in der Fabrik passiert (OT) – vor allem den schnellen und unberechenbaren Handlungen von Menschen? In Fabrikumgebungen ist ein vergleichsweise langsames Veränderungstempo verständlich, da dort der Fokus auf Zuverlässigkeit gerichtet ist, auf möglichst lange aktive Betriebszeiten, wenig Unfälle und wenig Ausschuss. Bei OT handelt es sich daher um separate Netzwerke, die auf der Ebene der Hauptkonsole mit den IT-Netzwerken verbunden werden. Die Absicht ist, diese Fusion der IT- und der OT-Welt in die Fabrikhalle zu verschieben, sodass die Maschinen fundiertere Entscheidungen schneller treffen können. Doch dieser Herausforderung gilt es innerhalb eines kommerziell attraktiven Kosten-, Leistungs- und Größenrahmens zu begegnen. Das bedeutet, mehrere Systeme auf einem einzigen konsolidierten Board zusammenzuschrumpfen (und in immer mehr Fällen einem einzigen heterogenen Multicore-Chip). Diese Systeme müssen funktionsreiche Betriebssysteme wie Linux und Windows ausführen, gleichzeitig aber das Echtzeitverhalten der Muss-immer-auf-diese-Art-reagieren-Elemente auf der Plattform garantieren. Man bezeichnet diese als Systeme mit gemischter Kritikalität. Anwendungen müssen unterteilt werden, um sicherzustellen, dass bestimmte Applikationen nicht zum Ausfall anderer Systemelemente führen. Echtzeitbetriebssysteme auf der Basis eines Einkernprozessors (SCP) sind in der Branche wohlbekannt, die einen Echtzeit-Systementwicklungsprozess eingeführt hat, der auf der Annahme einer konstanten Worst-Case Execution Time (WCET) beruht. Diese besagt, dass das gemessene schlimmst mögliche Laufzeitverhalten einer Software-Aufgabe, wenn allein auf einem einzelnen Kern durchgeführt, gleich bleibt, wenn diese Aufgabe zusammen mit anderen Aufgaben läuft. Diese Grundannahme bildet die Grundlage für die Schedulability Analysis (Analyse des Systemverhaltens), die feststellt, dass eine Ablaufterminierung gefunden werden kann, die alle Aufgaben innerhalb ihrer jeweiligen Fristen beendet. In der Branche ist der Trend zu Mehrkernprozessor (MCP)-Systemen bereits solide etabliert. Viele dieser Multicore-Systeme wurden mit Blick auf die Anforderungen von IT-Anwendungen an Geschwindigkeit und Effizienz entwickelt und erfüllen nicht immer die Vorhersehbarkeitskriterien für Steuerungssysteme in der Avionik, Automobilindustrie oder Industrieautomation. Während die Annahme einer konstanten WCET für Single-Core-Chips korrekt ist, trifft sie wegen Core-übergreifender Interferenzen beim Zugriff auf geteilte Ressourcen NICHT bei derzeitigen Multicore-Chips zu. Interferenzen zwischen Cores können Spitzenauslastungen (Spikes) im Worst-Case-Laufzeitverhalten um mehr als das Sechsfache gegenüber einem Einzelkern verursachen. Hierauf konzentriert sich Lynx und stellt einen sicheren Hypervisor bereit, der Anwendungen sicher partitionieren und isolieren kann, gleichzeitig aber eine Reaktion im Mikrosekundenbereich auf zeitkritische Ereignisse garantiert.

Vernetzte Cobots

Hinzu kommt, dass Cobots notwendigerweise vernetzt sein müssen, nicht nur, um Sensordaten zu teilen und Anweisungen zu erhalten, auch für regelmäßige Sicherheits- und andere Updates. Ein Sicherheitsangriff beeinträchtigt ja nicht nur das System selbst, sondern potentiell jedes Gerät, auf das über die betreffende Netzwerkverbindung zugegriffen werden kann. Sicherheit muss von Anfang an miteindesignt werden anstatt im Nachhinein. Viele Angriffe haben gezeigt, dass ein komplexes System immer nur so stark ist wie sein schwächstes Glied. Vor allem industrielle Systeme haben eine lange Lebenszeit und sind manchmal über zehn Jahre oder länger im Einsatz. Der Systemarchitekt muss beim Designen bedenken, dass über einen solchen Zeitraum kein System 100-prozentig sicher zu halten ist. Es können z.B. inzwischen neue Bedrohungen auftauchen, Änderungen am System selbst vorgenommen werden, oder aber an den verbundenen Systemen, was sich dann sicherheitsgefährdend auswirkt. Stattdessen bedarf es der Früherkennung einer Systembeeinträchtigung, verbunden mit einem Weg, es zu seinem letzten bekannten guten Zustand wiederherzustellen. Und, da es sich um keine statische Umgebung handelt, muss das System neue Software datensicher herunterladen können, um die Hindernisse gegen Angriffe hochzuhalten oder tatsächlich zu erhöhen. Aus Softwareperspektive muss das System dafür ausgelegt sein zu gewährleisten, dass es sich nach dem Booten nicht umkonfigurieren lässt und dass keine Anwendung aus Zufall (oder böser Absicht) in der Lage ist, einen Ausfall des Roboters zu verursachen. Ein Lynx-System mit einem Separation Kernel kann diese Anforderungen erfüllen. Die Laufzeitarchitektur ist unten dargestellt. In den meisten Implementierungen laufen zwei Plattform-Kernel:

  1. Der Separation Kernel, der die physikalische Hardware steuert.
  2. Der OS-Kernel, der die Gastanwendungen hostet.

Dieses Konzept führt eine zusätzliche Abstraktionsschicht ein. Zum Vergleich: In typischen OS-Designs ist die Hardwaresteuerung mit dem OS-Kernel integriert. Hier ist der Separation Kernel die einzige Software mit Zugriff auf die physikalische Hardware; die Anwendungs-Kernel haben keinen Zugang zur echten Hardware und können lediglich abgebildete Ressourcen (mapped resources) verwalten. Bei diesem Softwaregestützten Hardware-Partitionierungs-Modell (Software-assisted Hardware Partitioning Model), wie es Lynx bezeichnet, sind alle Partitionsgrenzen von Anwendungsräumen ausschließlich hardwaregestützt, nach einem von einem Architekten bewusst gestalteten und formal beschriebenen Modell. Verletzt in diesem Modell eine Applikation eine Partitionsgrenze, bekommt zunächst die Hardware die Verletzung mit und fragt dann beim Separation Kernel Hypervisor nach Software-Unterstützung an, um den Ausnahmefall zu managen.

Seiten: 1 2Auf einer Seite lesen

Lynx Software Technologies, Inc.
www.lynx.com

Das könnte Sie auch Interessieren

Bild: Fraunhofer-Institut IML
Bild: Fraunhofer-Institut IML
Belohnung als 
Anreiz zum Lernen

Belohnung als Anreiz zum Lernen

KI-Entwickler Julian Eßer trainiert Roboter, sich intelligent zu verhalten. Denn das Entscheidende ist, dass die Maschinen nicht nur bei kalkulierbaren Ereignissen richtig handeln. Vor allem müssen sie auch in unvorhergesehen Situationen das Richtige tun. Dafür testet er als Mitglied des AI Grids, einer Initiative des Bundesforschungsministeriums, die vielversprechende Talente in künstlicher Intelligenz in Deutschland fördert, am Fraunhofer IML Hunderte Roboter in virtuellen Welten. Ziel ist, dass die Maschinen üben und lernen, mit Störungen und Varianten ähnlicher Situationen umzugehen – und dann selbst Varianten anbieten. Dafür kommt eine Art Belohnungssystem für Roboter zum Einsatz: So lernen sie leichter aus Fehlern und wählen den schnellsten und effektivsten Weg zum Ziel.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
inVISION Day Metrology 2024

inVISION Day Metrology 2024

Am 16. Mai 2024 findet zum zweiten Mal der inVISION Day Metrology – Digital Conference for Metrology statt. An dem Tag werden in den vier Sessions 3D-Scanner, Inline Metrology, Surface Inspection sowie CT & X-Ray aktuelle Lösungen und Produkte in zahlreichen 20-minütigen Vorträgen präsentiert.