RoboCup@Work - Der RoboCup für die Industrie

Mitarbeiter des InnoHubs arbeiten mit Roboter an Skills für RoboCup

Innerhalb des Tracks Smart Automation des Vorhabens InnoFaktur, arbeiten wir gemeinsam mit unseren Mitgliedern am Einsatz kollaborativer Roboter in der Industrie. Der Wettbewerb RoboCup@Work beinhaltet spezifische Skills, die als Grundlage für vielfältige Anwendungen im industriellen Umfeld dienen. 

Welche Skills wir in unseren Projekten umsetzen und wieso der RoboCup@Work für unsere Arbeit mit den Unternehmen dieser Region relevant ist, erfährst du in diesem Blogbeitrag.

Ein Wettbewerb für kollaborative Roboter in der Industrie

RoboCup@Work ist ein jährlicher stattfindender, internationaler Wettbewerb. Teams treten gegeneinander an und bewältigen dabei eine Reihe von industrienahen Aufgaben. Das Ziel des Wettbewerbs ist es, Lösungen für industrielle Anwendungen zu verbessern.

Das zentrale Equipment ist eine mobile Plattform (auch Autonomous Mobile Robot, AMR genannt), auf der ein kinematischer Roboterarm montiert ist. Der Roboter erhält Befehle von einer Schiedsrichtereinheit und muss autonom durch eine Arena navigieren und dort aufgestellt Aufgaben selbstständig durchführen.

Die Teams erhalten Punkte für jede korrekt ausgeführte Aufgabe. Um diese Aufgaben zu bestehen, müssen die Roboter über bestimmte Skills verfügen, die auch in der Industrie angewandt werden, wie beispielsweise die Objekterkennung, das Greifen von Objekten und das präzise Platzieren dieser Objekte. 

Yuvesh Chandra Aubeeluck

Indem wir Wettbewerb und reale Herausforderungen verbinden, erkunden wir Möglichkeiten aus einer praxisorientierten Perspektive, um Innovationen in der Robotik für die Industrie von morgen voranzutreiben.

Anwendungsbereiche in der Industrie - Skills im RoboCup@Work Wettbewerb

Unter „Skills“ werden grundlegenden Anforderungen gefasst, die ein teilnehmender Roboter beim RoboCup-Wettbewerb erfüllen muss. Innerhalb der Projekte mit unseren Mitgliedsunternehmen konzentrieren wir uns auf drei wichtige Fähigkeiten, die im industriellen Umfeld eingesetzt werden sollen.

1. Objekterkennung

Welche Objekte befinden sich auf dem erfassten Bild und wo sind sie lokalisiert?

Die Objekterkennung bietet die Grundlage für industrielle Roboter, um die Umgebung wahrzunehmen und mit ihr zu interagieren. Zentral bei der Objekterkennung ist das Verständnis von grundlegenden Bildkonzepten wie Pixel, Auflösung, Farbräume und beruht anfangs auf dem frühen maschinellem Lernen sowie mittlerweile auf Deep-Learning-Architekturen.

Welche Systemhardware für die industrielle Objekterkennung notwendig ist:

  • Auswahl geeigneter Sensorik: RGB- und Tiefenkameras liefern wichtige Bild- und 3D-Daten für die Objekterkennung.
  • Optimale Bildqualität durch Beleuchtung: Die richtigen Beleuchtungssysteme sichern Bildqualität und vermeiden Störungen
  • Robuste Hardware:  Leistungsstarke Rechenhardware und stabile Montage sind essenziell für den Einsatz.

Wie Software in der Objekterkennung Hardware und Algorithmen verbindet:

  • Frameworks und Tools: Bildverarbeitungsbibliotheken, Deep-Learning-Frameworks wie PyTorch und verbindende Austauschformate bilden die Softwarebasis
  • Sensorkalibrierung: Setzt Bilddaten in Bezug zur realen Welt
  • Inferenzprozess: Umfasst Datenvorbereitung, Modellausführung und Nachbearbeitung zur genauen Objekterkennung.
Bedienungsdisplay für die Objekterkennung eines Roboterarms

6D-Lageschätzung: Der Schlüssel zur präzisen Objekterkennung:

Die 6D-Lageschätzung ist entscheidend, damit Roboter nicht nur erkennen, was ein Objekt ist, sondern auch wo es sich im Raum befindet und wie es orientiert ist – eine Voraussetzung für präzises Greifen und Manipulieren und damit Voraussetzung für den RoboCUp@Work.

2. Objekte greifen

Wie Roboter Objekte nicht nur erkennen, sondern gezielt greifen

Nach der Objekterkennung beginnt im RoboCup@Work Wettbewerb der nächste Schritt: das gezielte Greifen. Grundlage dafür ist die präzise Berechnung der Objektpose (Position & Orientierung im dreidimensionalen Raum), die vom Kamerakoordinatensystem ins Roboterkoordinatensystem übertragen wird. 

Das Greifen erfolgt meist mit einem Zwei-Finger-Parallelgreifer an einem 6-Achs-Roboterarm.Der Punkt, an dem der Greifer mit einem Objekt in Kontakt tritt oder es aufnimmt, wird als Tool Centre Point (TCP) bezeichnet.

Roboterarm greift nach Objekt

Welche technischen Grundlagen für das robotische Greifen notwendig sind:

  • Kamerabild wird zu Greifkoordinaten: Die 3D-Pose eines Objekts wird aus einem 2D- und Tiefenbild ermittelt. Das Kamerakoordinatensystem und wird ins Roboter-Koordinatensystem übertragen.

  • Greifen mit vier Freiheitsgraden (4-DoF): Objekte werden von oben gegriffen. Die Bewegung beschränkt sich dann auf x-, y-, z-Koordinaten plus eine Drehung um die z-Achse (Rz).

  • Kinematik: Der Greifpunkt (TCP) wird genau berechnet – Vorwärts- und Inverskinematik bestimmen die Bewegung.

  • Kalibrierung: Innere und äußere Kameraeigenschaften müssen exakt bekannt sein.

  • Greifstrategien in der Praxis: Vorgegebene Abläufe oder einfache Heuristiken reichen oft für Pick-and-Place. Typische Anwendungen sind z.B. Sortieren, Einsetzen, Umlegen.

Greifen ist deshalb ein zentrales Element bei RoboCup@Work, weil es die Brücke zwischen „sehen“ und „handeln“ bildet: Erst durch die Kombination aus Objekterkennung und gezielter Manipulation wird autonome Robotik praktisch umsetzbar.

Abilash Madavath

Wir bringen einem Roboter die grundlegenden menschlichen Arbeitsabläufe bei: Mit seinen „Augen“ sehen (Objekterkennung), mit seinen „Händen“ interagieren (Greifen) und zielgerichtet bauen (präzise Platzierung). Die Beherrschung dieser kompletten „Sehen-Handeln-Bauen“-Schleife ist die zentrale Herausforderung bei der Entwicklung wirklich nützlicher, kollaborativer Roboter.

3. Präzisionsplatzierung von objekten

Was passiert, nachdem ein Objekt gegriffen wurde?

Damit Roboter bei RoboCup@Work oder in der Industrie mehr sind als bloße Transporthelfer, müssen sie Objekte zielgenau an einem definierten Ort platzieren. Diese Fähigkeit erfordert exakte Lageinformationen, kontrollierte Bewegungen und eine abgestimmte Freigabestrategie und ist damit ein echtes Zusammenspiel aus Kinematik, Sensorik und Software.

Welche Kernkonzepte notwendig sind:

  • Definition einer 6D-Zielposition in einer 4×4-Transformationsmatrix: Es kann eine feste Position in einem statischen System sein oder eine relative Position in Bezug zu einem anderen Objekt.
  • Roboterbewegung: Der Roboter folgt einem geplanten Pfad bestehend aus Anfahrbewegung, finale Platzierungsbewegung & Rückzugsbewegung. 
  • Greifer Steuerung: Festlegung einer Freigabestrategie, z.B. Finger öffnen oder Saugwirkung deaktivieren. Wichtig hierbei ist das Timing der Freigabe sowie das Kraft-Feedback nach Berührung der Ablagefläche.

Wie der Implementierungs-Workflow abläuft: 

  • Übersetzung des übergeordnete Ziels in eine Reihe konkreter Befehle, wichtig sind hier klare und genaue Eingabedaten (aktuelle Objektlage, Zielposition, Greif-Transformation und Kollisionsumgebung)
  • Berechnung der Platzierungs-Pipeline (des Bewegungsplans), also die Planung und Ausführung der verschiedenen Roboterbewegungen mit den jeweiligen Richtungen und Geschwindigkeiten
  • Implementierung dieser Daten in Standard-Robotik-Softwares
Objekte werden präzise von Roboter platziert

Die Präzisionsplatzierung verwandelt einen Roboter von einem einfachen Materialtransporter in einen anspruchsvollen Monteur. Dafür muss die die Präsizion in einem letzten Schritt sichergestellt werden, durch ein gut kalibriertes und verifizierbares System. 

Zum einen erfolgt die Sicherstellung durch die Hand-Eye-Kalibrierung, der Bestimmung der exakten geometrischen Beziehung zwischen der Roboterbasis und der Kamera. Zum anderen kann die erfolgreiche Platzierung durch eine visuelle Verifikation erfolgen, durch die Verwendung eines Kraft-Feedbacks und einer logischen Verifikation innerhalb eines vorgegebenen Toleranzbereichs. 

Mitarbeiter arbeiten am industriellen Roboter an der Platzierung von Objekten, als Aufgabe des RoboCups

Mehr erfahren – Exklusive Inhalte für unsere Mitglieder

Du interessierst dich für kollaborative Roboter in der Industrie und du gehörst zu einem unserer Mitgliedunternehmen? Dann findest du auf unserer Wissensdatenbank in Confluence detaillierte Informationen zu den Skills und ihren Anwendungsmöglichkeiten.

Jedes Mitgliedsunternehmen hat Zugriff auf unsere Wissensdatenbank. Wende dich dazu an die verantwortliche Person in deinem Unternehmen oder frag Charline vom InnoHub:

Noch kein Mitglied bei uns?

Dann informier dich hier über eine Mitgliedschaft im InnoHub!

Unser InnoHUb Newsletter

Werde Teil
unseres Netzwerks

Kontakt zum InnoHub via unserem Kontaktformular

Anfahrt

Parkhaus Forum

Steinmüllerallee 5, 51643 Gummersbach

Vom Forum aus links halten, dort befindet sich schon direkt die Halle51.

Parkplatz TH Köln

Ahornweg 12, 51643 Gummersbach

Klingel an der Schranke nutzen und sagen, dass du zu Gast beim InnoHub bist.

Bahnhof Gummersbach

Den Bahnhof in Richtung Steinmüllergelände verlassen: Der Eingang zum InnoHub befindet auf der linken Seite in der Halle 51.

Achtung: Parken auf dem P&R Parkplatz direkt vor der Halle 51 ist nicht möglich!

Bleib Teil unseres Netzwerks: Der InnoHub-Newsletter

Spannende Einblicke in unsere Projekte, exklusive Event-Infos und Aktuelles von unseren Mitgliedsunternehmen direkt in deinem Postfach.

Kontakt zum InnoHub via unserem Kontaktformular