RoboCup@Work - Der RoboCup für die Industrie
- InnoHub
- Track Smart Automation

Innerhalb des Tracks Smart Automation des Vorhabens InnoFaktur, arbeiten wir gemeinsam mit unseren Mitgliedern am Einsatz kollaborativer Roboter in der Industrie. Der Wettbewerb RoboCup@Work beinhaltet spezifische Skills, die als Grundlage für vielfältige Anwendungen im industriellen Umfeld dienen.
Welche Skills wir in unseren Projekten umsetzen und wieso der RoboCup@Work für unsere Arbeit mit den Unternehmen dieser Region relevant ist, erfährst du in diesem Blogbeitrag.
Ein Wettbewerb für kollaborative Roboter in der Industrie
RoboCup@Work ist ein jährlicher stattfindender, internationaler Wettbewerb. Teams treten gegeneinander an und bewältigen dabei eine Reihe von industrienahen Aufgaben. Das Ziel des Wettbewerbs ist es, Lösungen für industrielle Anwendungen zu verbessern.
Das zentrale Equipment ist eine mobile Plattform (auch Autonomous Mobile Robot, AMR genannt), auf der ein kinematischer Roboterarm montiert ist. Der Roboter erhält Befehle von einer Schiedsrichtereinheit und muss autonom durch eine Arena navigieren und dort aufgestellt Aufgaben selbstständig durchführen.
Die Teams erhalten Punkte für jede korrekt ausgeführte Aufgabe. Um diese Aufgaben zu bestehen, müssen die Roboter über bestimmte Skills verfügen, die auch in der Industrie angewandt werden, wie beispielsweise die Objekterkennung, das Greifen von Objekten und das präzise Platzieren dieser Objekte.

Indem wir Wettbewerb und reale Herausforderungen verbinden, erkunden wir Möglichkeiten aus einer praxisorientierten Perspektive, um Innovationen in der Robotik für die Industrie von morgen voranzutreiben.
Yuvesh Chandra Aubeeluck | Wissenschaftlicher Mitarbeiter
Anwendungsbereiche in der Industrie - Skills im RoboCup@Work Wettbewerb
Unter „Skills“ werden grundlegenden Anforderungen gefasst, die ein teilnehmender Roboter beim RoboCup-Wettbewerb erfüllen muss. Innerhalb der Projekte mit unseren Mitgliedsunternehmen konzentrieren wir uns auf drei wichtige Fähigkeiten, die im industriellen Umfeld eingesetzt werden sollen.
1. Objekterkennung
Welche Objekte befinden sich auf dem erfassten Bild und wo sind sie lokalisiert?
Die Objekterkennung bietet die Grundlage für industrielle Roboter, um die Umgebung wahrzunehmen und mit ihr zu interagieren. Zentral bei der Objekterkennung ist das Verständnis von grundlegenden Bildkonzepten wie Pixel, Auflösung, Farbräume und beruht anfangs auf dem frühen maschinellem Lernen sowie mittlerweile auf Deep-Learning-Architekturen.
Welche Systemhardware für die industrielle Objekterkennung notwendig ist:
- Auswahl geeigneter Sensorik: RGB- und Tiefenkameras liefern wichtige Bild- und 3D-Daten für die Objekterkennung.
- Optimale Bildqualität durch Beleuchtung: Die richtigen Beleuchtungssysteme sichern Bildqualität und vermeiden Störungen
- Robuste Hardware: Leistungsstarke Rechenhardware und stabile Montage sind essenziell für den Einsatz.
Wie Software in der Objekterkennung Hardware und Algorithmen verbindet:
- Frameworks und Tools: Bildverarbeitungsbibliotheken, Deep-Learning-Frameworks wie PyTorch und verbindende Austauschformate bilden die Softwarebasis
- Sensorkalibrierung: Setzt Bilddaten in Bezug zur realen Welt
- Inferenzprozess: Umfasst Datenvorbereitung, Modellausführung und Nachbearbeitung zur genauen Objekterkennung.

6D-Lageschätzung: Der Schlüssel zur präzisen Objekterkennung:
Die 6D-Lageschätzung ist entscheidend, damit Roboter nicht nur erkennen, was ein Objekt ist, sondern auch wo es sich im Raum befindet und wie es orientiert ist – eine Voraussetzung für präzises Greifen und Manipulieren und damit Voraussetzung für den RoboCUp@Work.
2. Objekte greifen
Wie Roboter Objekte nicht nur erkennen, sondern gezielt greifen
Nach der Objekterkennung beginnt im RoboCup@Work Wettbewerb der nächste Schritt: das gezielte Greifen. Grundlage dafür ist die präzise Berechnung der Objektpose (Position & Orientierung im dreidimensionalen Raum), die vom Kamerakoordinatensystem ins Roboterkoordinatensystem übertragen wird.
Das Greifen erfolgt meist mit einem Zwei-Finger-Parallelgreifer an einem 6-Achs-Roboterarm.Der Punkt, an dem der Greifer mit einem Objekt in Kontakt tritt oder es aufnimmt, wird als Tool Centre Point (TCP) bezeichnet.

Welche technischen Grundlagen für das robotische Greifen notwendig sind:
Kamerabild wird zu Greifkoordinaten: Die 3D-Pose eines Objekts wird aus einem 2D- und Tiefenbild ermittelt. Das Kamerakoordinatensystem und wird ins Roboter-Koordinatensystem übertragen.
Greifen mit vier Freiheitsgraden (4-DoF): Objekte werden von oben gegriffen. Die Bewegung beschränkt sich dann auf x-, y-, z-Koordinaten plus eine Drehung um die z-Achse (Rz).
Kinematik: Der Greifpunkt (TCP) wird genau berechnet – Vorwärts- und Inverskinematik bestimmen die Bewegung.
Kalibrierung: Innere und äußere Kameraeigenschaften müssen exakt bekannt sein.
Greifstrategien in der Praxis: Vorgegebene Abläufe oder einfache Heuristiken reichen oft für Pick-and-Place. Typische Anwendungen sind z.B. Sortieren, Einsetzen, Umlegen.
Greifen ist deshalb ein zentrales Element bei RoboCup@Work, weil es die Brücke zwischen „sehen“ und „handeln“ bildet: Erst durch die Kombination aus Objekterkennung und gezielter Manipulation wird autonome Robotik praktisch umsetzbar.

Wir bringen einem Roboter die grundlegenden menschlichen Arbeitsabläufe bei: Mit seinen „Augen“ sehen (Objekterkennung), mit seinen „Händen“ interagieren (Greifen) und zielgerichtet bauen (präzise Platzierung). Die Beherrschung dieser kompletten „Sehen-Handeln-Bauen“-Schleife ist die zentrale Herausforderung bei der Entwicklung wirklich nützlicher, kollaborativer Roboter.
Abilash Madavath | Wissenschaftlicher Mitarbeiter
3. Präzisionsplatzierung von objekten
Was passiert, nachdem ein Objekt gegriffen wurde?
Damit Roboter bei RoboCup@Work oder in der Industrie mehr sind als bloße Transporthelfer, müssen sie Objekte zielgenau an einem definierten Ort platzieren. Diese Fähigkeit erfordert exakte Lageinformationen, kontrollierte Bewegungen und eine abgestimmte Freigabestrategie und ist damit ein echtes Zusammenspiel aus Kinematik, Sensorik und Software.
Welche Kernkonzepte notwendig sind:
- Definition einer 6D-Zielposition in einer 4×4-Transformationsmatrix: Es kann eine feste Position in einem statischen System sein oder eine relative Position in Bezug zu einem anderen Objekt.
- Roboterbewegung: Der Roboter folgt einem geplanten Pfad bestehend aus Anfahrbewegung, finale Platzierungsbewegung & Rückzugsbewegung.
- Greifer Steuerung: Festlegung einer Freigabestrategie, z.B. Finger öffnen oder Saugwirkung deaktivieren. Wichtig hierbei ist das Timing der Freigabe sowie das Kraft-Feedback nach Berührung der Ablagefläche.
Wie der Implementierungs-Workflow abläuft:
- Übersetzung des übergeordnete Ziels in eine Reihe konkreter Befehle, wichtig sind hier klare und genaue Eingabedaten (aktuelle Objektlage, Zielposition, Greif-Transformation und Kollisionsumgebung)
- Berechnung der Platzierungs-Pipeline (des Bewegungsplans), also die Planung und Ausführung der verschiedenen Roboterbewegungen mit den jeweiligen Richtungen und Geschwindigkeiten
- Implementierung dieser Daten in Standard-Robotik-Softwares

Die Präzisionsplatzierung verwandelt einen Roboter von einem einfachen Materialtransporter in einen anspruchsvollen Monteur. Dafür muss die die Präsizion in einem letzten Schritt sichergestellt werden, durch ein gut kalibriertes und verifizierbares System.
Zum einen erfolgt die Sicherstellung durch die Hand-Eye-Kalibrierung, der Bestimmung der exakten geometrischen Beziehung zwischen der Roboterbasis und der Kamera. Zum anderen kann die erfolgreiche Platzierung durch eine visuelle Verifikation erfolgen, durch die Verwendung eines Kraft-Feedbacks und einer logischen Verifikation innerhalb eines vorgegebenen Toleranzbereichs.

Mehr erfahren – Exklusive Inhalte für unsere Mitglieder
Du interessierst dich für kollaborative Roboter in der Industrie und du gehörst zu einem unserer Mitgliedunternehmen? Dann findest du auf unserer Wissensdatenbank in Confluence detaillierte Informationen zu den Skills und ihren Anwendungsmöglichkeiten.
Jedes Mitgliedsunternehmen hat Zugriff auf unsere Wissensdatenbank. Wende dich dazu an die verantwortliche Person in deinem Unternehmen oder frag Charline vom InnoHub:
Noch kein Mitglied bei uns?
Dann informier dich hier über eine Mitgliedschaft im InnoHub!
Weitere Beiträge
Unser InnoHUb Newsletter
Werde Teil
unseres Netzwerks
Am Standort Gummersbach in der Halle 51 sowie am B7 Campus in Windeck bieten wir Mitgliedern und allen Interessierten regemäßig Workshops und Veranstaltungen rund um das Thema Digitalisierung und Innovation an.
In unserem Newsletter informieren wir Sie deshalb einmal im Monat über alle zukünftige Events und Aktivitäten.



