Robot plays „Rock, Paper, Scissors“ – Part 1/3

Gesture recognition with intelligent camera

I am passionate about technology and robotics. Here in my own blog, I am always taking on new tasks. But I have hardly ever worked with image processing. However, a colleague’s LEGO® MINDSTORMS® robot, which can recognize the rock, paper or scissors gestures of a hand with several different sensors, gave me an idea: „The robot should be able to ’see‘.“ Until now, the respective gesture had to be made at a very specific point in front of the robot in order to be reliably recognized. Several sensors were needed for this, which made the system inflexible and dampened the joy of playing. Can image processing solve this task more „elegantly“?

Rock-Paper-Scissors with Robot Inventor by Seshan Brothers. The robot which inspired me for this project

From the idea to implementation

In my search for a suitable camera, I came across IDS NXT – a complete system for the use of intelligent image processing. It fulfilled all my requirements and, thanks to artificial intelligence, much more besides pure gesture recognition. My interest was woken. Especially because the evaluation of the images and the communication of the results took place directly on or through the camera – without an additional PC! In addition, the IDS NXT Experience Kit came with all the components needed to start using the application immediately – without any prior knowledge of AI.

I took the idea further and began to develop a robot that would play the game „Rock, Paper, Scissors“ in the future – with a process similar to that in the classical sense: The (human) player is asked to perform one of the familiar gestures (scissors, stone, paper) in front of the camera. The virtual opponent has already randomly determined his gesture at this point. The move is evaluated in real time and the winner is displayed.

The first step: Gesture recognition by means of image processing

But until then, some intermediate steps were necessary. I began by implementing gesture recognition using image processing – new territory for me as a robotics fan. However, with the help of IDS lighthouse – a cloud-based AI vision studio – this was easier to realize than expected. Here, ideas evolve into complete applications. For this purpose, neural networks are trained by application images with the necessary product knowledge – such as in this case the individual gestures from different perspectives – and packaged into a suitable application workflow.

The training process was super easy, and I just used IDS Lighthouse’s step-by-step wizard after taking several hundred pictures of my hands using rock, scissor, or paper gestures from different angles against different backgrounds. The first trained AI was able to reliably recognize the gestures directly. This works for both left- and right-handers with a recognition rate of approx. 95%. Probabilities are returned for the labels „Rock“, „Paper“, „Scissor“, or „Nothing“. A satisfactory result. But what happens now with the data obtained?

Further processing

The further processing of the recognized gestures could be done by means of a specially created vision app. For this, the captured image of the respective gesture – after evaluation by the AI – must be passed on to the app. The latter „knows“ the rules of the game and can thus decide which gesture beats another. It then determines the winner. In the first stage of development, the app will also simulate the opponent. All this is currently in the making and will be implemented in the next step to become a „Rock, Paper, Scissors“-playing robot.

From play to everyday use

At first, the project is more of a gimmick. But what could come out of it? A gambling machine? Or maybe even an AI-based sign language translator?

To be continued…

Fertigungsanlage der Zukunft im Modellformat

fischertechnik verdeutlicht Prozesse von Industrie 4.0

Die Lernfabriken von fischertechnik verdeutlichen Prozesse innerhalb einer smarten Fertigung. Ausgestattet mit Sensoren und verbunden mit einer Cloud, lassen sich die Kernthemen digital vernetzter Produktion physisch visualisieren und begreifbar demonstrieren. Auf der SPS Messe, die vom 8. bis 10. November in Nürnberg stattfindet, präsentiert fischertechnik seine Lernfabriken mit Cloud-Anbindung in Halle 4, Stand-Nummer 155.

Mit den fischertechnik Lernfabriken lassen sich Industrie-4.0-Anwendungen simulieren und begreifen. Das Nachstellen der detailgetreuen Prozesse einer zukunftsweisenden Fabrikanlage ermöglicht ein tiefes Verständnis von Vorgängen innerhalb der digitalen Transformation. Dies macht die fischertechnik Lernfabrik zum Mittel der Wahl, um in technischen Ausbildungsgängen wie beispielsweise in der Mechatronik Prozesse in der Fertigung zu verdeutlichen und SPS-Programmierung zu lernen. 

Alle fischertechnik Trainings- und Simulationsmodelle werden fertig gebaut geliefert. Aufgrund ihrer kompakten Abmessungen und durch die Montage auf einer stabilen Grundplatte lassen sie sich leicht transportieren und können somit an Berufsschulen, Universitäten, in Ausbildungsbetrieben, aber auch auf Messen oder Veranstaltungen zur Demonstration eingesetzt werden. 

fischertechnik hat hohe Ansprüche an Qualität und Nachhaltigkeit. Auch auf Datensicherheit legt der Konstruktionsbaukastenhersteller „Made in Germany“ größten Wert. Die Server für die Cloud befinden sich in Deutschland. Damit wird gewährleistet, dass für die Speicherung der Daten die EU-Datenschutzgrundverordnung eingehalten wird. Persönliche Informationen werden in einem Account mit Passwortzugang geschützt, der den sehr sicheren „OAuth2“ Industrie-Standard verwendet. Auch bei der Datenübertragung an die Cloud wird Wert auf Datensicherheit gelegt: Alle gesendeten Daten werden mit Zertifikaten verschlüsselt übertragen.

Robotersteuerung schnell und einfach in der Cloud programmiert –

Synapticon macht MOTORCORTEX als Online-Version verfügbar

Böblingen, den 04.08.2022 – Auch in der Welt des Maschinenbaus und der Robotik hat sich Software in den vergangenen Jahren zum entscheidenden Erfolgsfaktor entwickelt. Sowohl die Art und Weise wie Robotersteuerungen entwickelt werden als auch ihre Leistungsfähigkeit in der Praxis sind für die Hersteller von Industrierobotern von großer Bedeutung. Vor diesem Hintergrund hat Synapticon mit MOTORCORTEX.io nun eine bahnbrechende Lösung im SaaS (Software as a Service) Modell vorgestellt. Sie ermöglicht es sehr leistungsfähige, 100% individuelle Robotersteuerungen komfortabel in der Cloud zu entwickeln, auf Steuerungen im Feld bereitzustellen und über einen digitalen Zwilling zu testen. In der Serienproduktion des Roboters bzw. Automatisierungsprodukts kann die individuelle Steuerungs-Software dann in Masse bereitgestellt und auch offline betrieben werden. Dafür können neben Industrie-PCs auch Embedded-Module bis hin zu einem Raspberry Pi eingesetzt werden.

„Die Automatisierung hat in den vergangenen Jahren nochmals deutlich an Fahrt aufgenommen. Tragende Elemente sind dabei unter anderem fahrerlose Transportsysteme (AGV/AMR) sowie Cobots und Leichtbauroboter. Diese Systeme stellen nicht nur neue Herausforderungen an die Hardware, sondern auch an die Software, speziell wenn es um Themen wie Navigation, Sicherheit und das Erlernen von Abläufen geht“, erklärt Nikolai Ensslen, CEO und Gründer von Synapticon. „Die große Herausforderung ist nun für viele Hersteller: Sie müssen ihren Kunden Lösungen anbieten, die preislich attraktiv und immer auf dem neuesten Stand der Technik sind. Die Unternehmen sollen also in der Lage sein, individuelle Steuerungssoftware für ihre Systeme schnell und kosteneffizient zu entwickeln. Hierfür haben wir mit MOTORCORTEX nun eine Lösung im Angebot, die am Markt einmalig ist und welche die Entwicklungszeit von Robotersteuerungen drastisch verkürzt.“

Echtzeit-Steuerungsanwendungen in der Cloud erstellen und auf Offline-Steuerungen deployen sowie aus der Ferne warten

MOTORCORTEX umfasst ein ganzes Paket an Apps bzw. Templates und Tools zum Entwerfen, Steuern, Analysieren und Bereitstellen von industriellen Automatisierungsanwendungen. Dazu gehört beispielsweise auch ein Widget für die einfache grafische Programmierung (“no code”) von Robotern, was im Bereich der Cobots zum Standard wird. Die Plattform für individuelle Roboter- und Maschinensteuerungen ist mit modernster Softwaretechnologie implementiert, erfüllt alle Anforderungen der Automation der Zukunft und ist zugleich hoch leistungsfähig und skalierbar.

Das integrierte Linux-basierte und ressourcenoptimierte Betriebssystem bietet Echtzeitsteuerung von industrieller Hardware über EtherCAT, wie z.B. auf Synapticon SOMANET basierende Antriebsachsen und eine sehr leistungsstarke Kommunikationsschicht für Anwendungen auf höherer Ebene, wie z. B. eine Benutzeroberfläche oder Datenanalysetools. MOTORCORTEX ermöglicht Hochgeschwindigkeits-Streaming-Kommunikation direkt zum Webbrowser ohne Zwischenserver, was in der Industrie eine Wende darstellt. Es ist jetzt möglich, reaktionsschnelle Webanwendungen für eine extrem reibungslose Interaktion mit Maschinen zu erstellen. Die Lösung bietet offene APIs für alle wichtigen Programmiersprachen wie Javascript, Python und C++. Diese offene Architektur bietet viel mehr Freiheiten als aktuelle industrielle Steuerungssysteme und ermöglicht echte Industrie 4.0-Anwendungen mit nur wenigen Codezeilen. Die Kommunikation mit umgebenden bzw. höher liegenden Steuerungseinheiten wird über OPC UA unterstützt.

„Die Nutzung von MOTORCORTEX ist so einfach wie das Einrichten einer einfachen Webseite. Mit etwas Konfigurationsarbeit und ein paar Zeilen Code können sich Entwickler von jedem Webbrowser aus direkt und sicher mit ihrer Maschine verbinden und schnell Daten austauschen. Kein anderes industrielles Steuerungssystem ist so einfach und flexibel für anspruchsvolle und moderne Steuerungsaufgaben einzurichten“, erklärt Nikolai Ensslen. „Anwendungen, die auf MOTORCORTEX basieren, teilen alle ihre Daten automatisch in der darunterliegenden Echtzeitdatenbank, so dass externe Anwendungen oder Dienste einfach und sicher auf die Daten zugreifen können.“

Entwicklung beschleunigt, Kosten gesenkt

Erste Projekte mit Kunden zeigen, dass es Entwicklern mit MOTORCORTEX in der Cloud gelingt, den Entwicklungsprozess von Software um bis zu 90% zu reduzieren. Zugleich sinken tatsächlich die Kosten für die Softwareentwicklung deutlich, da MOTORCORTEX auf ein einfaches Lizenzmodell ohne zusätzliche Kosten für Wartung und Weiterentwicklung setzt. Da MOTORCORTEX zudem vollkommen Hardware-unabhängig ist, bleibt es den Entwicklern freigestellt, welche Hardware-Komponenten sie für die Entwicklung ihrer Steuerungssoftware nutzen. Ideale Resultate und höchste Effizienz verspricht dabei die Kombination der MOTORCORTEX-Software mit den SOMANET-Servoantrieben aus dem Motion Control-Portfolio von Synapticon.

MOTORCORTEX hat nicht den Anspruch, der eigenen Softwareentwicklung von Roboterherstellern oder innovativen Steuerungslösungen von Drittanbietern, etwa zum einfachen Teachen von Robotern oder für die Integration von Bildverarbeitung und KI, zuvor zu kommen bzw. diese zu ersetzen. Die Plattform soll vielmehr als solide Grundlage für diese dienen und die Entwickler in der Basis entlasten.

„MOTORCORTEX versteht sich, ebenso wie die SOMANET-Elektroniken, als im Endprodukt versteckte Infrastruktur. Sie soll ein leistungsfähiges, zuverlässiges Fundament für die modernsten und innovativsten Robotersteuerungen zur Verfügung stellen. Wir sehen uns als Technologie- und Infrastrukturpartner der besten Innovatoren in Robotik und Automation,” fasst Nikolai Ensslen zusammen. „Ich bin mir sicher, dass wie in vielen anderen Industriebereichen zukünftig Software auch in der Robotik zu einem wesentlichen und kritischen Unterscheidungsmerkmal wird. Mit MOTORCORTEX geben wir Unternehmen hierfür die beste Plattform in die Hand, so dass diese sich auf die relevanten Innovationen für Ihre Kunden und die Differenzierung von ihrem Wettbewerb konzentrieren können.“

Mehr Informationen unter www.synapticon.com