At The Bleeding Edge Of Robotics: 2 Year Milestone For pib

2 years ago, the open source robotics project pib was launched. The goal of pib, the printable intelligent bot anyone can build themselves, is to lower the barriers and make robotics and AI accessible to anyone who is interested. Over the past two years, pib has built an active and dedicated community that supports the project in moving forward. Therefore, a lot has happened since the project launch – time to look back on how far pib has come.

Milestones, Challenges and What Comes Next

It’s not every day that a robot turns two years old, so the team celebrated with a big party. The all new pib documentary was streamed to kick off the event, followed by different stations for guests to experience pib’s newest features hands-on.

pib started out as an idea that slowly took shape in the form of a master thesis and a robotic arm. From there, a humanoid robot was created that can easily be 3D printed with the free 3D print files on the website and then built with the help of the building manuals online. pib offers many ways to implement AI trainings such as voice assistant technology, object detection, imitation and more.

For starters, the pib team and the community have optimized pib’s mobility in a joint effort. The result is impressive: In its newest version, pib can now move its arms at basically all angles.  Another rapidly progressing topic is pib’s digital twin which received a birthday present by the community members that took on this project: The camera now works in the virtual environment, enabling the camera stream to be transmitted to the outside world to be analyzed there and then become the base of control processes.

Talk To Me, pib!

Aside from that, there has been some significant progress in the field of human-machine interaction, particularly focusing on enabling voice-based communication with pib through advanced voice assistant technology. Exploring the potential of natural speech interaction has become a significant area of the team’s current efforts and the project is committed to advancing pib’s capabilities in this direction.

One of the newest features that were revealed at the pib party is communication in a multimodal world. The robot captures an image, analyzes it, and then answers questions in relation to the image. For example, when asking pib “where are we right now?” it interprets the room and its setting and will answer something like “we are in an office space”.

With this new feature, pib was also able to play its first round of Tic Tac Toe. The team drew the gameboard on a whiteboard so that pib was able to analyze the current state of the game and determine the next move with commands such as “place the next X in the top right corner”.

Join The Community

The pib community is rapidly growing and consists of 3D printing, robotics and AI enthusiasts. Whether you’re a rookie or an expert, anyone is invited to join, share their ideas and work on exciting projects together.

Robotik auf dem neuesten Stand: 2 Jahre pib als Meilenstein

Vor zwei Jahren wurde das Open-Source-Robotikprojekt pib ins Leben gerufen. Das Ziel von pib, dem printable intelligent bot zum Selberbauen, ist es, die Hürden zu senken und Robotik und Künstliche Intelligenz für alle Interessierten zugänglich zu machen. In den letzten zwei Jahren hat pib eine aktive und engagierte Community aufgebaut, die das Projekt unterstützt und vorantreibt. Seit dem Start des Projekts ist also viel passiert – Zeit, um zurückzublicken, wie weit pib gekommen ist.

Meilensteine, Herausforderungen und was als Nächstes kommt

Es kommt nicht jeden Tag vor, dass ein Roboter zwei Jahre alt wird, also feierte das Team mit einer großen Party. Zum Auftakt der Veranstaltung wurde die brandneue pib-Dokumentation gestreamt, gefolgt von verschiedenen Stationen, an denen die Gäste die neuesten Funktionen von pib selbst ausprobieren konnten.

pib begann als eine Idee, die in Form einer Masterarbeit und eines Roboterarms langsam Gestalt annahm. Daraus entstand ein humanoider Roboter, der mit den kostenlosen 3D-Druckdateien auf der Website einfach in 3D gedruckt und dann mit Hilfe der online verfügbaren Bauanleitungen gebaut werden kann. pib bietet viele Möglichkeiten zur Implementierung von KI-Trainings wie Sprachassistenten, Objekterkennung, Imitation und mehr.

Zunächst einmal haben das pib-Team und die Community gemeinsam die Beweglichkeit von pib optimiert. Das Ergebnis kann sich sehen lassen: In der neuesten Version kann pib seine Arme nun in praktisch allen Winkeln bewegen.  Ein weiteres sich rasant entwickelndes Thema ist der digitale Zwilling von pib, der von den verantwortlichen Community-Mitgliedern ein Geburtstagsgeschenk erhalten hat: Die Kamera arbeitet nun in der virtuellen Umgebung, so dass das Kamerabild in die Außenwelt übertragen werden kann, um dort analysiert zu werden und dann zur Grundlage von Steuerungsprozessen zu werden.

Sprich mit mir, pib!

Darüber hinaus gab es einige bedeutende Fortschritte im Bereich der Mensch-Maschine-Interaktion, insbesondere bei der sprachbasierten Kommunikation mit pib durch fortschrittliche Sprachassistententechnologie. Das Team sieht großes Potenzial in der natürlichen Sprachinteraktion und arbeitet daran, die Fähigkeiten von pib in dieser Hinsicht noch weiter zu optimieren.

Eine der neuesten Funktionen, die auf der pib-Party vorgestellt wurden, ist die Kommunikation in einer multimodalen Welt. Der Roboter nimmt ein Bild auf, analysiert es und beantwortet dann Fragen im Zusammenhang mit dem Bild. Wenn man pib zum Beispiel fragt: „Wo sind wir gerade?“, interpretiert er den Raum und seine Umgebung und antwortet etwa: „Wir sind in einem Büro“.

Mit dieser neuen Funktion konnte pib auch seine erste Runde Tic Tac Toe spielen. Das Team zeichnete das Spielbrett auf ein Whiteboard, so dass pib in der Lage war, den aktuellen Stand des Spiels zu analysieren und den nächsten Zug mit Befehlen wie „platziere das nächste X in der oberen rechten Ecke“ zu bestimmen.

Join The Community

Die pib-Community wächst schnell und besteht aus 3D-Druck-, Robotik- und KI-Enthusiasten. Ob Anfänger oder Experte – jeder ist eingeladen, mitzumachen, seine Ideen zu teilen und gemeinsam an spannenden Projekten zu arbeiten.

Exploring Elephant Robotics LIMO Cobot

1. Introduction:

This article primarily introduces the practical application of LIMO Cobot by Elephant Robotics in a simulated scenario. You may have seen previous posts about LIMO Cobot’s technical cases, A[LINK]B[LINK]. The reason for writing another related article is that the original testing environment, while demonstrating basic functionality, often appears overly idealized and simplified when simulating real-world applications. Therefore, we aim to use it in a more operationally consistent environment and share some of the issues that arose at that time.

2. Comparing the Old and New Scenarios:

First, let’s look at what the old and new scenarios are like.

Old Scenario: A simple setup with a few obstacles, relatively regular objects, and a field enclosed by barriers, approximately 1.5m*2m in size.

New Scenario: The new scenario contains a wider variety of obstacles of different shapes, including a hollowed-out object in the middle, simulating a real environment with road guidance markers, parking spaces, and more. The size of the field is 3m*3m.

The change in environment is significant for testing and demonstrating the comprehensiveness and applicability of our product.

3. Analysis of Practical Cases:

Next, let’s briefly introduce the overall process.

The process is mainly divided into three modules: one is the functionality of LIMO PRO, the second is machine vision processing, and the third is the functionality of the robotic arm. (For a more detailed introduction, please see the previous article [link].)

LIMO PRO is mainly responsible for SLAM mapping, using the gmapping algorithm to map the terrain, navigate, and ultimately achieve the function of fixed-point patrol.

myCobot 280 M5 is primarily responsible for the task of grasping objects. A camera and a suction pump actuator are installed at the end of the robotic arm. The camera captures the real scene, and the image is processed by the OpenCV algorithm to find the coordinates of the target object and perform the grasping operation.

Overall process:

1. LIMO performs mapping.⇛

2. Run the fixed-point cruising program.⇛

3. LIMO goes to point A ⇛ myCobot 280 performs the grasping operation ⇒ goes to point B ⇛ myCobot 280 performs the placing operation.

4. ↺ Repeat step 3 until there are no target objects, then terminate the program.

Next, let’s follow the practical execution process.


First, you need to start the radar by opening a new terminal and entering the following command:

roslaunch limo_bringup limo_start.launch pub_odom_tf:=false

Then, start the gmapping mapping algorithm by opening another new terminal and entering the command:

roslaunch limo_bringup limo_gmapping.launch

After successful startup, the rviz visualization tool will open, and you will see the interface as shown in the figure.

At this point, you can switch the controller to remote control mode to control the LIMO for mapping.

After constructing the map, you need to run the following commands to save the map to a specified directory:

1. Switch to the directory where you want to save the map. Here, save the map to `~/agilex_ws/src/limo_ros/limo_bringup/maps/`. Enter the command in the terminal:

cd ~/agilex_ws/src/limo_ros/limo_bringup/maps/

2. After switching to `/agilex_ws/limo_bringup/maps`, continue to enter the command in the terminal:

rosrun map_server map_saver -f map1

This process went very smoothly. Let’s continue by testing the navigation function from point A to point B.


1. First, start the radar by entering the following command in the terminal:

roslaunch limo_bringup limo_start.launch pub_odom_tf:=false

2. Start the navigation function by entering the following command in the terminal:

roslaunch limo_bringup limo_navigation_diff.launch

Upon success, this interface will open, displaying the map we just created.

Click on „2D Pose Estimate, “ then click on the location where LIMO is on the map. After starting navigation, you will find that the shape scanned by the laser does not overlap with the map. You need to manually correct this by adjusting the actual position of the chassis in the scene on the map displayed in rviz. Use the tools in rviz to publish an approximate position for LIMO. Then, use the controller to rotate LIMO, allowing it to auto-correct. When the shape of the laser scan overlaps with the shapes in the map’s scene, the correction is complete, as shown in the figure where the scanned shape and the map overlap.

Click on „2D Nav Goal“ and select the destination on the map for navigation.

The navigation test also proceeds smoothly.

Next, we will move on to the part about the static robotic arm’s grasping function.

Identifying and Acquiring the Pose of Aruco Codes

To precisely identify objects and obtain the position of the target object, we processed Aruco codes. Before starting, ensure the specific parameters of the camera are set.

Initialize the camera parameters based on the camera being used.

def __init__(self, mtx: np.ndarray, dist: np.ndarray, marker_size: int):
self.mtx = mtx
self.dist = dist
self.marker_size = marker_size
self.aruco_dict = cv2.aruco.Dictionary_get(cv2.aruco.DICT_6X6_250)
self.parameters = cv2.aruco.DetectorParameters_create()

Then, identify the object and estimate its pose to obtain the 3D position of the object and output the position information.

def estimatePoseSingleMarkers(self, corners):
This will estimate the rvec and tvec for each of the marker corners detected by:
corners, ids, rejectedImgPoints = detector.detectMarkers(image)
corners - is an array of detected corners for each detected marker in the image
marker_size - is the size of the detected markers
mtx - is the camera matrix
distortion - is the camera distortion matrix
RETURN list of rvecs, tvecs, and trash (so that it corresponds to the old estimatePoseSingleMarkers())
marker_points = np.array([[-self.marker_size / 2, self.marker_size / 2, 0],
[self.marker_size / 2, self.marker_size / 2, 0],
[self.marker_size / 2, -self.marker_size / 2, 0],
[-self.marker_size / 2, -self.marker_size / 2, 0]], dtype=np.float32)
rvecs = []
tvecs = []
for corner in corners:
retval, rvec, tvec = cv2.solvePnP(marker_points, corner, self.mtx, self.dist, False,
if retval:

rvecs = np.array(rvecs)
tvecs = np.array(tvecs)
(rvecs - tvecs).any()
return rvecs, tvecs

The steps above complete the identification and acquisition of the object’s information, and finally, the object’s coordinates are returned to the robotic arm to execute the grasping.

Robotic Arm Movement and Grasping Operation

Based on the position of the Aruco marker, calculate the target coordinates the robotic arm needs to move to and convert the position into a coordinate system suitable for the robotic arm.

def homo_transform_matrix(x, y, z, rx, ry, rz, order="ZYX"):
rot_mat = rotation_matrix(rx, ry, rz, order=order)
trans_vec = np.array([[x, y, z, 1]]).T
mat = np.vstack([rot_mat, np.zeros((1, 3))])
mat = np.hstack([mat, trans_vec])
return mat

If the Z-axis position is detected as too high, it will be corrected:

if end_effector_z_height is not None:  
p_base[2] = end_effector_z_height

After the coordinate correction is completed, the robotic arm will move to the target position.

# Concatenate x, y, z, and the current posture into a new array
new_coords = np.concatenate([p_base, curr_rotation[3:]])
xy_coords = new_coords.copy()

Then, control the end effector’s API to suction the object.

The above completes the respective functions of the two robots. Next, they will be integrated into the ROS environment.

#Initialize the coordinates of point A and B
    goal_1 = [(2.060220241546631,-2.2297520637512207,0.009794792000444471,0.9999520298742676)] #B
    goal_2 = [(1.1215190887451172,-0.002757132053375244,-0.7129997613218174,0.7011642748707548)] #A
    #Start navigation and link the robotic arm
    map_navigation = MapNavigation()
    arm = VisualGrasping("",9000)
    print("connect successful")

    # Navigate to location A and perform the task
        for goal in goal_1:
        x_goal, y_goal, orientation_z, orientation_w = goal
        flag_feed_goalReached = map_navigation.moveToGoal(x_goal, y_goal, orientation_z, orientation_w)
        if flag_feed_goalReached:
            # executing 1 grab and setting the end effector's Z-axis height to -93.
            print("command completed")

4. Problems Encountered

Mapping Situation:

When we initially tried mapping without enclosing the field, frequent errors occurred during navigation and localization, and it failed to meet our requirements for a simulated scenario.

Navigation Situation:

In the new scenario, one of the obstacles has a hollow structure.

During navigation from point A to point B, LIMO may fail to detect this obstacle and assume it can pass through, damaging the original obstacle. This issue arises because LIMO’s radar is positioned low, scanning only the empty space. Possible solutions include adjusting the radar’s scanning range, which requires extensive testing for fine-tuning, or adjusting the radar’s height to ensure the obstacle is recognized as impassable.

Robotic Arm Grasping Situation:

In the video, it’s evident that our target object is placed on a flat surface. The grasping did not consider obstacle avoidance for the object. In the future, when setting special positions for grasping, this situation needs to be considered.

5. Conclusion

Overall, LIMO Cobot performed excellently in this scenario, successfully meeting the requirements. The entire simulated scenario covered multiple core areas of robotics, including motion control of the robotic arm, path planning, machine vision recognition and grasping, and radar mapping navigation and fixed-point cruising functions of the mobile chassis. By integrating these functional modules in ROS, we built an efficient automated process, showcasing LIMO Cobot’s broad adaptability and advanced capabilities in complex environments.


Elephant Robotics

Elephant Robotics

Festo at Hannover Fair unveils Bionic Honeybees that fly in swarms

For more than 15 years, the Bionic Learning Network has been focusing on the fascination of flying. In addition to the technical decoding of bird flight, the team has researched and technologically implemented numerous other flying objects and their natural principles. With the BionicBee, the Bionic Learning Network has now for the first time developed a flying object that can fly in large numbers and completely autonomously in a swarm. The BionicBee will present its first flight show at the Hannover Messe 2024.

At around 34 grams, a length of 220 millimetres and a wingspan of 240 millimetres, the BionicBee is the smallest flying object created by the Bionic Learning Network to date. For the first time, the developers used the method of generative design: after entering just a few parameters, a software application uses defined design principles to find the optimal structure to use as little material as necessary while maintaining the most stable construction possible. This consistent lightweight construction is essential for good manoeuvrability and flying time.

Autonomous flying in a swarm

The autonomous behavior of the bee swarm is achieved with the help of an indoor locating system with ultra-wideband (UWB) technology. For this purpose, eight UWB anchors are installed in the space on two levels. This enables an accurate time measurement and allows the bees to locate themselves in the space. The UWB anchors send signals to the individual bees, which can independently measure the distances to the respective transmitting elements and calculate their own position in the space using the time stamps.

To fly in a swarm, the bees follow the paths specified by a central computer. To ensure safe and collision-free flight in close formation, a high degree of spatial and temporal accuracy is required. When planning the path, the possible mutual interaction through air turbulence “downwash” must also be taken into account.

As every bee is handmade and even the smallest manufacturing differences can influence its flight behavior, the bees additionally have an automatic calibration function: After a short test fl ight, each bee determines its individually optimized controller parameters. The intelligent algorithm can thus calculate the hardware differences between the individual bees, allowing the entire swarm to be controlled from outside, as if all bees were identical.

„ReBeLs on Wheels“ make driverless transport systems affordable through modern plastic technology

Cologne/Hanover, April 24, 2024 – Mobile robotics systems are being used in more and more work areas, in e-commerce warehouses as well as in modern restaurants. Conventional models on the market start at around 25,000 euros, while solutions with an integrated robot arm start at around 70,000 euros. However, widespread use in the market is often unaffordable for small and medium-sized enterprises due to the high prices. igus wants to change this with new low-cost robotics offerings and is presenting a series of low-cost mobile plastic robots at the Hannover Messe.

The market for Automated Guided Vehicles (AGV) and Autonomous Mobile Robots (AMR) is booming: The global market for mobile robotics, including service robotics, is currently worth around 20.3 billion US dollars, and experts expect it to almost double by 2028. 1 Mobile robots are particularly common in intralogistics and industrial applications. And even in the catering industry or in hospitals, the smart helpers are increasingly making their rounds. This is also the case at motion plastics specialist igus: For four years now, the plastics experts have been successfully testing AGVs in-house – driverless racks that deliver mail and deliveries to offices, as well as mobile robots in production that move transports and stack-and-turn containers. The experience gained flows directly into the development of a new low-cost automation product line, the „ReBeL on Wheels“. Their goal: to pave the way for small and medium-sized enterprises (SMEs) to use cost-effective mobile robotics.

Mobile ReBeL solutions for education, logistics and service
The basis of any mobile robotics system is the ReBeL. The use of plastic makes the robot particularly affordable at 4,970 euros and, with a dead weight of 8.2 kilograms, the lightest service robot with cobot function in its class. All mechanical components that make up the ReBeL are developed and manufactured by igus without exception. It has a load capacity of 2 kilograms and a reach of 664 millimetres. Various mobile systems are planned in which the ReBeL is centrally integrated: igus is launching an affordable version for the education sector for 14,699 euros – including the robot arm. The ReBeL EduMove equipped with a gripper serves as an autonomous learning platform for educational institutions thanks to open source. It has a modular design and can be flexibly expanded to include additional functions such as lidar, camera technology or slam algorithm. Another variant is an automated guided vehicle system for SMEs. It can carry up to 30 kilograms. With the optional ReBeL, simple A-to-B positioning can be made. It dispenses with expensive sensor technology and instead relies on 3D sensor technology developed in-house. The price is 17,999 euros. In addition, igus will be showcasing a study of a service robot at a low price in Hanover. The ReBeL Butler is suitable for simple but time-consuming pick-up and drop-off services, for example in the hotel and catering industry.

A lighthouse project on wheels
The goal of all these developments is the lighthouse project, a mobile robot with integrated HMI and vision that could even tidy up an office on its own. „With this project, we are pursuing a bottom-to-top strategy, in which certain components such as safety laser scanners are not included in the basic package in order to keep the price low,“ explains Alexander Mühlens, authorized signatory and head of the low-cost automation business unit at igus. „Nevertheless, it ensures that the solution can be retrofitted for industrial requirements.“ Among other things, igus is presenting an affordable gripper with a large stroke and travel this year, which offers a high degree of flexibility when gripping different geometries. Alexander Mühlens: „The areas of application for this targeted low-cost AMR are extremely diverse and go far beyond simple transport tasks. They encompass a huge range of applications in various areas of life, such as cleaning tasks or serving coffee directly at the workplace.“

MEX Tusker Roboter von Avishkaar

Der MEX Tusker von Avishkaar ist ein innovatives Roboter-Set, das speziell für Kinder im Alter von 10 bis 14 Jahren entwickelt wurde. Es handelt sich um ein STEM-Lernspielzeug, das mechanisches Design, Robotik und kreatives Problemlösen fördert.

Tusker richtet sich an Kinder im Alter von 10 bis 14 Jahren und zielt darauf ab, die Neugier und Kreativität durch praktisches Lernen zu fördern. Es ist ein ideales Set für Eltern, die ihre Kinder in den MINT-Bereichen (Mathematik, Informatik, Naturwissenschaft und Technik) fördern möchten.

  • Teile: Das Set besteht aus über 250 robusten Teilen, darunter Zahnräder, Achsen, Verbindungsstücke und mehr. Die Teile sind weitestgehend ähnlich den Teilen der LEGO Technic Serie und daher auch kompatibel zu diesen.
  • Elektronische Komponenten: Ein programmierbares elektronisches Gehirn, zwei leistungsstarke Motoren für die Bewegung und LED-Module für visuelle Effekte.
  • Programmierung: Kinder können den Roboter mit der benutzerfreundlichen Avishkaar-App programmieren, die auf Drag-and-Drop-Prinzipien basiert und somit einen einfachen Einstieg in die Welt des Codierens ermöglicht.
  • Konnektivität: Bluetooth-Verbindung für eine drahtlose Steuerung und Interaktion.
  • Bildungsaspekt: Das Set fördert das Verständnis für mechanische Systeme, Grundlagen der Elektronik und Softwareentwicklung.

Aufbau und Design: Kinder können mit dem Set einen Roboter in Form eines Elefanten bauen, der durch die Avishkaar-App gesteuert wird. Die App bietet verschiedene Funktionen zur Steuerung des Roboters und zur Interaktion mit seinen LED-Augen und Geräuschen.

Benutzererfahrung: Die Anleitung des Sets ist klar strukturiert und ermöglicht einen einfachen Zusammenbau. Wir konnten nur kleine Fehler in der Anleitung finden, die aber den Aufbau in keiner Weise gestört habe. Der Hersteller hat uns versichert, die Fehler bereits zu beseitigen und in der nächsten Version der Anleitung beseitigt zu haben. Durch den Aufbau des Roboters lernen Kinder nicht nur die Grundlagen der Mechanik und Elektronik, sondern entwickeln auch ein Verständnis für die Programmierung durch die zugehörige App. Die erste Verwendung der App sollte durch einen Erwachsenen begleitet werden, da eine Registrierung des Produkts als auch des Benutzers notwendig sind. Schöner wäre es, wenn keine Registrierungen notwendig wären, auch war ein mehrfaches Neustarten der App auf unserem Gerät notwendig, bevor diese voll funktionsfähig war.

Pädagogischer Wert: Der MEX Tusker fördert nicht nur technische Fähigkeiten, sondern auch Soft Skills wie Geduld, Ausdauer und Aufmerksamkeit für Details. Das Set bietet eine praktische Erfahrung, die theoretisches Wissen mit realen Anwendungen verbindet. Nach der Registrierung des Produkts in der App, haben wir eine Mail mit Zugang zu Lehrvideos, Programmiervideos und weiteren Inhalten erhalten.

Fazit: Der MEX Tusker Roboter-Bausatz von Avishkaar ist ein durchdachtes Lernspielzeug, das Kinder auf unterhaltsame Weise an die Welt der Technik heranführt. Es unterstützt die Entwicklung wichtiger Fähigkeiten und bietet eine solide Grundlage für zukünftige technische Bildung. Mit seiner Kombination aus Qualität, Lernwert und Spaß ist der MEX Tusker eine empfehlenswerte Investition in die Bildung junger Menschen.

Logistics League: der Wettbewerb zur Zukunft der Smart-Factory zeigt Innovationen in der Produktionslogistik

Das Konzept der Logistics League ist inspiriert vom Industrie 4.0-Szenario, also vom industriellen Szenario einer intelligenten Fabrik, und wurde zusammen mit Festo Didactic seit 2012 zum jetzigen Stand entwickelt, als der Begriff „Industrie 4.0“ überhaupt erst geprägt wurde. Dabei liegen die Herausforderungen sowohl in der Steuerung und Kontrolle der mobilen Roboter, die die Werkstücke zwischen den Fertigungsmaschinen transportieren und mit diesen interagieren, als auch in der Variantenplanung der verschiedenen möglichen Teile, die produziert werden müssen. Hier spielen insbesondere Echtzeitaspekte und Unsicherheiten wie z. B. ausfallende Maschinen und dynamische Zeitfenster, bis wann ein Produkt ausgeliefert werden muss, eine große Rolle. Die Liga gibt somit einen interessanten Einblick in die Herausforderungen mobiler, intelligenter Produktionslogistik in einer Smart-Factory-Umgebung, die sowohl im Bereich der Robotik als auch im Bereich des Jobshop-Scheduling und der Produktionsplanung liegen.

In einer intelligenten Fabrik erbringen eine Reihe von Maschinen Fertigungsdienstleistungen, um ein Werkstück zu veredeln, zusammenzubauen oder zu verändern, was schließlich zu einem Endprodukt führt. In diesem neuen Paradigma bietet die Fabrik eine Reihe von Produktionstechnologien anstelle von Produktionstypen. Diese können dann für jeden spezifischen Auftrag neu kombiniert werden. Die Idee ist, eine kosteneffiziente Produktion auch für Produkte mit geringen Stückzahlen oder hoher Varianz zu ermöglichen. Eine solche Fabrik erfordert eine flexiblere Logistik, bei der Roboter eine natürliche Wahl sind. Forschungsfragen der Liga konzentrieren sich auf die Planung und Terminierung auf Aufgabenebene – zur Automatisierung in einem industriellen Produktionsablauf und zur Integration von Multi-Roboter-Systemen.

Für Außenstehende sind die Zusammenhänge, wo gerade welches Produkt gefertigt wird und warum, oft schwer zu verstehen. Daher kommentieren die Teamchefs der spielenden Teams das Geschehen und geben Einblicke in die komplexen Zusammenhänge. In einer zentralen Steuerungseinheit, die „Refbox“ genannt wird, laufen alle Maschinendaten zusammen und die Produktionsvorgaben sind einzusehen. Diese Informationen erlauben einen Einblick in das Spielgeschehen.

Der Vorsitzende der Logistics League ist Prof. Dr. rer. nat. Alexander Ferrein, Professor am Institut für Mobile Autonome Systeme und Kognitive Robotik (MASKOR) der Fachhochschule Aachen. Er ist Mitbegründer der Liga und hat diese von Beginn an mitgestaltet.

Bei den RoboCup German Open 2024 wird es wieder einen Challenge-Track geben, der es Teams erlaubt, auch Teilaufgaben zu erfüllen. So wird es eine Challenge geben, die sich auf Navigation oder Manipulation konzentriert, ohne dass die komplexe Gesamtaufgabe erfüllt werden muss. Dies ermöglicht es auch den Zuschauenden, Einblicke in die komplexen Steuerungsabläufe zu bekommen. Besonders erfolgreich sind unter den teilnehmenden Teams das Team Carologistics aus Aachen und das Team Grips aus Graz in Österreich. Sie teilen sich seit Jahren die vorderen Plätze. Dabei ist das Team Carologistics siebenfacher Weltmeister, das Team Grips aus Graz holte sich schon zweimal den WM-Titel.

United Robotics Group nimmt als Sponsor an German Open des RoboCup 2024 in Kassel teil und präsentiert Robotik-Portfolio für den Bildungssektor

  • Die Robotik-Lösung NAO der United Robotics Group (URG) wird als Standardplattform von internationalen Teams in Wettbewerben der Standard Platform League eingesetzt. 
  • Der europäische Marktführer für Servicerobotik präsentiert sein Portfolio für den Bildungssektor am eigenen Stand. 
  • Dr. Nadja Schmiedl, CTO der URG, nimmt gemeinsam mit Vertretern des Bildungsministeriums für Bildung und Forschung am Roundtable zu KI-basierter Robotik teil.

Kassel/Bochum, 18. April 2024– Die United Robotics Group (URG), europäischer Marktführer im Bereich Servicerobotik, ist mit von der Partie bei den diesjährigen German Open des RoboCup vom 17. bis zu 21. April in Kassel. Als Sponsor des Events zeigt das Unternehmen an seinem Stand neben dem Bereich der Standard Platform League in Halle 5 innovative Roboter-Lösungen für den Bildungsbereich aus seinem Portfolio. Der RoboCup ist der weltweit größte Wettbewerb für Robotik und künstliche Intelligenz und eine zentrale Initiative für die Nachwuchsförderung, die in diesem Jahr vom Bundesministerium für Bildung und Forschung getragen wird. Damit bietet die Veranstaltung die ideale Plattform für die United Robotics Group, um die vielfältigen Anwendungsmöglichkeiten ihrer Robotik-Lösungen für den Bildungssektor zu demonstrieren. 

Der Roboter NAO, der bereits seit vielen Jahren an Schulen und Universitäten weltweit eingesetzt wird, ist aktiv an den Wettbewerben beteiligt und beweist seine Fähigkeiten in der RoboCup Major Standard Platform League. In einem Match treten zwei Teams von entweder fünf oder sieben NAO-Robotern gegeneinander an, wobei ein Spieler pro Team als Torwart fungiert. Die Roboter bewegen sich autonom und kommunizieren nur untereinander sowie mit dem Game Controller. Die Teams entwickeln Software für die Wahrnehmung, die Entscheidungsfindung und die Ausführung von Handlungen, wobei sie entweder die von RoboCup bereitgestellten Bibliotheken oder eigene Programmierungen verwenden. Während des Wettbewerbs stellt die URG ein Reparaturteam (NAO-Klinik).

Bei den German Open des RoboCup stellen sich in den Hallen 3 bis 5 der Messe Kassel Teams von Universitäten, Hochschulen und Firmen mit ihren Robotersystemen in mehreren Ligen ihren Gegnern. Über 800 Talente aus der ganzen Welt nehmen teil – darunter die Major-Ligen mit über 30 Teams aus Deutschland, Frankreich, Großbritannien, Italien, Österreich, den Niederlanden und den USA. Zudem treten die besten 200 Schülerteams aus Deutschland in den Juniorligen in Altersklassen von 10 bis 19 Jahren gegeneinander an. Gefightet wird in vier Kategorien: RoboCupSoccer, RoboCup@Home, RoboCupRescue sowie RoboCupIndustrial.

„Im Rahmen des RoboCups zeigen wir, wie sich anspruchsvolle Visionen mit Lösungen der URG im Bereich Learning und Education realisieren lassen. Im Vordergrund steht dabei die Förderung von Talenten im Tech-Bereich. Es geht um nichts Geringeres als die systematische auf die Anforderungen von morgen“, erklärt Dr. Nadia Schmiedl, CTO der United Robotics Group. „So wollen wir den Nachwuchs fit für die Zukunft machen, in der Robotik aufgrund aktueller gesellschaftlicher Herausforderungen wie dem demografischen Wandel und dem damit verbundenen Fachkräftemangel immer häufiger zum Einsatz kommen wird. In diesem Zuge geht es auch um eine höhere Akzeptanz der Technologie.“

Vier Lösungen, ein Ziel: gewinnen für optimierte Bildungsmethoden 

An ihrem eigenen Stand neben dem Bereich der Standard Platform League in Halle 5 demonstriert die URG dazu konkret vier Lösungen aus ihrem Portfolio:

  • Blockly. Interactive Robotics zielt vor allem auf Servicerobotik-Angebote in den Bereichen Bildung und Healthcare. Die Lösung eignet sich zur Vermittlung von Mensch-Roboter-Interaktionsformen und zur Stärkung digitaler Kenntnisse bis hin zum anspruchsvollen Programmieren. Die Lösung erfordert keinerlei technische Kenntnisse und ist daher besonders leicht zugänglich und flexibel in verschiedenen Bereichen einsetzbar.
  • Jupyter AI Package NAO steht für die Integration des NAO-Serviceroboters in Jupyter Notebooks. Die Lösung nutzt die Echtzeit-Daten der Sensoren von NAO sowie Remote Control-Funktionen und ermöglicht Lehrkräften den Unterricht in den Bereichen Programmierung, Datenwissenschaft und maschinelles Lernen praxisnah zu gestalten und flexibel an verschiedene Lernanforderungen anzupassen.
  • NAO Maze lässt den Serviceroboter NAO mithilfe der ArUco Marker Detection-Technologie durch ein Labyrinth navigieren. Dafür nutzt die Lösung die Sensoren und Kameras von NAO. Diese Technologie kommt hauptsächlich bei Aufgaben wie Kartierung, Routenplanung oder dem Ausweichen von Hindernissen zum Einsatz. 
  • Die Verbindung des Serviceroboters Pepper mit ChatGPT erschließt eine neue Dimension der Interaktivität und Ausdrucksfähigkeit. Im Unterschied zu konventionellen textbasierten Ansätzen steht die Einbeziehung eines physischen Roboters für eine erweiterte Kommunikation einschließlich Gestik und Echtzeit-Interaktionen.  In Bildungseinrichtungen bietet die Kombination von ChatGPT und Robotern einen innovativen Ansatz für interaktives Lernen. Lernende können personalisierte Unterstützung erhalten, Fragen stellen und an dynamischen Unterhaltungen teilnehmen, die reale Interaktionen nachahmen.

Neben den Wettbewerben und Showcases stellt die URG mit ihrer CTO Dr. Nadja Schmiedl eine prominente Teilnehmerin des hochkarätig besetzten Roundtables am 19. April, der einen kompakten Überblick über relevante Themen und den aktuellen Status quo gibt. Um 14:00 Uhr startet die Runde, die unter Beteiligung des Bundesministeriums für Bildung und Forschung in Gestalt von Vertretern der VDI/VDE Innovation + Technik GmbH-Projektträger für das Ministerium stattfindet. Schwerpunktthemen sind die Rolle von Wettbewerben bei der Förderung von Talenten in der intelligenten Robotik sowie die Bedeutung von Robotik und KI für gesamtgesellschaftliche Fragen.

Die Gewinner der German Open treffen beim RoboCup 2024 erneut aufeinander, der in diesem Jahr vom 17. – 21. Juli in Eindhoven (Niederlande) stattfindet und bei dem auch die United Robotics Group vertreten sein wird. 

Quincy, ein malender Lernroboter

Quincy ist ein Roboter, der speziell für Kinder im Alter von 3 bis 8 Jahren entwickelt wurde. Er hat die Gestalt eines putzigen Roboter-Zyklopen mit zwei magnetischen Armen, die einen Stift halten können. Er kann verschiedene Bilder zeichnen, die er von speziellen Karten scannt, und dabei Kinder anleiten, ihm zu folgen und mitzuzeichnen. Er kann auch lehren, wie man das Alphabet, die Rechtschreibung, das Zählen und Mathematik lernt, indem er ihnen Geschichten erzählt, Fragen stellt und sie zum Mitmachen auffordert.

Quincy ist mehr als nur ein Spielzeug, er ist ein innovativer Lernbegleiter, der die Kreativität, die kognitiven und die sprachlichen Fähigkeiten der Kinder fördert. Er verwendet eine interaktive und spielerische Methode, um die Kinder zu motivieren. Er passt sich dem Lernniveau und dem Tempo der Kinder an und gibt ihnen positives Feedback und Ermutigung. Er ist ebenso ein schönes Spielzeug, das die Kinder unterhält und aktiv beschäftigt.

Quincy funktioniert mit verschiedenen Karten, die er mit seinem Auge, bzw. der dahinter verbauten Kamera, scannen kann. Es gibt vier Arten von Karten: Zeichenkarten, Buchstabenkarten, Zahlenkarten und Mathe-Herausforderungskarten. Die Zeichenkarten enthalten Bilder von Tieren, Pflanzen, Objekten und anderen Themen, die Quincy zeichnen und erklären kann. Die Buchstabenkarten enthalten die 26 Buchstaben des Alphabets, die Quincy verwenden kann, um die Kinder das Alphabet und die Rechtschreibung zu lehren. Die Zahlenkarten enthalten die Zahlen von 0 bis 9, die Quincy verwenden kann, um Kindern das Zählen und die Grundrechenarten zu lehren. Die Mathe-Herausforderungskarten enthalten Geschichten mit Mathefragen, die Quincy zeichnen und erzählen kann, und die Kinder sollen die richtige Antwort mit den Zahlenkarten geben.

Um Quincy zu benutzen, muss man ihn zuerst einschalten, indem man den Lautstärkeregler nach rechts dreht. Dann muss man einen Stift in seine Arme stecken, so dass die Spitze das Papier berührt. Dann muss man Quincy auf die obere Mitte des Papiers stellen, so dass seine Arme über dem Papier sind. Dann kann man eine Karte auswählen, die man Quincy zeigen möchte, und sie in etwa 5 cm Entfernung von sein Auge halten. Wenn sein Auge blinkt, bedeutet das, dass er die Karte erkannt hat, und man kann die Weiter-Taste drücken, um fortzufahren. Quincy wird dann das Bild zeichnen oder die Geschichte erzählen, und die Kinder können mitzeichnen oder ihm antworten. Mit der Weiter, Wiederholen oder Pause Taste lassen sich die Ansagen entsprechend steuern.

Quincy hat ein modernes und einzigartiges Design, das ihm Flexibilität und Stabilität beim Zeichnen und Schreiben verleiht. Er hat eine Saugnapfkonstruktion, die verhindert, dass er versehentlich beim Zeichnen verrutscht, und einen Arm, der durch seine magnetische Befestigung verhindert, dass er abbricht, wenn er mal herunterfällt. Seine schnelle Scanfähigkeit von 0,5 Sekunden ermöglicht es ihm, Bilder sofort zu erkennen und zu zeichnen. Er hat einen eingebauten 2500mAh wiederaufladbaren Lithium-Akku, der 2-2,5 Stunden zum Aufladen benötigt und 5,5 Stunden ohne Unterbrechung arbeiten kann. Er hat einen eingebauten gut klingenden Lautsprecher, der seine Stimme klar und angenehm macht. Er ist aus PET-Kunststoff gefertigt und hat eine rutschfeste Silikonbasis.

Das erste Ausprobieren und Starten von Qunicy gelang uns auf Anhieb und stellt keine Hürde dar. Vermutlich schaffen es die meisten Kinder, ohne die Hilfe Ihrer Eltern, Quincy in Betrieb zu nehmen. Wir empfehlen Quincy direkt neben einem Malblock zu platzieren, der gegen Verrutschen gesichert ist oder entsprechendes Eigengewicht besitzt.

Quincy ist bei Amazon für ca. 90 Euro erhältlich. Das Quincy Starterpaket enthält: Quincy, eine Bedienungsanleitung, zwei magnetische Arme, ein Ladekabel sowie zwei Stifte. Außerdem sind 24 Zeichenaufgaben, 4 Mathematikaufgaben, 26 Buchstabenkarten und 10 Zahlenkarten enthalten. Es gibt auch ein Quincy Erweiterungsset, das bald erhältlich sein wird, und das mehr Rechenaufgaben, Zeichenaufgaben und Buchstabieraufgaben bietet.

Quincy ist ein pädagogischer Zeichenroboter, der Kindern hilft, ihre Kreativität zu entwickeln und das Zeichnen zu lernen. Er ist ein perfekter Hauslehrer für Ihre Kinder, der ihnen verschiedene Fähigkeiten und Kenntnisse vermittelt, wie z.B das Alphabet, Rechtschreibung, Zählen, Mathe und mehr. Er ist ein lustiger und lehrreicher Begleiter, der Kinder zu motivieren und beschäftigen weiß.

Das kickt so richtig: Fussballspiel der intelligenten autonomen NAO-Roboter birgt hohen Unterhaltungswert

Wenn alle Teams der RoboCupMajor Standard Platform League (SPL) den gleichen Robotertyp nutzen, dann heißt es, alles aus den humanoiden NAOs der United Robotics Group herauszuholen. Nur so kann der Sieg gelingen! Die Liga bietet damit sehr gute Evaluierungs- und Vergleichsmöglichkeiten der von den Teams entwickelten Software für die kooperativen humanoiden Multi-Robotersysteme. Diese agieren völlig autonom in der dynamischen Umgebung des Fußballspiels. Gespielt wird 20 Minuten lang auf einem 9 x 6 Meter großem Spielfeld. Die Zweikämpfe zwischen den Robotern um den Ball finden dabei in einer Geschwindigkeit statt, die alle Zuschauenden gut mitverfolgen können.

Spannung ist auch vorprogrammiert, da fast alle der neun an den German Open 2024 in Kassel teilnehmenden Teams in den Top 10 der internationalen Standard Platform League anzusiedeln sind. Das Team B-Human vom DFKI und der Universität in Bremen ist mehrfacher Weltmeister und auch das Team HTWK Robots von der Hochschule für Technik, Wirtschaft und Kultur in Leipzig holte sich bereits zweimal den WM-Titel.

Vorsitzender der RoboCupMajor Standard Platform League ist Patrick Göttsch, Research Assistant am Institute of Control Systems der Technischen Universität Hamburg. Er ist seit 2015 in die Organisation involviert. „Ich habe bereits in verschiedenen Positionen angepackt, Veranstaltungen entstehen lassen und die Liga jedes Jahr ein Stück weiter in die Richtung Ziel 2050 voranzubringen.“ Ziel 2050? Hierbei handelt es sich um die Gründungsidee des RoboCup: Mitte des 21. Jahrhunderts soll eine Mannschaft aus vollständig autonomen humanoiden Roboter-Fußballspielern nach den offiziellen FIFA-Regeln gegen die Sieger der dann letzten Fußball-WM gewinnen können.

Für Patrick Göttsch sind besonders zwei Dinge spannend: „Erstens Studierende in einem solchen Projekt anzuleiten und zu sehen, wie sie sich entwickeln, und das Event in der SPL-Familie zu erleben und jedes Jahr wieder weiterzuentwickeln und zu organisieren.“ Er ergänzt: „SPL und RoboCup sind nicht nur Roboter, die Fußball spielen, sondern vielmehr tolle Menschen, die zusammen die Leidenschaft teilen, Robotern das Fußballspielen beizubringen.“ Dabei sind die Roboter vollständig autonom auf dem Spielfeld. Sie müssen anhand ihrer Kameras die Umgebung erkennen und verstehen, ihre Aktionen und Bewegungen planen und einen komplexen Bewegungsapparat mit vielen Gelenkmotoren effektiv für vielfältige Bewegungen in unterschiedlichen Spielsituationen einsetzen. Dabei muss es im Fußball schnell gehen, dabei stehen auf den Robotern dafür keine Supercomputer zur Verfügung.

Die Standard Platform League ist seit der zweiten Austragung des RoboCup 1998 dabei. Zunächst wurde von 1998 bis 2008 mit Roboterhunden von Sony gespielt, seit 2008 werden humanoide NAOs eingesetzt, inzwischen in der vierten Generation. Die SPL stellt von Beginn an eine einzigartige Vergleichbarkeit von unterschiedlichsten Algorithmen und KI-Methoden in hoch komplexen Gesamtsoftwaresystemen auf realer Hardware her und ist mit den zuerst vierbeinigen und später zweibeinigen Robotern schon optisch nah dran am Ziel, gegen menschliche Fußballspieler spielen zu können.