Exploring Elephant Robotics LIMO Cobot

1. Introduction:

This article primarily introduces the practical application of LIMO Cobot by Elephant Robotics in a simulated scenario. You may have seen previous posts about LIMO Cobot’s technical cases, A[LINK]B[LINK]. The reason for writing another related article is that the original testing environment, while demonstrating basic functionality, often appears overly idealized and simplified when simulating real-world applications. Therefore, we aim to use it in a more operationally consistent environment and share some of the issues that arose at that time.

2. Comparing the Old and New Scenarios:

First, let’s look at what the old and new scenarios are like.

Old Scenario: A simple setup with a few obstacles, relatively regular objects, and a field enclosed by barriers, approximately 1.5m*2m in size.

New Scenario: The new scenario contains a wider variety of obstacles of different shapes, including a hollowed-out object in the middle, simulating a real environment with road guidance markers, parking spaces, and more. The size of the field is 3m*3m.

The change in environment is significant for testing and demonstrating the comprehensiveness and applicability of our product.

3. Analysis of Practical Cases:

Next, let’s briefly introduce the overall process.

The process is mainly divided into three modules: one is the functionality of LIMO PRO, the second is machine vision processing, and the third is the functionality of the robotic arm. (For a more detailed introduction, please see the previous article [link].)

LIMO PRO is mainly responsible for SLAM mapping, using the gmapping algorithm to map the terrain, navigate, and ultimately achieve the function of fixed-point patrol.

myCobot 280 M5 is primarily responsible for the task of grasping objects. A camera and a suction pump actuator are installed at the end of the robotic arm. The camera captures the real scene, and the image is processed by the OpenCV algorithm to find the coordinates of the target object and perform the grasping operation.

Overall process:

1. LIMO performs mapping.⇛

2. Run the fixed-point cruising program.⇛

3. LIMO goes to point A ⇛ myCobot 280 performs the grasping operation ⇒ goes to point B ⇛ myCobot 280 performs the placing operation.

4. ↺ Repeat step 3 until there are no target objects, then terminate the program.

Next, let’s follow the practical execution process.

Mapping:

First, you need to start the radar by opening a new terminal and entering the following command:

roslaunch limo_bringup limo_start.launch pub_odom_tf:=false

Then, start the gmapping mapping algorithm by opening another new terminal and entering the command:

roslaunch limo_bringup limo_gmapping.launch

After successful startup, the rviz visualization tool will open, and you will see the interface as shown in the figure.

At this point, you can switch the controller to remote control mode to control the LIMO for mapping.

After constructing the map, you need to run the following commands to save the map to a specified directory:

1. Switch to the directory where you want to save the map. Here, save the map to `~/agilex_ws/src/limo_ros/limo_bringup/maps/`. Enter the command in the terminal:

cd ~/agilex_ws/src/limo_ros/limo_bringup/maps/

2. After switching to `/agilex_ws/limo_bringup/maps`, continue to enter the command in the terminal:

rosrun map_server map_saver -f map1

This process went very smoothly. Let’s continue by testing the navigation function from point A to point B.

Navigation:

1. First, start the radar by entering the following command in the terminal:

roslaunch limo_bringup limo_start.launch pub_odom_tf:=false

2. Start the navigation function by entering the following command in the terminal:

roslaunch limo_bringup limo_navigation_diff.launch

Upon success, this interface will open, displaying the map we just created.

Click on „2D Pose Estimate, “ then click on the location where LIMO is on the map. After starting navigation, you will find that the shape scanned by the laser does not overlap with the map. You need to manually correct this by adjusting the actual position of the chassis in the scene on the map displayed in rviz. Use the tools in rviz to publish an approximate position for LIMO. Then, use the controller to rotate LIMO, allowing it to auto-correct. When the shape of the laser scan overlaps with the shapes in the map’s scene, the correction is complete, as shown in the figure where the scanned shape and the map overlap.

Click on „2D Nav Goal“ and select the destination on the map for navigation.

The navigation test also proceeds smoothly.

Next, we will move on to the part about the static robotic arm’s grasping function.

Identifying and Acquiring the Pose of Aruco Codes

To precisely identify objects and obtain the position of the target object, we processed Aruco codes. Before starting, ensure the specific parameters of the camera are set.

Initialize the camera parameters based on the camera being used.

def __init__(self, mtx: np.ndarray, dist: np.ndarray, marker_size: int):
self.mtx = mtx
self.dist = dist
self.marker_size = marker_size
self.aruco_dict = cv2.aruco.Dictionary_get(cv2.aruco.DICT_6X6_250)
self.parameters = cv2.aruco.DetectorParameters_create()

Then, identify the object and estimate its pose to obtain the 3D position of the object and output the position information.

def estimatePoseSingleMarkers(self, corners):
"""
This will estimate the rvec and tvec for each of the marker corners detected by:
corners, ids, rejectedImgPoints = detector.detectMarkers(image)
corners - is an array of detected corners for each detected marker in the image
marker_size - is the size of the detected markers
mtx - is the camera matrix
distortion - is the camera distortion matrix
RETURN list of rvecs, tvecs, and trash (so that it corresponds to the old estimatePoseSingleMarkers())
"""
marker_points = np.array([[-self.marker_size / 2, self.marker_size / 2, 0],
[self.marker_size / 2, self.marker_size / 2, 0],
[self.marker_size / 2, -self.marker_size / 2, 0],
[-self.marker_size / 2, -self.marker_size / 2, 0]], dtype=np.float32)
rvecs = []
tvecs = []
for corner in corners:
retval, rvec, tvec = cv2.solvePnP(marker_points, corner, self.mtx, self.dist, False,
cv2.SOLVEPNP_IPPE_SQUARE)
if retval:
rvecs.append(rvec)
tvecs.append(tvec)

rvecs = np.array(rvecs)
tvecs = np.array(tvecs)
(rvecs - tvecs).any()
return rvecs, tvecs

The steps above complete the identification and acquisition of the object’s information, and finally, the object’s coordinates are returned to the robotic arm to execute the grasping.

Robotic Arm Movement and Grasping Operation

Based on the position of the Aruco marker, calculate the target coordinates the robotic arm needs to move to and convert the position into a coordinate system suitable for the robotic arm.

def homo_transform_matrix(x, y, z, rx, ry, rz, order="ZYX"):
rot_mat = rotation_matrix(rx, ry, rz, order=order)
trans_vec = np.array([[x, y, z, 1]]).T
mat = np.vstack([rot_mat, np.zeros((1, 3))])
mat = np.hstack([mat, trans_vec])
return mat

If the Z-axis position is detected as too high, it will be corrected:

if end_effector_z_height is not None:  
p_base[2] = end_effector_z_height

After the coordinate correction is completed, the robotic arm will move to the target position.

# Concatenate x, y, z, and the current posture into a new array
new_coords = np.concatenate([p_base, curr_rotation[3:]])
xy_coords = new_coords.copy()

Then, control the end effector’s API to suction the object.

The above completes the respective functions of the two robots. Next, they will be integrated into the ROS environment.

#Initialize the coordinates of point A and B
    goal_1 = [(2.060220241546631,-2.2297520637512207,0.009794792000444471,0.9999520298742676)] #B
    goal_2 = [(1.1215190887451172,-0.002757132053375244,-0.7129997613218174,0.7011642748707548)] #A
    #Start navigation and link the robotic arm
    map_navigation = MapNavigation()
    arm = VisualGrasping("10.42.0.203",9000)
    print("connect successful")

    arm.perform_visual_grasp(1,-89)
    # Navigate to location A and perform the task
        for goal in goal_1:
        x_goal, y_goal, orientation_z, orientation_w = goal
        flag_feed_goalReached = map_navigation.moveToGoal(x_goal, y_goal, orientation_z, orientation_w)
        if flag_feed_goalReached:
            time.sleep(1)
            # executing 1 grab and setting the end effector's Z-axis height to -93.
            arm.unload()
            print("command completed")
        else:
            print("failed")

4. Problems Encountered

Mapping Situation:

When we initially tried mapping without enclosing the field, frequent errors occurred during navigation and localization, and it failed to meet our requirements for a simulated scenario.

Navigation Situation:

In the new scenario, one of the obstacles has a hollow structure.

During navigation from point A to point B, LIMO may fail to detect this obstacle and assume it can pass through, damaging the original obstacle. This issue arises because LIMO’s radar is positioned low, scanning only the empty space. Possible solutions include adjusting the radar’s scanning range, which requires extensive testing for fine-tuning, or adjusting the radar’s height to ensure the obstacle is recognized as impassable.

Robotic Arm Grasping Situation:

In the video, it’s evident that our target object is placed on a flat surface. The grasping did not consider obstacle avoidance for the object. In the future, when setting special positions for grasping, this situation needs to be considered.

5. Conclusion

Overall, LIMO Cobot performed excellently in this scenario, successfully meeting the requirements. The entire simulated scenario covered multiple core areas of robotics, including motion control of the robotic arm, path planning, machine vision recognition and grasping, and radar mapping navigation and fixed-point cruising functions of the mobile chassis. By integrating these functional modules in ROS, we built an efficient automated process, showcasing LIMO Cobot’s broad adaptability and advanced capabilities in complex environments.

Credits

Elephant Robotics

Elephant Robotics

Festo at Hannover Fair unveils Bionic Honeybees that fly in swarms

For more than 15 years, the Bionic Learning Network has been focusing on the fascination of flying. In addition to the technical decoding of bird flight, the team has researched and technologically implemented numerous other flying objects and their natural principles. With the BionicBee, the Bionic Learning Network has now for the first time developed a flying object that can fly in large numbers and completely autonomously in a swarm. The BionicBee will present its first flight show at the Hannover Messe 2024.

At around 34 grams, a length of 220 millimetres and a wingspan of 240 millimetres, the BionicBee is the smallest flying object created by the Bionic Learning Network to date. For the first time, the developers used the method of generative design: after entering just a few parameters, a software application uses defined design principles to find the optimal structure to use as little material as necessary while maintaining the most stable construction possible. This consistent lightweight construction is essential for good manoeuvrability and flying time.

Autonomous flying in a swarm

The autonomous behavior of the bee swarm is achieved with the help of an indoor locating system with ultra-wideband (UWB) technology. For this purpose, eight UWB anchors are installed in the space on two levels. This enables an accurate time measurement and allows the bees to locate themselves in the space. The UWB anchors send signals to the individual bees, which can independently measure the distances to the respective transmitting elements and calculate their own position in the space using the time stamps.

To fly in a swarm, the bees follow the paths specified by a central computer. To ensure safe and collision-free flight in close formation, a high degree of spatial and temporal accuracy is required. When planning the path, the possible mutual interaction through air turbulence “downwash” must also be taken into account.

As every bee is handmade and even the smallest manufacturing differences can influence its flight behavior, the bees additionally have an automatic calibration function: After a short test fl ight, each bee determines its individually optimized controller parameters. The intelligent algorithm can thus calculate the hardware differences between the individual bees, allowing the entire swarm to be controlled from outside, as if all bees were identical.

„ReBeLs on Wheels“ make driverless transport systems affordable through modern plastic technology

Cologne/Hanover, April 24, 2024 – Mobile robotics systems are being used in more and more work areas, in e-commerce warehouses as well as in modern restaurants. Conventional models on the market start at around 25,000 euros, while solutions with an integrated robot arm start at around 70,000 euros. However, widespread use in the market is often unaffordable for small and medium-sized enterprises due to the high prices. igus wants to change this with new low-cost robotics offerings and is presenting a series of low-cost mobile plastic robots at the Hannover Messe.

The market for Automated Guided Vehicles (AGV) and Autonomous Mobile Robots (AMR) is booming: The global market for mobile robotics, including service robotics, is currently worth around 20.3 billion US dollars, and experts expect it to almost double by 2028. 1 Mobile robots are particularly common in intralogistics and industrial applications. And even in the catering industry or in hospitals, the smart helpers are increasingly making their rounds. This is also the case at motion plastics specialist igus: For four years now, the plastics experts have been successfully testing AGVs in-house – driverless racks that deliver mail and deliveries to offices, as well as mobile robots in production that move transports and stack-and-turn containers. The experience gained flows directly into the development of a new low-cost automation product line, the „ReBeL on Wheels“. Their goal: to pave the way for small and medium-sized enterprises (SMEs) to use cost-effective mobile robotics.

Mobile ReBeL solutions for education, logistics and service
The basis of any mobile robotics system is the ReBeL. The use of plastic makes the robot particularly affordable at 4,970 euros and, with a dead weight of 8.2 kilograms, the lightest service robot with cobot function in its class. All mechanical components that make up the ReBeL are developed and manufactured by igus without exception. It has a load capacity of 2 kilograms and a reach of 664 millimetres. Various mobile systems are planned in which the ReBeL is centrally integrated: igus is launching an affordable version for the education sector for 14,699 euros – including the robot arm. The ReBeL EduMove equipped with a gripper serves as an autonomous learning platform for educational institutions thanks to open source. It has a modular design and can be flexibly expanded to include additional functions such as lidar, camera technology or slam algorithm. Another variant is an automated guided vehicle system for SMEs. It can carry up to 30 kilograms. With the optional ReBeL, simple A-to-B positioning can be made. It dispenses with expensive sensor technology and instead relies on 3D sensor technology developed in-house. The price is 17,999 euros. In addition, igus will be showcasing a study of a service robot at a low price in Hanover. The ReBeL Butler is suitable for simple but time-consuming pick-up and drop-off services, for example in the hotel and catering industry.

A lighthouse project on wheels
The goal of all these developments is the lighthouse project, a mobile robot with integrated HMI and vision that could even tidy up an office on its own. „With this project, we are pursuing a bottom-to-top strategy, in which certain components such as safety laser scanners are not included in the basic package in order to keep the price low,“ explains Alexander Mühlens, authorized signatory and head of the low-cost automation business unit at igus. „Nevertheless, it ensures that the solution can be retrofitted for industrial requirements.“ Among other things, igus is presenting an affordable gripper with a large stroke and travel this year, which offers a high degree of flexibility when gripping different geometries. Alexander Mühlens: „The areas of application for this targeted low-cost AMR are extremely diverse and go far beyond simple transport tasks. They encompass a huge range of applications in various areas of life, such as cleaning tasks or serving coffee directly at the workplace.“

MEX Tusker Roboter von Avishkaar

Der MEX Tusker von Avishkaar ist ein innovatives Roboter-Set, das speziell für Kinder im Alter von 10 bis 14 Jahren entwickelt wurde. Es handelt sich um ein STEM-Lernspielzeug, das mechanisches Design, Robotik und kreatives Problemlösen fördert.

Tusker richtet sich an Kinder im Alter von 10 bis 14 Jahren und zielt darauf ab, die Neugier und Kreativität durch praktisches Lernen zu fördern. Es ist ein ideales Set für Eltern, die ihre Kinder in den MINT-Bereichen (Mathematik, Informatik, Naturwissenschaft und Technik) fördern möchten.

  • Teile: Das Set besteht aus über 250 robusten Teilen, darunter Zahnräder, Achsen, Verbindungsstücke und mehr. Die Teile sind weitestgehend ähnlich den Teilen der LEGO Technic Serie und daher auch kompatibel zu diesen.
  • Elektronische Komponenten: Ein programmierbares elektronisches Gehirn, zwei leistungsstarke Motoren für die Bewegung und LED-Module für visuelle Effekte.
  • Programmierung: Kinder können den Roboter mit der benutzerfreundlichen Avishkaar-App programmieren, die auf Drag-and-Drop-Prinzipien basiert und somit einen einfachen Einstieg in die Welt des Codierens ermöglicht.
  • Konnektivität: Bluetooth-Verbindung für eine drahtlose Steuerung und Interaktion.
  • Bildungsaspekt: Das Set fördert das Verständnis für mechanische Systeme, Grundlagen der Elektronik und Softwareentwicklung.

Aufbau und Design: Kinder können mit dem Set einen Roboter in Form eines Elefanten bauen, der durch die Avishkaar-App gesteuert wird. Die App bietet verschiedene Funktionen zur Steuerung des Roboters und zur Interaktion mit seinen LED-Augen und Geräuschen.

Benutzererfahrung: Die Anleitung des Sets ist klar strukturiert und ermöglicht einen einfachen Zusammenbau. Wir konnten nur kleine Fehler in der Anleitung finden, die aber den Aufbau in keiner Weise gestört habe. Der Hersteller hat uns versichert, die Fehler bereits zu beseitigen und in der nächsten Version der Anleitung beseitigt zu haben. Durch den Aufbau des Roboters lernen Kinder nicht nur die Grundlagen der Mechanik und Elektronik, sondern entwickeln auch ein Verständnis für die Programmierung durch die zugehörige App. Die erste Verwendung der App sollte durch einen Erwachsenen begleitet werden, da eine Registrierung des Produkts als auch des Benutzers notwendig sind. Schöner wäre es, wenn keine Registrierungen notwendig wären, auch war ein mehrfaches Neustarten der App auf unserem Gerät notwendig, bevor diese voll funktionsfähig war.

Pädagogischer Wert: Der MEX Tusker fördert nicht nur technische Fähigkeiten, sondern auch Soft Skills wie Geduld, Ausdauer und Aufmerksamkeit für Details. Das Set bietet eine praktische Erfahrung, die theoretisches Wissen mit realen Anwendungen verbindet. Nach der Registrierung des Produkts in der App, haben wir eine Mail mit Zugang zu Lehrvideos, Programmiervideos und weiteren Inhalten erhalten.

Fazit: Der MEX Tusker Roboter-Bausatz von Avishkaar ist ein durchdachtes Lernspielzeug, das Kinder auf unterhaltsame Weise an die Welt der Technik heranführt. Es unterstützt die Entwicklung wichtiger Fähigkeiten und bietet eine solide Grundlage für zukünftige technische Bildung. Mit seiner Kombination aus Qualität, Lernwert und Spaß ist der MEX Tusker eine empfehlenswerte Investition in die Bildung junger Menschen.

Logistics League: der Wettbewerb zur Zukunft der Smart-Factory zeigt Innovationen in der Produktionslogistik

Das Konzept der Logistics League ist inspiriert vom Industrie 4.0-Szenario, also vom industriellen Szenario einer intelligenten Fabrik, und wurde zusammen mit Festo Didactic seit 2012 zum jetzigen Stand entwickelt, als der Begriff „Industrie 4.0“ überhaupt erst geprägt wurde. Dabei liegen die Herausforderungen sowohl in der Steuerung und Kontrolle der mobilen Roboter, die die Werkstücke zwischen den Fertigungsmaschinen transportieren und mit diesen interagieren, als auch in der Variantenplanung der verschiedenen möglichen Teile, die produziert werden müssen. Hier spielen insbesondere Echtzeitaspekte und Unsicherheiten wie z. B. ausfallende Maschinen und dynamische Zeitfenster, bis wann ein Produkt ausgeliefert werden muss, eine große Rolle. Die Liga gibt somit einen interessanten Einblick in die Herausforderungen mobiler, intelligenter Produktionslogistik in einer Smart-Factory-Umgebung, die sowohl im Bereich der Robotik als auch im Bereich des Jobshop-Scheduling und der Produktionsplanung liegen.

In einer intelligenten Fabrik erbringen eine Reihe von Maschinen Fertigungsdienstleistungen, um ein Werkstück zu veredeln, zusammenzubauen oder zu verändern, was schließlich zu einem Endprodukt führt. In diesem neuen Paradigma bietet die Fabrik eine Reihe von Produktionstechnologien anstelle von Produktionstypen. Diese können dann für jeden spezifischen Auftrag neu kombiniert werden. Die Idee ist, eine kosteneffiziente Produktion auch für Produkte mit geringen Stückzahlen oder hoher Varianz zu ermöglichen. Eine solche Fabrik erfordert eine flexiblere Logistik, bei der Roboter eine natürliche Wahl sind. Forschungsfragen der Liga konzentrieren sich auf die Planung und Terminierung auf Aufgabenebene – zur Automatisierung in einem industriellen Produktionsablauf und zur Integration von Multi-Roboter-Systemen.

Für Außenstehende sind die Zusammenhänge, wo gerade welches Produkt gefertigt wird und warum, oft schwer zu verstehen. Daher kommentieren die Teamchefs der spielenden Teams das Geschehen und geben Einblicke in die komplexen Zusammenhänge. In einer zentralen Steuerungseinheit, die „Refbox“ genannt wird, laufen alle Maschinendaten zusammen und die Produktionsvorgaben sind einzusehen. Diese Informationen erlauben einen Einblick in das Spielgeschehen.

Der Vorsitzende der Logistics League ist Prof. Dr. rer. nat. Alexander Ferrein, Professor am Institut für Mobile Autonome Systeme und Kognitive Robotik (MASKOR) der Fachhochschule Aachen. Er ist Mitbegründer der Liga und hat diese von Beginn an mitgestaltet.

Bei den RoboCup German Open 2024 wird es wieder einen Challenge-Track geben, der es Teams erlaubt, auch Teilaufgaben zu erfüllen. So wird es eine Challenge geben, die sich auf Navigation oder Manipulation konzentriert, ohne dass die komplexe Gesamtaufgabe erfüllt werden muss. Dies ermöglicht es auch den Zuschauenden, Einblicke in die komplexen Steuerungsabläufe zu bekommen. Besonders erfolgreich sind unter den teilnehmenden Teams das Team Carologistics aus Aachen und das Team Grips aus Graz in Österreich. Sie teilen sich seit Jahren die vorderen Plätze. Dabei ist das Team Carologistics siebenfacher Weltmeister, das Team Grips aus Graz holte sich schon zweimal den WM-Titel.

United Robotics Group nimmt als Sponsor an German Open des RoboCup 2024 in Kassel teil und präsentiert Robotik-Portfolio für den Bildungssektor

  • Die Robotik-Lösung NAO der United Robotics Group (URG) wird als Standardplattform von internationalen Teams in Wettbewerben der Standard Platform League eingesetzt. 
  • Der europäische Marktführer für Servicerobotik präsentiert sein Portfolio für den Bildungssektor am eigenen Stand. 
  • Dr. Nadja Schmiedl, CTO der URG, nimmt gemeinsam mit Vertretern des Bildungsministeriums für Bildung und Forschung am Roundtable zu KI-basierter Robotik teil.

Kassel/Bochum, 18. April 2024– Die United Robotics Group (URG), europäischer Marktführer im Bereich Servicerobotik, ist mit von der Partie bei den diesjährigen German Open des RoboCup vom 17. bis zu 21. April in Kassel. Als Sponsor des Events zeigt das Unternehmen an seinem Stand neben dem Bereich der Standard Platform League in Halle 5 innovative Roboter-Lösungen für den Bildungsbereich aus seinem Portfolio. Der RoboCup ist der weltweit größte Wettbewerb für Robotik und künstliche Intelligenz und eine zentrale Initiative für die Nachwuchsförderung, die in diesem Jahr vom Bundesministerium für Bildung und Forschung getragen wird. Damit bietet die Veranstaltung die ideale Plattform für die United Robotics Group, um die vielfältigen Anwendungsmöglichkeiten ihrer Robotik-Lösungen für den Bildungssektor zu demonstrieren. 

Der Roboter NAO, der bereits seit vielen Jahren an Schulen und Universitäten weltweit eingesetzt wird, ist aktiv an den Wettbewerben beteiligt und beweist seine Fähigkeiten in der RoboCup Major Standard Platform League. In einem Match treten zwei Teams von entweder fünf oder sieben NAO-Robotern gegeneinander an, wobei ein Spieler pro Team als Torwart fungiert. Die Roboter bewegen sich autonom und kommunizieren nur untereinander sowie mit dem Game Controller. Die Teams entwickeln Software für die Wahrnehmung, die Entscheidungsfindung und die Ausführung von Handlungen, wobei sie entweder die von RoboCup bereitgestellten Bibliotheken oder eigene Programmierungen verwenden. Während des Wettbewerbs stellt die URG ein Reparaturteam (NAO-Klinik).

Bei den German Open des RoboCup stellen sich in den Hallen 3 bis 5 der Messe Kassel Teams von Universitäten, Hochschulen und Firmen mit ihren Robotersystemen in mehreren Ligen ihren Gegnern. Über 800 Talente aus der ganzen Welt nehmen teil – darunter die Major-Ligen mit über 30 Teams aus Deutschland, Frankreich, Großbritannien, Italien, Österreich, den Niederlanden und den USA. Zudem treten die besten 200 Schülerteams aus Deutschland in den Juniorligen in Altersklassen von 10 bis 19 Jahren gegeneinander an. Gefightet wird in vier Kategorien: RoboCupSoccer, RoboCup@Home, RoboCupRescue sowie RoboCupIndustrial.

„Im Rahmen des RoboCups zeigen wir, wie sich anspruchsvolle Visionen mit Lösungen der URG im Bereich Learning und Education realisieren lassen. Im Vordergrund steht dabei die Förderung von Talenten im Tech-Bereich. Es geht um nichts Geringeres als die systematische auf die Anforderungen von morgen“, erklärt Dr. Nadia Schmiedl, CTO der United Robotics Group. „So wollen wir den Nachwuchs fit für die Zukunft machen, in der Robotik aufgrund aktueller gesellschaftlicher Herausforderungen wie dem demografischen Wandel und dem damit verbundenen Fachkräftemangel immer häufiger zum Einsatz kommen wird. In diesem Zuge geht es auch um eine höhere Akzeptanz der Technologie.“

Vier Lösungen, ein Ziel: gewinnen für optimierte Bildungsmethoden 

An ihrem eigenen Stand neben dem Bereich der Standard Platform League in Halle 5 demonstriert die URG dazu konkret vier Lösungen aus ihrem Portfolio:

  • Blockly. Interactive Robotics zielt vor allem auf Servicerobotik-Angebote in den Bereichen Bildung und Healthcare. Die Lösung eignet sich zur Vermittlung von Mensch-Roboter-Interaktionsformen und zur Stärkung digitaler Kenntnisse bis hin zum anspruchsvollen Programmieren. Die Lösung erfordert keinerlei technische Kenntnisse und ist daher besonders leicht zugänglich und flexibel in verschiedenen Bereichen einsetzbar.
  • Jupyter AI Package NAO steht für die Integration des NAO-Serviceroboters in Jupyter Notebooks. Die Lösung nutzt die Echtzeit-Daten der Sensoren von NAO sowie Remote Control-Funktionen und ermöglicht Lehrkräften den Unterricht in den Bereichen Programmierung, Datenwissenschaft und maschinelles Lernen praxisnah zu gestalten und flexibel an verschiedene Lernanforderungen anzupassen.
  • NAO Maze lässt den Serviceroboter NAO mithilfe der ArUco Marker Detection-Technologie durch ein Labyrinth navigieren. Dafür nutzt die Lösung die Sensoren und Kameras von NAO. Diese Technologie kommt hauptsächlich bei Aufgaben wie Kartierung, Routenplanung oder dem Ausweichen von Hindernissen zum Einsatz. 
  • Die Verbindung des Serviceroboters Pepper mit ChatGPT erschließt eine neue Dimension der Interaktivität und Ausdrucksfähigkeit. Im Unterschied zu konventionellen textbasierten Ansätzen steht die Einbeziehung eines physischen Roboters für eine erweiterte Kommunikation einschließlich Gestik und Echtzeit-Interaktionen.  In Bildungseinrichtungen bietet die Kombination von ChatGPT und Robotern einen innovativen Ansatz für interaktives Lernen. Lernende können personalisierte Unterstützung erhalten, Fragen stellen und an dynamischen Unterhaltungen teilnehmen, die reale Interaktionen nachahmen.

Neben den Wettbewerben und Showcases stellt die URG mit ihrer CTO Dr. Nadja Schmiedl eine prominente Teilnehmerin des hochkarätig besetzten Roundtables am 19. April, der einen kompakten Überblick über relevante Themen und den aktuellen Status quo gibt. Um 14:00 Uhr startet die Runde, die unter Beteiligung des Bundesministeriums für Bildung und Forschung in Gestalt von Vertretern der VDI/VDE Innovation + Technik GmbH-Projektträger für das Ministerium stattfindet. Schwerpunktthemen sind die Rolle von Wettbewerben bei der Förderung von Talenten in der intelligenten Robotik sowie die Bedeutung von Robotik und KI für gesamtgesellschaftliche Fragen.

Die Gewinner der German Open treffen beim RoboCup 2024 erneut aufeinander, der in diesem Jahr vom 17. – 21. Juli in Eindhoven (Niederlande) stattfindet und bei dem auch die United Robotics Group vertreten sein wird. 

Quincy, ein malender Lernroboter

Quincy ist ein Roboter, der speziell für Kinder im Alter von 3 bis 8 Jahren entwickelt wurde. Er hat die Gestalt eines putzigen Roboter-Zyklopen mit zwei magnetischen Armen, die einen Stift halten können. Er kann verschiedene Bilder zeichnen, die er von speziellen Karten scannt, und dabei Kinder anleiten, ihm zu folgen und mitzuzeichnen. Er kann auch lehren, wie man das Alphabet, die Rechtschreibung, das Zählen und Mathematik lernt, indem er ihnen Geschichten erzählt, Fragen stellt und sie zum Mitmachen auffordert.

Quincy ist mehr als nur ein Spielzeug, er ist ein innovativer Lernbegleiter, der die Kreativität, die kognitiven und die sprachlichen Fähigkeiten der Kinder fördert. Er verwendet eine interaktive und spielerische Methode, um die Kinder zu motivieren. Er passt sich dem Lernniveau und dem Tempo der Kinder an und gibt ihnen positives Feedback und Ermutigung. Er ist ebenso ein schönes Spielzeug, das die Kinder unterhält und aktiv beschäftigt.

Quincy funktioniert mit verschiedenen Karten, die er mit seinem Auge, bzw. der dahinter verbauten Kamera, scannen kann. Es gibt vier Arten von Karten: Zeichenkarten, Buchstabenkarten, Zahlenkarten und Mathe-Herausforderungskarten. Die Zeichenkarten enthalten Bilder von Tieren, Pflanzen, Objekten und anderen Themen, die Quincy zeichnen und erklären kann. Die Buchstabenkarten enthalten die 26 Buchstaben des Alphabets, die Quincy verwenden kann, um die Kinder das Alphabet und die Rechtschreibung zu lehren. Die Zahlenkarten enthalten die Zahlen von 0 bis 9, die Quincy verwenden kann, um Kindern das Zählen und die Grundrechenarten zu lehren. Die Mathe-Herausforderungskarten enthalten Geschichten mit Mathefragen, die Quincy zeichnen und erzählen kann, und die Kinder sollen die richtige Antwort mit den Zahlenkarten geben.

Um Quincy zu benutzen, muss man ihn zuerst einschalten, indem man den Lautstärkeregler nach rechts dreht. Dann muss man einen Stift in seine Arme stecken, so dass die Spitze das Papier berührt. Dann muss man Quincy auf die obere Mitte des Papiers stellen, so dass seine Arme über dem Papier sind. Dann kann man eine Karte auswählen, die man Quincy zeigen möchte, und sie in etwa 5 cm Entfernung von sein Auge halten. Wenn sein Auge blinkt, bedeutet das, dass er die Karte erkannt hat, und man kann die Weiter-Taste drücken, um fortzufahren. Quincy wird dann das Bild zeichnen oder die Geschichte erzählen, und die Kinder können mitzeichnen oder ihm antworten. Mit der Weiter, Wiederholen oder Pause Taste lassen sich die Ansagen entsprechend steuern.

Quincy hat ein modernes und einzigartiges Design, das ihm Flexibilität und Stabilität beim Zeichnen und Schreiben verleiht. Er hat eine Saugnapfkonstruktion, die verhindert, dass er versehentlich beim Zeichnen verrutscht, und einen Arm, der durch seine magnetische Befestigung verhindert, dass er abbricht, wenn er mal herunterfällt. Seine schnelle Scanfähigkeit von 0,5 Sekunden ermöglicht es ihm, Bilder sofort zu erkennen und zu zeichnen. Er hat einen eingebauten 2500mAh wiederaufladbaren Lithium-Akku, der 2-2,5 Stunden zum Aufladen benötigt und 5,5 Stunden ohne Unterbrechung arbeiten kann. Er hat einen eingebauten gut klingenden Lautsprecher, der seine Stimme klar und angenehm macht. Er ist aus PET-Kunststoff gefertigt und hat eine rutschfeste Silikonbasis.

Das erste Ausprobieren und Starten von Qunicy gelang uns auf Anhieb und stellt keine Hürde dar. Vermutlich schaffen es die meisten Kinder, ohne die Hilfe Ihrer Eltern, Quincy in Betrieb zu nehmen. Wir empfehlen Quincy direkt neben einem Malblock zu platzieren, der gegen Verrutschen gesichert ist oder entsprechendes Eigengewicht besitzt.

Quincy ist bei Amazon für ca. 90 Euro erhältlich. Das Quincy Starterpaket enthält: Quincy, eine Bedienungsanleitung, zwei magnetische Arme, ein Ladekabel sowie zwei Stifte. Außerdem sind 24 Zeichenaufgaben, 4 Mathematikaufgaben, 26 Buchstabenkarten und 10 Zahlenkarten enthalten. Es gibt auch ein Quincy Erweiterungsset, das bald erhältlich sein wird, und das mehr Rechenaufgaben, Zeichenaufgaben und Buchstabieraufgaben bietet.

Quincy ist ein pädagogischer Zeichenroboter, der Kindern hilft, ihre Kreativität zu entwickeln und das Zeichnen zu lernen. Er ist ein perfekter Hauslehrer für Ihre Kinder, der ihnen verschiedene Fähigkeiten und Kenntnisse vermittelt, wie z.B das Alphabet, Rechtschreibung, Zählen, Mathe und mehr. Er ist ein lustiger und lehrreicher Begleiter, der Kinder zu motivieren und beschäftigen weiß.

Das kickt so richtig: Fussballspiel der intelligenten autonomen NAO-Roboter birgt hohen Unterhaltungswert

Wenn alle Teams der RoboCupMajor Standard Platform League (SPL) den gleichen Robotertyp nutzen, dann heißt es, alles aus den humanoiden NAOs der United Robotics Group herauszuholen. Nur so kann der Sieg gelingen! Die Liga bietet damit sehr gute Evaluierungs- und Vergleichsmöglichkeiten der von den Teams entwickelten Software für die kooperativen humanoiden Multi-Robotersysteme. Diese agieren völlig autonom in der dynamischen Umgebung des Fußballspiels. Gespielt wird 20 Minuten lang auf einem 9 x 6 Meter großem Spielfeld. Die Zweikämpfe zwischen den Robotern um den Ball finden dabei in einer Geschwindigkeit statt, die alle Zuschauenden gut mitverfolgen können.

Spannung ist auch vorprogrammiert, da fast alle der neun an den German Open 2024 in Kassel teilnehmenden Teams in den Top 10 der internationalen Standard Platform League anzusiedeln sind. Das Team B-Human vom DFKI und der Universität in Bremen ist mehrfacher Weltmeister und auch das Team HTWK Robots von der Hochschule für Technik, Wirtschaft und Kultur in Leipzig holte sich bereits zweimal den WM-Titel.

Vorsitzender der RoboCupMajor Standard Platform League ist Patrick Göttsch, Research Assistant am Institute of Control Systems der Technischen Universität Hamburg. Er ist seit 2015 in die Organisation involviert. „Ich habe bereits in verschiedenen Positionen angepackt, Veranstaltungen entstehen lassen und die Liga jedes Jahr ein Stück weiter in die Richtung Ziel 2050 voranzubringen.“ Ziel 2050? Hierbei handelt es sich um die Gründungsidee des RoboCup: Mitte des 21. Jahrhunderts soll eine Mannschaft aus vollständig autonomen humanoiden Roboter-Fußballspielern nach den offiziellen FIFA-Regeln gegen die Sieger der dann letzten Fußball-WM gewinnen können.

Für Patrick Göttsch sind besonders zwei Dinge spannend: „Erstens Studierende in einem solchen Projekt anzuleiten und zu sehen, wie sie sich entwickeln, und das Event in der SPL-Familie zu erleben und jedes Jahr wieder weiterzuentwickeln und zu organisieren.“ Er ergänzt: „SPL und RoboCup sind nicht nur Roboter, die Fußball spielen, sondern vielmehr tolle Menschen, die zusammen die Leidenschaft teilen, Robotern das Fußballspielen beizubringen.“ Dabei sind die Roboter vollständig autonom auf dem Spielfeld. Sie müssen anhand ihrer Kameras die Umgebung erkennen und verstehen, ihre Aktionen und Bewegungen planen und einen komplexen Bewegungsapparat mit vielen Gelenkmotoren effektiv für vielfältige Bewegungen in unterschiedlichen Spielsituationen einsetzen. Dabei muss es im Fußball schnell gehen, dabei stehen auf den Robotern dafür keine Supercomputer zur Verfügung.

Die Standard Platform League ist seit der zweiten Austragung des RoboCup 1998 dabei. Zunächst wurde von 1998 bis 2008 mit Roboterhunden von Sony gespielt, seit 2008 werden humanoide NAOs eingesetzt, inzwischen in der vierten Generation. Die SPL stellt von Beginn an eine einzigartige Vergleichbarkeit von unterschiedlichsten Algorithmen und KI-Methoden in hoch komplexen Gesamtsoftwaresystemen auf realer Hardware her und ist mit den zuerst vierbeinigen und später zweibeinigen Robotern schon optisch nah dran am Ziel, gegen menschliche Fußballspieler spielen zu können.

Robotics competitions in Hamburg: Winners are alliances from Berlin and Brandenburg as well as Rockenhausen and Berlin

VRC und VIQC German Masters Winners:

▪ Winners of the VEX Robotics Competition: Alexander-von-Humboldt-Gymnasium (Berlin) and Heinitz-Gymnasium (Rüdersdorf)
▪ Winners of the VEX IQ Challenge: IGS Rockenhausen (Rhineland-Palatinate) and BEST-Sabel (Berlin)
▪ Almost 35 teams met at the German finals from 6 to 8 March
▪ Students from IGS Rockenhausen (Rhineland-Palatinate) and Ernst-Abbe Gymnasium in Oberkochen secured tickets for the VEX Robotics World Championship in Dallas

Hamburg, March 8, 2024. Hectic activity has reigned over the past three days at the Hamburg University of Applied Sciences (HAW Hamburg). Around 150 pupils from general education schools and vocational schools from all over Germany worked on robots that they had designed themselves over the past few months. Their goal: For the final rounds of the German VEX robot competitions, they wanted to get the best out of their babies. A total of 14 trophies were up for grabs, which were ultimately awarded to twelve different teams. 

Winners of the cooperative tournament competitions at the German Masters  In the VEX Robotics Competition (VRC), the Alexander-von-Humboldt Gymnasium (Berlin) and the Heinitz-Gymnasium (Rüdersdorf) prevailed. The VEX IQ Challenge (VIQC) was won by an alliance of IGS Rockenhausen  (Rhineland-Palatinate) and BEST-Sabel educational institutions (Berlin). 

Luca Eckert (from left) and Jonas Köhler (IGS) as well as Tim Heintze and Konrad Möhring (BEST-Sabel) won the VEX IQ Teamwork Challenge

The German Masters gives you the opportunity to qualify for the VEX Worlds. These „World Championships“ will take place from April 25 to May 3 in Dallas, Texas, with 1,000 teams from 50 countries. The prerequisite for flying overseas: winning the Excellence Awards. A jury awards them on the basis of the performance in the competition and other criteria such as the capabilities of a robot in comparison. Students from IGS Rockenhausen (High and Middle School) and the Ernst-Abbe-Gymnasium in Oberkochen (Middle and Elementary School) will travel to Dallas. 

Tobit Gries (from left), Sebastian Gasior and Jakob Bachmann from IGS Rockenhausen snatched the Excellence Award/High School

The worldwide competitions of the Robotics Education &  Competition (REC) Foundation, which is based in the USA, are organized in Germany by the Hamburg-based association  roboMINT. 

The VEX Robotics Competition (VRC) is open to students from the age of eleven . A team consists of at least two students, it competes in alliances  against other teams. The aim of a game in autonomous and remote-controlled  driving modes is, among other things, to get as many tripballs as possible into your own goal or into  your own offensive zone.  

Till Schneider (l.) and Vincent Fratzscher (Heinitz-Gymnsaium) won the trophy in the VRC team competition

The VEX IQ Challenge (VIQC) is open to students between the ages of eight and 15. A team consists of at least two students, it competes together with another team. One of the goals of the game is to convert as many blocks as possible into goals. Points are also awarded if the robot is parked in the „Supply Zone“ at the end of a match.  

Anes Rebahi (from left), Nico Menge, Karl Steinbach, Maximilian Marschner and Erik Tunsch (Alexander-von Humboldt-Gymnasium) won the VRC team competition

VRC und VIQC German Masters Gewinner

Robotikwettbewerbe in Hamburg: Gewinner  sind Allianzen aus Berlin und Brandenburg  sowie Rockenhausen und Berlin 

Sieger der VEX Robotics Competition: Alexander-von-Humboldt-Gymnasium (Berlin) und Heinitz-Gymnasium (Rüdersdorf) 
▪ Sieger der VEX IQ Challenge: IGS Rockenhausen (Rheinland-Pfalz) und BEST-Sabel (Berlin)
▪ Knapp 35 Teams trafen beim Deutschland-Finale vom 6. bis 8. März aufeinander 
▪ Schüler der IGS Rockenhausen (Rheinland-Pfalz) und des Oberkochener Ernst-Abbe Gymnasiums sicherten sich die Tickets für die VEX Robotics World Championship in Dallas  

Hamburg, 8. März 2024. Hektische Betriebsamkeit hat in den vergangenen drei Tagen an der Hochschule für Angewandte Wissenschaften Hamburg (HAW Hamburg) geherrscht. Etwa 150 Schüler von allgemeinbildenden Schulen und Berufsschulen aus ganz Deutschland schraubten und programmierten dort an Robotern, die sie in den vergangenen Monaten selbst konstruiert hatten. Ihr Ziel: Für die Endrunden der deutschen VEX-Roboterwettbewerbe wollten sie aus ihren Babys noch das Optimum herausholen. Insgesamt gab es 14 Pokale zu  holen, mit denen schließlich zwölf verschiedene Teams ausgezeichnet wurden. 

Gewinner der kooperativen Turnierwettbewerbe bei den German Masters  Bei der VEX Robotics Competition (VRC) setzten sich das Alexander-von-Humboldt Gymnasium (Berlin) und das Heinitz-Gymnasium (Rüdersdorf) durch. Die VEX IQ Challenge (VIQC) entschied ein Bündnis der IGS Rockenhausen  (Rheinland-Pfalz) und der BEST-Sabel Bildungseinrichtungen (Berlin) für sich. 

 Luca Eckert (v.l.) und Jonas Köhler (IGS) sowie Tim Heintze und Konrad  Möhring (BEST-Sabel) siegten in der VEX IQ Teamwork Challenge

Über die German Masters besteht die Möglichkeit, sich für die VEX Worlds zu  qualifizieren. Diese „Weltmeisterschaften“ finden vom 25. April bis 3. Mai in Dallas  (US-Bundesstaat Texas) mit 1.000 Teams aus 50 Ländern statt. Voraussetzung für  den Flug nach Übersee: der Gewinn der Excellence Awards. Eine Jury vergibt sie auf  Basis des Abschneidens im Wettbewerb und weiterer Kriterien wie etwa den  Fähigkeiten eines Roboters im Vergleich. Nach Dallas geht es für Schüler der IGS  Rockenhausen (High und Middle School) und des Ernst-Abbe-Gymnasiums in  Oberkochen (Middle und Elementary School). 

Tobit Gries (v.l.), Sebastian Gasior und Jakob Bachmann von der IGS  Rockenhausen schnappten sich den Excellence Award/High School

Die weltweiten Wettbewerbe der in den USA beheimateten Robotics Education &  Competition (REC) Foundation werden hierzulande vom Hamburger Verein  roboMINT organisiert. 

An der VEX Robotics Competition (VRC) können Schüler im Alter ab elf Jahren  teilnehmen. Ein Team besteht aus mindestens zwei Schülern, es tritt in Allianzen  gegen andere Teams an. Ziel eines Spiels in autonomen und ferngesteuerten  Fahrmodi ist es unter anderem, so viele Triballs wie möglich ins eigene Tor oder in  die eigene Offensive Zone zu bringen.  

Till Schneider (l.) und Vincent Fratzscher (Heinitz-Gymnsaium) holten sich im  VRC-Teamwettbewerb den Pokal

Im Rahmen der VEX IQ Challenge (VIQC) sind Schüler im Alter von acht bis 15  Jahren zugelassen. Ein Team besteht aus mindestens zwei Schülern, es tritt  zusammen mit einem anderen Team an. Ziel des Spiels ist es unter anderem,  möglichst viele Blöcke in Tore zu verfrachten. Punkte gibt es auch, wenn der Roboter  am Ende eines Matches in der „Supply Zone“ geparkt wird.  

Anes Rebahi (v.l.), Nico Menge, Karl Steinbach, Maximilian Marschner und Erik  Tunsch (Alexander-von Humboldt-Gymnasium) siegten im VRC-Teamwettbewerb