United Robotics Group presents new modular uLink series for retail, warehouse logistics and production

  • At VivaTech 2024, the United Robitics Group (URG) will be showing the new product in action – together with other robots from the URG fleet, which are fully adapted to the needs of retailers.
  • uLink is a highly flexible, versatile platform for rapid adaptation and support in logistics and automation.
  • uLink is the first URG solution with an open API for seamless integration with operating systems and greater operational flexibility.

Paris/Bochum, May 22, 2024 – At VivaTech in Paris, the United Robotics Group will be presenting its new service robots from the uLink series for the first time, which are characterized by easy integration, flexible customization and individual extensions. They are suitable for use in retail, warehouse logistics and manufacturing. As the European market leader for service robotics solutions, URG is expanding its CobiotX portfolio worldwide with the latest Cobiot for integrated workflows in the aforementioned segments. The modular platform fits seamlessly into the respective workflows and can be expanded with industry-standard accessories. uLink is designed to simplify operations and increase safety and efficiency in various environments. The unique combination of features sets new standards in the industry – from modular design and open API to 3D LiDAR-based navigation and real-time operational data visualization. 

uLink is equipped with IDE, SDK and fleet management tools and allows the seamless integration and control of various components such as LiDARS, engines or sensors. Thanks to powerful software functions for configuring and managing robot applications, as well as sensors and accessories, the robot can easily handle various logistics challenges in trade and warehousing, which vary depending on the industry, company size and automation requirements. The uLink accessory interface is also modular, so that the usable area can carry a payload of up to 60 kg. The SEER navigation control allows deliveries in a predefined area of up to 400,000 m².

With the help of the plug-and-play mechanism, other accessories such as a locker for Click & Collect or confidential deliveries, a pegboard for the delivery of tools and spare parts, and trays for transporting stock can be integrated into the platform. In addition, partner integrators can develop new accessories to meet specific requirements.

„The retail and logistics sector has been undergoing a profound transformation for years, related to the growth of e-commerce, automation and the shortage of skilled workers in the value chain. Whether it’s shelf replenishers or water-spiders, i.e. those responsible for inventory in warehouses or production: it is important to support the players and offer solutions that meet their specific needs,“ explains Thomas Linkenheil, Co-CEO of the United Robotics Group. „In a highly competitive sector, consumers want a fast and personalized service. Our new logistics solution enables service providers to offer up-to-date customer service without long searches in the warehouse or tedious processes that can cost time and affect customer business.“

First Cobiot with an open API for connectivity and flexibility

Like all CobiotX solutions from the United Robotics Group, uLink is also equipped with a particularly user-friendly user interface. It is based on the no-code principle and enables users without robotics knowledge to quickly integrate into daily operations. In addition, uLink has an open API platform. This allows the solution to communicate with existing operations and other connected systems such as automatic doors or elevators, and also work with other robots and automated guided vehicles such as AMRs and AGVs.

With the launch of uLink, United Robotics Group is expanding its range of robotics solutions for logistics, warehouse management and industrial manufacturing. The robot is intended to be used in retail and logistics environments such as department stores, supermarkets, warehouses and fulfillment centers, but also factories and production facilities as well as airports and healthcare facilities.

The robot is equipped with 3D LiDAR and PL LiDAR systems for maximum precision in mobility. The platform can immediately register changes in the environment such as certain movements or people or machines and react accordingly. It is connected to an online dashboard that facilitates both workflow management and quick decisions between front- and back-of-house teams. 

uLink has a long battery life of up to 14 hours on a single charge. In addition, the solution has an intelligent, wireless charging function that was developed with a well-known German battery manufacturer. This allows it to automatically return to the charging station between individual operations. The robot complies with the highest security and privacy standards, including the EU’s Performance Level D Machinery Directive and GDPR regulations. 

uLink, along with United Robotics Group’s logistics and warehouse management fleet, including RBWatcher and MobilePalletizer, will be on display at the company’s VivaTech booth (Hall 1, Booth G18) in Paris from May 22-25. 

uLink can be rented via the RaaS (Robot as a Service) model of the United Robotics Group from 699 euros / month or purchased for 19,900 euros. 

Exploring Elephant Robotics LIMO Cobot

1. Introduction:

This article primarily introduces the practical application of LIMO Cobot by Elephant Robotics in a simulated scenario. You may have seen previous posts about LIMO Cobot’s technical cases, A[LINK]B[LINK]. The reason for writing another related article is that the original testing environment, while demonstrating basic functionality, often appears overly idealized and simplified when simulating real-world applications. Therefore, we aim to use it in a more operationally consistent environment and share some of the issues that arose at that time.

2. Comparing the Old and New Scenarios:

First, let’s look at what the old and new scenarios are like.

Old Scenario: A simple setup with a few obstacles, relatively regular objects, and a field enclosed by barriers, approximately 1.5m*2m in size.

New Scenario: The new scenario contains a wider variety of obstacles of different shapes, including a hollowed-out object in the middle, simulating a real environment with road guidance markers, parking spaces, and more. The size of the field is 3m*3m.

The change in environment is significant for testing and demonstrating the comprehensiveness and applicability of our product.

3. Analysis of Practical Cases:

Next, let’s briefly introduce the overall process.

The process is mainly divided into three modules: one is the functionality of LIMO PRO, the second is machine vision processing, and the third is the functionality of the robotic arm. (For a more detailed introduction, please see the previous article [link].)

LIMO PRO is mainly responsible for SLAM mapping, using the gmapping algorithm to map the terrain, navigate, and ultimately achieve the function of fixed-point patrol.

myCobot 280 M5 is primarily responsible for the task of grasping objects. A camera and a suction pump actuator are installed at the end of the robotic arm. The camera captures the real scene, and the image is processed by the OpenCV algorithm to find the coordinates of the target object and perform the grasping operation.

Overall process:

1. LIMO performs mapping.⇛

2. Run the fixed-point cruising program.⇛

3. LIMO goes to point A ⇛ myCobot 280 performs the grasping operation ⇒ goes to point B ⇛ myCobot 280 performs the placing operation.

4. ↺ Repeat step 3 until there are no target objects, then terminate the program.

Next, let’s follow the practical execution process.

Mapping:

First, you need to start the radar by opening a new terminal and entering the following command:

roslaunch limo_bringup limo_start.launch pub_odom_tf:=false

Then, start the gmapping mapping algorithm by opening another new terminal and entering the command:

roslaunch limo_bringup limo_gmapping.launch

After successful startup, the rviz visualization tool will open, and you will see the interface as shown in the figure.

At this point, you can switch the controller to remote control mode to control the LIMO for mapping.

After constructing the map, you need to run the following commands to save the map to a specified directory:

1. Switch to the directory where you want to save the map. Here, save the map to `~/agilex_ws/src/limo_ros/limo_bringup/maps/`. Enter the command in the terminal:

cd ~/agilex_ws/src/limo_ros/limo_bringup/maps/

2. After switching to `/agilex_ws/limo_bringup/maps`, continue to enter the command in the terminal:

rosrun map_server map_saver -f map1

This process went very smoothly. Let’s continue by testing the navigation function from point A to point B.

Navigation:

1. First, start the radar by entering the following command in the terminal:

roslaunch limo_bringup limo_start.launch pub_odom_tf:=false

2. Start the navigation function by entering the following command in the terminal:

roslaunch limo_bringup limo_navigation_diff.launch

Upon success, this interface will open, displaying the map we just created.

Click on „2D Pose Estimate, “ then click on the location where LIMO is on the map. After starting navigation, you will find that the shape scanned by the laser does not overlap with the map. You need to manually correct this by adjusting the actual position of the chassis in the scene on the map displayed in rviz. Use the tools in rviz to publish an approximate position for LIMO. Then, use the controller to rotate LIMO, allowing it to auto-correct. When the shape of the laser scan overlaps with the shapes in the map’s scene, the correction is complete, as shown in the figure where the scanned shape and the map overlap.

Click on „2D Nav Goal“ and select the destination on the map for navigation.

The navigation test also proceeds smoothly.

Next, we will move on to the part about the static robotic arm’s grasping function.

Identifying and Acquiring the Pose of Aruco Codes

To precisely identify objects and obtain the position of the target object, we processed Aruco codes. Before starting, ensure the specific parameters of the camera are set.

Initialize the camera parameters based on the camera being used.

def __init__(self, mtx: np.ndarray, dist: np.ndarray, marker_size: int):
self.mtx = mtx
self.dist = dist
self.marker_size = marker_size
self.aruco_dict = cv2.aruco.Dictionary_get(cv2.aruco.DICT_6X6_250)
self.parameters = cv2.aruco.DetectorParameters_create()

Then, identify the object and estimate its pose to obtain the 3D position of the object and output the position information.

def estimatePoseSingleMarkers(self, corners):
"""
This will estimate the rvec and tvec for each of the marker corners detected by:
corners, ids, rejectedImgPoints = detector.detectMarkers(image)
corners - is an array of detected corners for each detected marker in the image
marker_size - is the size of the detected markers
mtx - is the camera matrix
distortion - is the camera distortion matrix
RETURN list of rvecs, tvecs, and trash (so that it corresponds to the old estimatePoseSingleMarkers())
"""
marker_points = np.array([[-self.marker_size / 2, self.marker_size / 2, 0],
[self.marker_size / 2, self.marker_size / 2, 0],
[self.marker_size / 2, -self.marker_size / 2, 0],
[-self.marker_size / 2, -self.marker_size / 2, 0]], dtype=np.float32)
rvecs = []
tvecs = []
for corner in corners:
retval, rvec, tvec = cv2.solvePnP(marker_points, corner, self.mtx, self.dist, False,
cv2.SOLVEPNP_IPPE_SQUARE)
if retval:
rvecs.append(rvec)
tvecs.append(tvec)

rvecs = np.array(rvecs)
tvecs = np.array(tvecs)
(rvecs - tvecs).any()
return rvecs, tvecs

The steps above complete the identification and acquisition of the object’s information, and finally, the object’s coordinates are returned to the robotic arm to execute the grasping.

Robotic Arm Movement and Grasping Operation

Based on the position of the Aruco marker, calculate the target coordinates the robotic arm needs to move to and convert the position into a coordinate system suitable for the robotic arm.

def homo_transform_matrix(x, y, z, rx, ry, rz, order="ZYX"):
rot_mat = rotation_matrix(rx, ry, rz, order=order)
trans_vec = np.array([[x, y, z, 1]]).T
mat = np.vstack([rot_mat, np.zeros((1, 3))])
mat = np.hstack([mat, trans_vec])
return mat

If the Z-axis position is detected as too high, it will be corrected:

if end_effector_z_height is not None:  
p_base[2] = end_effector_z_height

After the coordinate correction is completed, the robotic arm will move to the target position.

# Concatenate x, y, z, and the current posture into a new array
new_coords = np.concatenate([p_base, curr_rotation[3:]])
xy_coords = new_coords.copy()

Then, control the end effector’s API to suction the object.

The above completes the respective functions of the two robots. Next, they will be integrated into the ROS environment.

#Initialize the coordinates of point A and B
    goal_1 = [(2.060220241546631,-2.2297520637512207,0.009794792000444471,0.9999520298742676)] #B
    goal_2 = [(1.1215190887451172,-0.002757132053375244,-0.7129997613218174,0.7011642748707548)] #A
    #Start navigation and link the robotic arm
    map_navigation = MapNavigation()
    arm = VisualGrasping("10.42.0.203",9000)
    print("connect successful")

    arm.perform_visual_grasp(1,-89)
    # Navigate to location A and perform the task
        for goal in goal_1:
        x_goal, y_goal, orientation_z, orientation_w = goal
        flag_feed_goalReached = map_navigation.moveToGoal(x_goal, y_goal, orientation_z, orientation_w)
        if flag_feed_goalReached:
            time.sleep(1)
            # executing 1 grab and setting the end effector's Z-axis height to -93.
            arm.unload()
            print("command completed")
        else:
            print("failed")

4. Problems Encountered

Mapping Situation:

When we initially tried mapping without enclosing the field, frequent errors occurred during navigation and localization, and it failed to meet our requirements for a simulated scenario.

Navigation Situation:

In the new scenario, one of the obstacles has a hollow structure.

During navigation from point A to point B, LIMO may fail to detect this obstacle and assume it can pass through, damaging the original obstacle. This issue arises because LIMO’s radar is positioned low, scanning only the empty space. Possible solutions include adjusting the radar’s scanning range, which requires extensive testing for fine-tuning, or adjusting the radar’s height to ensure the obstacle is recognized as impassable.

Robotic Arm Grasping Situation:

In the video, it’s evident that our target object is placed on a flat surface. The grasping did not consider obstacle avoidance for the object. In the future, when setting special positions for grasping, this situation needs to be considered.

5. Conclusion

Overall, LIMO Cobot performed excellently in this scenario, successfully meeting the requirements. The entire simulated scenario covered multiple core areas of robotics, including motion control of the robotic arm, path planning, machine vision recognition and grasping, and radar mapping navigation and fixed-point cruising functions of the mobile chassis. By integrating these functional modules in ROS, we built an efficient automated process, showcasing LIMO Cobot’s broad adaptability and advanced capabilities in complex environments.

Credits

Elephant Robotics

Elephant Robotics

Elephant Robotics stellt myArm-Roboter der M&C-Serie vor

Entdecken Sie die Roboter der myArm M&C-Serie für vielseitige, leistungsstarke Lösungen in der Robotik, die eine präzise Steuerung und vielfältige Anwendungen bieten.


SHENZHEN, GUANGDONG, CHINA, 10. Mai 2024 /EINPresswire.com/ — Die Forschung zur verkörperten Intelligenz als kritischer Zweig der künstlichen Intelligenz ist bestrebt, Roboter mit neuen Fähigkeiten für präzise Bewegungssteuerung, autonome Entscheidungsfindung auf hohem Niveau und nahtlose Mensch-Maschine-Interaktion auszustatten.

Vor diesem Hintergrund hat Elephant Robotics kürzlich die Roboter der M&C-Serie myArm vorgestellt. Diese leistungsstarken und kostengünstigen Leichtbauroboter unterstützen Forscher und Entwickler sowohl bei der Datenerfassung als auch bei der Ausführung und treiben die Fortschritte in der Technologie der verkörperten Intelligenz und ihrer praktischen Anwendungen voran.

Die Roboter der myArm M&C-Serie wurden sorgfältig entwickelt, um die unterschiedlichen Bedürfnisse der Benutzer zu erfüllen, wobei Flexibilität und Anpassungsfähigkeit im Vordergrund stehen. Sie spielen eine zentrale Rolle in verschiedenen Forschungs- und Anwendungsszenarien und sind damit die ideale Robotiklösung für Bildungs- und Forschungszwecke.

myArm C650

The myArm C650 ist ein universelles 6-DOF-Gerät zur Erfassung von Roboterbewegungsinformationen, das entwickelt wurde, um die vielfältigen Anforderungen von Bildung, Forschung und Industrie bei der Erfassung und Analyse von Roboterbewegungsdaten zu erfüllen. Mit seinem leichten Design von nur 1,8 kg verfügt der myArm C650 über einen horizontalen Arbeitsradius von 650 mm, wodurch die Trägheitskräfte während des Betriebs minimiert werden, um die Reaktionsgeschwindigkeit und Präzision zu verbessern.

Ausgestattet mit hochpräzisen digitalen Servomotoren und 4096-Bit-Encodern an allen 6 Gelenken ahmt der myArm C650 die Bewegung des menschlichen Arms mit bemerkenswerter Genauigkeit nach und ermöglicht so eine Vielzahl von Aufgaben. Seine intuitive Steuerungsmethode mit Doppelfinger-Fernbedienung und zwei anpassbaren Tasten unterstützt Aufzeichnungsfunktionen für eine präzise Befehlsausführung und sofortiges Feedback zum Roboterverhalten. Diese Flexibilität macht den myArm C650 zur idealen Wahl für die präzise Bewegungsverfolgung und Datenerfassung in verschiedenen experimentellen und pädagogischen Umgebungen. Mit einer beeindruckenden Informationserfassungsgeschwindigkeit von bis zu 50 Hz ist es für die Entwicklung von Roboteralgorithmen und Hochschuleinrichtungen unverzichtbar geworden und bietet Echtzeit-Datenunterstützung für komplexe Steuerungssysteme.

Bei Fernsteuerungsanwendungen zeichnet sich der myArm C650 durch eine hervorragende Leistung aus, unabhängig von der Komplexität der Konfiguration des Roboters. Darüber hinaus erweitert die Kompatibilität mit Python und ROS in Verbindung mit Open-Source-Demonstrationsdateien für die Fernsteuerung den Anwendungsbereich und ermöglicht eine nahtlose Integration mit fortschrittlichen Roboterplattformen wie dem myArm M750, myCobot Pro 630 und Mercury B1.

Der myArm C650 setzt einen neuen Standard für Vielseitigkeit und Leistung bei der Erfassung von Roboterbewegungsdaten und ermöglicht es Benutzern, das volle Potenzial fortschrittlicher Robotik in verschiedenen Bereichen auszuschöpfen.

myArm M750

Der myArm M750 ist ein universeller, intelligenter 6-DOF-Roboterarm. Es erfüllt nicht nur die Nachfrage nach hochpräziser Roboterbewegungssteuerung, sondern eignet sich besonders für die Verifizierung von Roboterbewegungsalgorithmen auf Einstiegsniveau und praktische Lehrszenarien. Seine standardisierte mechanische Armstruktur bietet Studenten und Anfängern eine ideale Lernplattform, um die Grundprinzipien und Anwendungen der Roboterkinematik zu verstehen.

Der myArm M750 wurde für eine präzise Bewegungssteuerung und -verifizierung entwickelt und eignet sich hervorragend für Anwendungen, die eine strenge Betriebsgenauigkeit erfordern, wie z. B. Präzisionsmontage, Feinmanipulation und Qualitätsüberwachung. Ausgestattet mit hochpräzisen digitalen Servomotoren in Industriequalität und fortschrittlichen Steuerungsalgorithmen bietet der myArm M750 eine außergewöhnliche Drehmomentsteuerung und Positionsgenauigkeit und unterstützt eine Nenntragfähigkeit von 500 g und eine Spitzenlast von bis zu 1 kg.

Die Vielseitigkeit des myArm M750 erstreckt sich auch auf das Endeffektor-Design, das mit einem standardmäßigen Parallelgreifer und einem Vision-Modul ausgestattet ist, das dem Benutzer grundlegende Greif- und Erkennungsfunktionen bietet. Darüber hinaus bietet der myArm M750 Kompatibilität mit einer Reihe von optionalem Zubehör, was seine Anwendungsszenarien und Anpassungsfähigkeit an verschiedene Aufgaben erheblich erweitert.

myArm M&C Teleoperation Roboterarm-Kit

DasTeleoperation Robotic Arm Kit stellt einen Sprung nach vorne in der Robotik-Innovation dar und bietet eine fortschrittliche Lösung, die auf die Fernsteuerung und Echtzeit-Interaktion durch modernste Teleoperationstechnologie zugeschnitten ist. Durch die nahtlose Integration der Vielseitigkeit des myArm C650 mit den präzisen Steuerungsfunktionen des myArm M750 bildet dieses Kit eine dynamische und anpassungsfähige Plattform, die für eine Vielzahl von Forschungs-, Bildungs- und kommerziellen Anwendungen geeignet ist.

Das Kit wurde entwickelt, um menschliches Verhalten nachzuahmen, und ermöglicht es Forschern und Entwicklern, Fernsteuerungssysteme und Roboterbewegungsplanungsmodelle ähnlich dem ALOHA-Roboter zu validieren und zu testen. Das myArm M&C Kit verfügt über Datenerfassungs- und Steuerungsfunktionen auf Millisekundenebene, Echtzeit-Widerstandssteuerungsfunktionen und kollaborative Betriebsfunktionen mit mehreren Robotern und erleichtert die Ausführung komplexer Aufgaben, einschließlich fortschrittlicher Simulationen menschlichen Verhaltens. Diese Technologie zeigt nicht nur die Präzision und Effizienz von Robotern bei der Nachahmung menschlicher Handlungen, sondern treibt auch die Forschung und Entwicklung in der Robotertechnologie zur Simulation menschlichen Verhaltens und zur Ausführung alltäglicher Aufgaben voran.

Darüber hinaus stattet die integrierte KI-Technologie Roboter mit Lern- und Anpassungsfähigkeit aus, ermöglicht autonome Navigation, Objekterkennung und komplexe Entscheidungsfähigkeiten und erschließt so ein enormes Anwendungspotenzial in verschiedenen Forschungsbereichen.

myArm M&C Embodied humanoid Robot Compound Kit

Das Mobile ALOHA-Projekt der Stanford University hat aufgrund seiner bahnbrechenden Fortschritte in der Robotiktechnologie weltweite Aufmerksamkeit erregt. Es hat ein fortschrittliches System entwickelt, das es Benutzern ermöglicht, komplexe zweiarmige Aufgaben durch menschliche Demonstrationen auszuführen und so die Effizienz von nachgeahmten Lernalgorithmen durch Datenakkumulation und kollaboratives Training zu verbessern. Das Mobile ALOHA-System zeigt seine Vielseitigkeit, indem es verschiedene reale Aufgaben nahtlos ausführt, vom Reinigen verschütteter Getränke über das Kochen von Garnelen bis hin zum Waschen von Bratpfannen. Diese Innovation markiert nicht nur einen bedeutenden Meilenstein in der Robotik, sondern ebnet auch den Weg für eine Zukunft, in der Mensch und Roboter harmonisch koexistieren.

Dieses Kit wurde von Stanfords Mobile ALOHA-Projekt inspiriert und verwendet das gleiche mobile Tracer-Fahrgestell. Mit einer Open-Source-Philosophie, minimalistischem Design, modularem Aufbau und robuster lokaler Community-Unterstützung dient dieses Kit als kostengünstige Lösung für die Echtzeit-Roboterteleoperation und -steuerung und spiegelt die Fähigkeiten von Mobile ALOHA zu einem erschwinglicheren Preis wider.

Dieses Kit wurde entwickelt, um den Bedürfnissen kleiner und mittlerer Unternehmen sowie Bildungs- und Forschungseinrichtungen gerecht zu werden, und bietet einen erschwinglicheren Preis, benutzerfreundliche Funktionen und einen einfachen Zugang zu modernster Robotertechnologie.

Die Roboter der myArm M&C-Serie sind eine vielseitige Robotiklösung, die unterschiedliche Anforderungen erfüllt, von der Grundlagenforschung bis hin zur Ausführung komplizierter Aufgaben. In Kombination mit optionalen Kits passen sie sich nahtlos an verschiedene Anwendungsszenarien an, von der Präzisionsfertigung über medizinische Hilfe bis hin zu Bildung, Schulung und Haushaltsunterstützung. Die Roboter der myArm M&C-Serie zeichnen sich durch zuverlässige und leistungsstarke Lösungen aus, die Zuverlässigkeit und Exzellenz versprechen. Die Aufnahme des Embodied Humanoid Robot Compound Kit und des Quadruped Bionic Robot Compound Kit erweitert die Möglichkeiten in der Robotik weiter, fördert die interdisziplinäre Erforschung und fördert Innovationen.

Elephant Robotics Unveils myArm M&C Series Robots to Advance Embodied Intelligence

Explore myArm M&C series robots for versatile, high-performing solutions in robotics, offering precise control and diverse applications.


SHENZHEN, GUANGDONG, CHINA, May 10, 2024 /EINPresswire.com/ — Embodied intelligence research, as a critical branch of artificial intelligence, is striving to endow robots with new capabilities in precise motion control, high-level autonomous decision-making, and seamless human-machine interaction.

Against this backdrop, Elephant Robotics has recently unveiled the myArm M&C series robots. These powerful and cost-effective lightweight robots empower researchers and developers in both data collection and execution, driving forward the advancements in embodied intelligence technology and its practical applications..

The myArm M&C series robots are meticulously designed to meet the diverse needs of users, prioritizing flexibility and adaptability. They play a pivotal role in various research and application scenarios, making them the ideal robotics solution for education and research purposes.

myArm C650

The myArm C650 is a universal 6 DOF robot motion information collection device designed to meet the diverse needs of education, research, and industry in robot motion data collection and analysis. With its lightweight design of weighing only 1.8kg, the myArm C650 boasts a horizontal working radius of 650mm, minimizing inertial forces during operation for enhanced response speed and precision.

Equipped with high-precision digital servo motors and 4096-bit encoders on all 6 joints, the myArm C650 mimics human arm motion with remarkable accuracy, enabling a wide range of tasks. Its intuitive control method, featuring dual-finger remote control and dual customizable buttons, supports recording functions for precise command execution and immediate feedback on robot behavior. This flexibility makes the myArm C650 an ideal choice for precise motion tracking and data collection in various experimental and educational settings. With an impressive information acquisition speed of up to 50Hz, it has become indispensable for robot algorithm development and higher education institutions, offering real-time data support for complex control systems.

In remote control applications, the myArm C650 excels, delivering outstanding performance regardless of the robot’s configuration complexity. Moreover, its compatibility with Python and ROS, coupled with open-source remote control demonstration files, expands its application scope, enabling seamless integration with advanced robot platforms like the myArm M750, myCobot Pro 630, and Mercury B1.

The myArm C650 sets a new standard for versatility and performance in robot motion data collection, empowering users to explore the full potential of advanced robotics across diverse fields.

myArm M750

The myArm M750 is a universal intelligent 6 DOF robotic arm. It not only meets the demand for high-precision robot motion control but is particularly suitable for entry-level robot motion algorithm verification and practical teaching scenarios. Its standardized mechanical arm structure provides an ideal learning platform for students and beginners to grasp the basic principles and applications of robot kinematics.

Dedicated to achieving precise motion control and verification, the myArm M750 excels in applications requiring strict operational accuracy, such as precision assembly, fine manipulation, and quality monitoring. Equipped with industrial-grade high-precision digital servo motors and advanced control algorithms, the myArm M750 delivers exceptional torque control and positional accuracy, supporting a rated load capacity of 500g and a peak load of up to 1kg.

The myArm M750’s versatility extends to its end effector design, featuring a standard parallel gripper and vision module that empower users with basic grasping and recognition capabilities. Furthermore, the myArm M750 offers compatibility with a range of optional accessories, significantly expanding its application scenarios and adaptability to diverse tasks.

myArm M&C Teleoperation Robotic Arm Kit

Teleoperation Robotic Arm Kit represents a leap forward in robotics innovation, offering an advanced solution tailored for remote control and real-time interaction through cutting-edge teleoperation technology. By seamlessly integrating the versatility of the myArm C650 with the precise control capabilities of the myArm M750, this kit forms a dynamic and adaptable platform suitable for a myriad of research, educational, and commercial applications.

Engineered to mimic human behavior, the kit enables researchers and developers to validate and test remote control systems and robot motion planning models akin to the ALOHA robot. Empowered by millisecond-level data acquisition and control capability, real-time drag control functionality, and multi-robot collaborative operation capabilities, the myArm M&C Kit facilitates the execution of complex tasks, including advanced simulations of human behavior. This technology not only showcases the precision and efficiency of robots in mimicking human actions but also propels research and development in robot technology for simulating human behavior and performing everyday tasks.

Moreover, integrated AI technology equips robots with learning and adaptability, enabling autonomous navigation, object recognition, and complex decision-making capabilities, thereby unlocking vast application potential across diverse research fields.

myArm M&C Embodied Humanoid Robot Compound Kit

Stanford University’s Mobile ALOHA project has garnered global attention for its groundbreaking advancements in robotics technology. It has developed an advanced system that allows users to execute complex dual-arm tasks through human demonstrations, thereby enhancing imitation learning algorithms‘ efficiency through data accumulation and collaborative training. The Mobile ALOHA system showcases its versatility by seamlessly executing various real-world tasks, from cleaning spilled drinks to cooking shrimp and washing frying pans. This innovation not only marks a significant milestone in robotics but also paves the way for a future where humans and robots coexist harmoniously.

Drawing inspiration from Stanford’s Mobile ALOHA project, this kit adopts the same Tracer mobile chassis. With an open-source philosophy, minimalist design, modular construction, and robust local community support, this kit serves as a cost-effective solution for real-time robot teleoperation and control, mirroring the capabilities of Mobile ALOHA with a more accessible price.

Designed to cater to the needs of small and medium-sized enterprises, as well as educational and research institutions, this kit offers a more accessible price, user-friendly features, and easy accessibility to cutting-edge robot technology.

The myArm M&C series robots are a versatile robotics solution catering to diverse needs from fundamental research to intricate task execution. In combination with optional kits, they seamlessly adapt to various application scenarios, from precision manufacturing to medical assistance, education, training, and household support. The myArm M&C series robots stand out as dependable and high-performing solutions, promising reliability and excellence. The inclusion of the Embodied Humanoid Robot Compound Kit and Quadruped Bionic Robot Compound Kit further expands the possibilities in robotics, encouraging interdisciplinary exploration and fostering innovation.

Auf der Überholspur: Mobile Roboter von igus senken Kosten für den Mittelstand

„ReBeLs on Wheels“ machen durch moderne Kunststofftechnologie Fahrerlose Transportsysteme erschwinglich



Köln/Hannover, 24. April 2024 – Mobile Robotiksysteme kommen in immer mehr Arbeitsbereichen zum Einsatz, in E-Commerce-Lagerhallen ebenso wie in modernen Restaurants. Herkömmliche Modelle auf dem Markt starten bei etwa 25.000 Euro, Lösungen mit integriertem Roboterarm liegen bei rund 70.000 Euro. Ein flächendeckender Einsatz im Markt ist allerdings aufgrund der hohen Preise für kleine und mittlere Unternehmen häufig unerschwinglich. igus will das mit neuen Low-Cost-Robotik-Angeboten ändern und stellt zur Hannover Messe eine Serie günstiger mobiler Kunststoff-Roboter vor.

Der Markt für Automated Guided Vehicles (AGV) und Autonome Mobile Robots (AMR) boomt: Aktuell beträgt der globale Markt der mobilen Robotik inklusive Servicerobotik rund 20,3 Milliarden US-Dollar, bis 2028 erwarten Experten nahezu eine Verdoppelung.1 Besonders verbreitet sind mobile Roboter in der Intralogistik und in industriellen Anwendungsbereichen. Und selbst in der Gastronomie oder in Krankenhäusern drehen die smarten Helfer vermehrt ihre Runden. Auch beim motion plastics Spezialisten igus: Seit vier Jahren testen die Kunststoff-Experten bereits erfolgreich AGVs im eigenen Haus – fahrerlose Regale, die Post und Lieferungen in Büros ausfahren sowie mobile Roboter in der Fertigung, die Transporte und Drehstapelbehälter bewegen. Die gewonnenen Erfahrungen fließen direkt in die Entwicklung einer neuen Low-Cost-Automation-Produktlinie ein, den „ReBeL on Wheels”. Ihr Ziel: kleinen und mittleren Unternehmen (KMU) den Weg in eine kostengünstige mobile Robotik zu ebnen.

Mobile ReBeL Lösungen für Bildung, Logistik und Service
Die Basis eines jeglichen mobilen Robotik-Systems ist der ReBeL. Der Einsatz von Kunststoff macht den Roboter mit 4.970 Euro besonders günstig und mit 8,2 Kilogramm Eigengewicht zum leichtesten Serviceroboter mit Cobot-Funktion in seiner Klasse. Alle mechanischen Bauteile, aus denen sich der ReBeL zusammensetzt, sind ausnahmslos von igus entwickelt und gefertigt. Seine Traglast beträgt 2 Kilogramm und er besitzt eine Reichweite von 664 Millimetern. Geplant sind verschiedene fahrende Systeme, in die der ReBeL zentral integriert ist: So startet igus mit einer erschwinglichen Variante für den Bildungssektor für 14.699 Euro – inklusive des Roboterarms. Der mit einem Greifer ausgestattete ReBeL EduMove dient dank Open Source als autonome Lernplattform für Bildungseinrichtungen. Er ist modular aufgebaut und lässt sich flexibel um weitere Funktionen wie Lidar, Kameratechnik oder Slam-Algorithmus erweitern. Eine weitere Variante ist ein Fahrerloses Transportsystem für KMU. Es kann bis zu 30 Kilogramm transportieren. Mit dem optionalen ReBeL lassen sich einfache A zu B Positionierungen vornehmen. Es verzichtet dabei auf teure Sensorik und setzt stattdessen auf eine eigenentwickelte 3D-Sensortechnik. Der Preis liegt bei 17.999 Euro. Darüber hinaus zeigt igus in Hannover die Studie eines Serviceroboters zum kleinen Preis. Der ReBeL Butler eignet sich für einfache, aber zeitaufwendige Hol-und-Bring-Dienste, beispielsweise im Hotel- und Gastrogewerbe.

Ein Leuchtturmprojekt auf Rädern
Das Ziel all dieser Entwicklungen ist das Leuchtturmprojekt, ein mobiler Roboter mit integriertem HMI und Vision, der sogar eigenständig ein Büro aufräumen könnte. „Mit diesem Projekt verfolgen wir eine Bottom-to-Top-Strategie, bei der bestimmte Bauteile wie Sicherheits-Laserscanner nicht im Grundpaket enthalten sind, um den Preis niedrig zu halten“, macht Alexander Mühlens, Prokurist und Leiter des Geschäftsbereichs Low-Cost-Automation bei igus, deutlich. „Dennoch ist sichergestellt, dass die Lösung für industrielle Anforderungen nachgerüstet werden kann.“ Unter anderem stellt igus in diesem Jahr einen erschwinglichen Greifer mit großem Hub und Verfahrweg vor, der hohe Flexibilität beim Greifen unterschiedlicher Geometrien bietet. Alexander Mühlens: „Die Einsatzgebiete dieses angestrebten Low-Cost-AMRs sind äußerst vielfältig und gehen über einfache Transportaufgaben weit hinaus. Sie umfassen eine riesige Bandbreite an Anwendungen in verschiedenen Lebensbereichen, wie Reinigungsaufgaben oder die Ausgabe von Kaffee direkt am Arbeitsplatz.“

Moley Robotics Unveils World’s First Luxury Robot Kitchen Showroom in London

London, 15th December 2024 – Moley Robotics, a pioneer in culinary automation, is proud to announce the grand opening of the world’s first luxury robot kitchen showroom in the heart of London. This revolutionary space, located at 16 Wigmore Street, marks a significant milestone in the fusion of technology and gastronomy, offering visitors a first-hand experience of the future of automated cooking that is set to revolutionise the culinary landscape.

An Immersive Culinary Journey

The showroom is a testament to Moley Robotics‘ commitment to transforming the way we think about and engage with cooking. Stepping into this cutting-edge showroom is like entering a realm where culinary dreams meet technological prowess. The showroom has been meticulously designed to provide an immersive and interactive experience, showcasing the advanced cooking capabilities of the Moley Robotic kitchens and distinctive kitchen designs, crafted from premium materials including Glacier White Corian, Patagonian marble and high gloss Eucalyptus wood panels.

Visitors will be captivated by the graceful human-like movements of the robotic arms as they seamlessly prepare gourmet meals in the state-of-the-art kitchen, equipped exclusively with premium appliances from globally renowned brands such as Siemens, Gaggenau, and Miele. The latest advancements in robotics and artificial intelligence, demonstrate the unparalleled precision and versatility of the Moley system. The showroom aims to transport visitors into the future of home cooking, where efficiency, elegance, and innovation converge.

Unveiling the Future of Home Cooking

The centrepiece of the showroom are, of course, the Moley Robotic kitchens; Chef’s Table, X-Air and A-Air. Visitors will have the opportunity to witness live demonstrations of the robotic arms in action, showcasing the system’s ability to faithfully replicate recipes from an extensive library curated by world-renowned chefs including three-Michelin-starred Andreas Caminada, MasterChef winner Tim Anderson, Award-winning Andrew Clarke and sushi Grandmaster Kiichi Okabe. From delicate stirring to precise seasoning, the robotic arms perform each task with a level of skill and dexterity previously reserved for the most accomplished chefs.

„We are thrilled to open the doors to the world’s first luxury robot kitchen showroom in London,“ said Mark Oleynik, CEO of Moley Robotics. „This space is not just a showcase of our technology; it’s an invitation for people to experience first-hand the future of home cooking. The Moley Robotic Kitchen is a game-changer, and this showroom is the perfect platform to share our vision with the world.“

A Gourmet Experience for All

The luxury showroom isn’t just about awe-inspiring technology; it’s about making gourmet experiences accessible to everyone. The Moley Robotic Kitchen is designed to cater to a wide range of culinary preferences and dietary needs. Visitors can explore the user-friendly interface, customise recipes, and witness the system adapt to individual preferences, showcasing the versatility that makes Moley Robotics the leaders in the world of culinary robotics.

Additionally, the showroom will host live cooking events, allowing guests to taste the delicious creations prepared by the Moley Robotic Kitchen. This hands-on experience aims to bridge the gap between futuristic technology and the joy of savouring exquisite meals, reinforcing the idea that automation can enhance, rather than entirely replace, the human experience in the kitchen.

Innovating with Elegance

Beyond its technological marvels, the luxury showroom reflects Moley Robotics‘ commitment to design and aesthetics which have been forged by a fruitful five-year collaboration with the renowned Italian design house, Minotti Collezioni. The Moley Robotic Kitchen seamlessly integrates into modern kitchen spaces, and the showroom itself is a testament to the marriage of innovation and elegance. The sleek, contemporary design of the kitchen setup and the overall ambiance of the space create an environment that is both inviting and forward-thinking.

„As we open the world’s first luxury robot kitchen showroom, we’re not just unveiling a product; we’re introducing a lifestyle—a future where technology elevates our culinary experiences,“ added Mark Oleynik. „Our goal is to inspire and empower individuals to reimagine their relationship with cooking.“

Visit Us Today

The Moley Robotics luxury robot kitchen showroom is located at 16 Wigmore Street, London, W1U 2RF in London and is open to the public by appointment starting 15th December. Visitors are invited to make an appointment on the Moley Website and explore the future of home cooking, witness live demonstrations, and immerse themselves in a culinary experience like no other. For more information, visit moley.com.

About Moley Robotics:

Moley Robotics is a leading innovator in the field of culinary automation, dedicated to redefining the way we approach cooking at home. With a focus on precision, convenience, and elegance, Moley Robotics is at the forefront of the integration of robotics and artificial intelligence in the kitchen.


Moley Robotics Kitchen Demo Studio

16 Wigmore Street, London, W1U 2RF

Universal Robots präsentiert kollaborierenden Roboter mit 30 kg Traglast 

Tokio / München, 29. November 2023: Universal Robots (UR), der dänische Hersteller kollaborierender Roboter (Cobots), erweitert sein Produktportfolio um einen neuen Cobot mit 30 kg Traglast.



Der UR30 gehört zur neu gestalteten Cobot-Generation von UR. Damit basiert er auf der gleichen Architektur wie der preisgekrönte UR20. Trotz seines kompakten Designs ist der UR30 ausgesprochen kraftvoll. Dank seiner präzisen Steuerung platziert er große Nutzlasten exakt und schnell.

Der UR30 eignet sich ideal für verschiedene Anwendungen, darunter die Maschinenbeschickung, das Palettieren und das Schrauben mit hohem Drehmoment. Bei der Maschinenbeschickung eröffnet die hohe Traglast Anwendern neue Möglichkeiten, effizienter zu arbeiten. Indem der Roboterarm mehrere Teile gleichzeitig handhabt und mehrere Aufgaben im selben Durchgang ausführen kann, maximiert das die Produktivität und verkürzt Umrüstzeiten.

Zudem können Betriebe den UR30 ideal nutzen, um Schraubarbeiten mit hohem Drehmoment zu automatisieren. Dank der Funktion „Steady Mode“ schraubt der UR30 konstant und gleichmäßig. Dies wird beispielsweise Anwender aus der Automobilindustrie große Vorteil bieten.

Darüber hinaus eignet sich der UR30 mit seiner Traglast von 30 kg hervorragend, um schwere Lasten in nahezu allen Branchen zu palettieren. Mit seiner geringen Stellfläche passt er in fast jeden Arbeitsbereich und entlastet Mitarbeitenden von körperlich anstrengenden Aufgaben. Mit seinem Gewicht von nur 63,5 kg können Nutzer den UR30 auch leicht zwischen verschiedenen Arbeitszellen bewegen.

Kim Povlsen, Präsident von Universal Robots, erklärt: „Die höhere Traglast und die größere Flexibilität unterstützen eine neue Ära der Automatisierung. Während Industrien auf der ganzen Welt auf mehr Agilität und Modularität in ihren Produktionen setzen, erfüllt dieser Cobot eben jene Anforderungen. Und das, trotz seiner hohen Traglast. Der UR30 ermöglicht es Unternehmen, ihre Fertigung schnell anzupassen und effektiv auf Veränderungen zu reagieren. Dieser Cobot ist ein weiterer Schritt auf dem Weg von UR, die Grenzen dessen, was in der Welt der Automatisierung möglich ist, zu verschieben.“



Verfügbarkeit:
– Der UR30 ist ab sofort zur Vorbestellung verfügbar und wird ab dem ersten Quartal 2024 ausgeliefert. 
– Bei seiner Vorstellung auf der iREX-Messe in Tokio, Japan, wird der UR30 in einer Anwendung zur Materialhandhabung gezeigt. Hier gibt es ein Video davon.
– Weitere Informationen finden sich auf der Website von Universal Robots, auf der auch alle technischen Informationen verfügbar sind.

Igus expands its portfolio around the ReBeL with a humanoid hand made of lubrication-free high-performance plastics

Cologne, November 14, 2023 – Robots have become an integral part of industry and are increasingly finding their way into small and medium-sized companies in the form of cobots, such as the ReBeL. They sort, pick and move with the help of cameras, vacuum cleaners and gripping systems. In order to be able to take on humanoid tasks, igus has now developed a finger gripper for the ReBeL cobot. It is made entirely of lubrication-free plastics, so it is very cost-effective and easy to integrate.

With the ReBeL, igus has launched a compact and lightweight cobot on the market that makes it possible to enter robotics at low cost. This makes it particularly suitable for assembly tasks, quality inspections and in the service sector.  In order for the robot to really work, grippers and suction cups are necessary. For this purpose, igus offers a wide selection of suitable end effectors from various manufacturers on the marketplace RBTX.com. „Since the ReBeL is very light and affordable with its own weight of around 8 kilograms and a price starting at 3,970 euros, it is widely used in humanoid applications. For this reason, we received a number of customer inquiries for a robotic hand that can be easily connected to the ReBeL via plug-and-play,“ explains Alexander Mühlens, Head of the Low Cost Automation business unit at igus GmbH. For this reason, igus has now developed a particularly cost-effective ReBeL finger gripper, which is available for as little as 1,840 euros. The humanoid hand is compatible with all ReBeL models. It is controlled via DIO at the Tool Center Point, which allows for easy integration and flexibility in various applications. The special feature of the finger gripper is that it can imitate human hand movements. „With the new low-cost hand, the ReBeL can take on a wide range of simple humanoid tasks and applications. We are thinking of the area of research and development at universities, but tasks in gastronomy or in the entertainment industry are also conceivable,“ says Alexander Mühlens.

High-performance plastics ensure precise movements
All components, including the flange, cables and control, come directly from igus in Cologne. In this way, the customer receives a 100 percent compatible solution. The low price is due to the lubrication-free high-performance plastics. The plain bearings in the joints made of iglidur polymers are not only cost-effective and lubrication-free, but also enable smooth and precise movements of the individual fingers. Extensive testing in the in-house 3,800 square meter laboratory guarantees the longevity of the humanoid hand. They are extremely flexible and can be controlled via various interfaces, including USB, TTL (5 V) serial and internal scripting. In addition to the finger gripper, igus offers other products for the ReBeL Environment. These include, for example, fireproof fire protection hoods, a 7th axis, gripper sets, adapter plate sets, energy supply systems, a finished workstation and connection cables.

Hand schütteln mit einem Roboter: igus bringt bionische Hand für ReBeL Cobot auf den Markt

igus erweitert sein Portfolio rund um den ReBeL mit einer humanoiden Hand aus schmierfreien Hochleistungskunststoffen

Köln, 14. November 2023 – Roboter sind aus der Industrie nicht mehr wegzudenken und halten in Form von Cobots, wie dem ReBeL, auch immer mehr Einzug in kleinere und mittlere Unternehmen. Sie sortieren, picken und verschieben mithilfe von Kameras, Saugern und Greifsystemen. Um auch humanoide Aufgaben übernehmen zu können, hat igus jetzt einen Fingergreifer für den ReBeL Cobot entwickelt. Er besteht komplett aus schmierfreien Kunststoffen, ist daher sehr kostengünstig und lässt sich einfach integrieren.

Mit dem ReBeL hat igus einen kompakten und leichten Cobot auf den Markt gebracht, der den kostengünstigen Einstieg in die Robotik möglich macht. So lässt er sich besonders gut für Montageaufgaben, Qualitätsprüfungen und im Servicebereich einsetzen. Damit der Roboter auch wirklich arbeiten kann, sind Greifer und Sauger von Nöten. Dazu bietet igus auf dem Markplatz RBTX.com eine breite Auswahl an passenden Endeffektoren verschiedener Hersteller an. „Da der ReBeL mit seinen rund 8 Kilogramm Eigengewicht und einem Preis ab 3.970 Euro sehr leicht und erschwinglich ist, wird er viel in humanoiden Anwendungen eingesetzt. Aus diesem Grund erreichten uns einige Kundenanfragen nach einer Roboterhand, die sich einfach per Plug-and-Play mit dem ReBeL verbinden lässt“, erklärt Alexander Mühlens, Leiter des Geschäftsbereichs Low Cost Automation bei der igus GmbH. Daher hat igus jetzt einen besonders kostengünstigen ReBeL Fingergreifer entwickelt, der schon für 1.840 Euro erhältlich ist. Die humanoide Hand ist kompatibel mit allen ReBeL Modellen. Die Ansteuerung erfolgt über DIO am Tool Center Point, was eine einfache Integration und Flexibilität in verschiedenen Anwendungen ermöglicht. Die Besonderheit des Fingergreifers liegt darin, dass er menschliche Handbewegungen nachahmen kann. „Der ReBeL kann mit der neuen Low Cost-Hand eine breite Palette von einfachen humanoiden Aufgaben und Anwendungen übernehmen. Wir denken da an den Bereich der Forschung und Entwicklung an Hochschulen, aber auch Aufgaben in der Gastronomie oder in der Unterhaltungsbranche sind denkbar“, so Alexander Mühlens.

Hochleistungskunststoffe sorgen für präzise Bewegungen
Alle Komponenten, einschließlich Flansch, Leitungen und Ansteuerung kommen direkt von igus aus Köln. So erhält der Kunde eine 100 Prozent kompatible Lösung. Für den niedrigen Preis sorgen die schmierfreien Hochleistungskunststoffe. Die Gleitlager in den Gelenken aus iglidur Polymeren sind nicht nur kostengünstig und schmierfrei, sondern ermöglichen auch reibungslose und präzise Bewegungen der einzelnen Finger. Umfangreiche Tests im hauseigenen 3.800 Quadratmeter großen Labor garantieren die Langlebigkeit der humanoiden Hand. Ihre Steuerung ist dabei äußerst flexibel und kann über verschiedene Schnittstellen erfolgen, darunter USB, TTL (5 V) seriell und internal scripting. Neben dem Fingergreifer bietet igus weitere Produkte für das ReBeL Environment an. Darunter zum Beispiel feuerfeste Brandschutzhauben, eine 7. Achse, Greifersets, Adapterplattensets, Energieführungssysteme, einen fertigen Arbeitsplatz und Anschlusskabel.

Weltweit abgeschiedenster Roboter automatisiert Wiederaufforstung im Amazonas

Ein Pilotprojekt von ABB Robotics und der US-amerikanischen Non-Profit-Organisation Junglekeepers zeigt auf, welche Rolle Cloudtechnologie für eine schnellere, effizientere und skalierbare Wiederaufforstung spielen kann.

ABB Robotics unterstützt Junglekeepers bei ihrem Vorhaben, rund 22.000 Hektar Amazonas-Regenwald zu schützen und die Entwaldung umzukehren. In einer bislang einzigartigen Demonstration automatisiert der kollaborative Roboter (Cobot) YuMi von ABB Pflanzarbeiten an einem Forschungs- und Versuchsstandort mitten im Dschungel. Dabei beschleunigt er das Verfahren erheblich, so dass die Freiwilligen von Junglekeepers ihre wertvolle Zeit und Ressourcen für bedeutendere Arbeiten einsetzen können.

Pilotprojekt von ABB Robotics zur Wiederaufforstung im Amazonas: Im Rahmen des Pilotprogramms setzt YuMi jeden Morgen rund 640 Saatgutbeutel ein.

Mit Hilfe der RobotStudio Cloud-Technologie von ABB simulieren, optimieren und realisieren ABB-Experten die Programmierung für YuMis Tätigkeiten im Regenwald vom 12.000 Kilometer entfernten Västerås in Schweden aus und ermöglichen damit den abgeschiedensten Robotereinsatz der Welt.

„Die Zusammenarbeit von ABB und Junglekeepers zeigt, dass Roboter- und Cloudtechnologien eine zentrale Rolle bei der Bekämpfung der Entwaldung spielen können. Letztere zählt zu den Hauptverursachern des Klimawandels“, sagt Sami Atiya, Leiter des Geschäftsbereichs Robotik & Fertigungsautomation von ABB. „Unser Pilotprojekt mit dem abgeschiedensten Robotereinsatz der Welt ermöglicht die Automatisierung stark repetitiver Aufgaben. So haben die Ranger mehr Zeit für wirkungsvollere Arbeiten im Regenwald und können das Land, auf dem sie leben, besser schützen.“

Pilotprojekt von ABB Robotics zur Wiederaufforstung im Amazonas: YuMi übernimmt repetitive Aufgaben, damit die Ranger von Junglekeeper mehr Zeit für wirkungsvollere Arbeiten haben.

In einem Forschungs- und Versuchslabor in einer abgeschiedenen Region im peruanischen Amazonasgebiet wurde ein YuMi-Cobot installiert, um zentrale Aufgaben bei der Einpflanzung von Saatgut zu automatisieren – bisher eine rein manuelle Tätigkeit. Der Cobot gräbt ein Loch in die Erde, legt das Saatgut ein, verdichtet die Erde darüber und markiert die Stelle mit einem farbigen Etikett. Mit dem Einsatz von YuMi kann Junglekeepers täglich eine Fläche von zwei Fußballfeldern wieder bepflanzen. Dank der Automatisierung können die Freiwilligen von Junglekeepers ihre wertvolle Zeit und Ressourcen für wirkungsvollere Arbeiten einsetzen. Dazu gehören etwa Patrouillen zur Abschreckung illegaler Holzfäller, die Aufklärung der lokalen Bevölkerung über den Erhalt des Regenwaldes und das Einpflanzen von jungen Bäumen.

Die vollständig abgelegene und autonome Cobot-Installation löst ein weiteres Problem: Menschen zu finden, die für einen längeren Zeitraum an diesem abgelegenen Ort im Dschungel arbeiten wollen. Nach der ersten Installation kann YuMi seine Aufgaben selbstständig ausführen und muss sich nur bei Bedarf einer Fehlerbehebung unterziehen.

„Wir haben bisher 20 Prozent des gesamten Amazonas-Regenwaldes verloren, und ohne den Einsatz von Technologie kommen wir beim Naturschutz nicht mehr weiter“, erklärt Moshin Kazmi, Mitgründer von Junglekeepers. „YuMi vor Ort zu haben ist eine ausgezeichnete Möglichkeit, unsere Ranger mit neuen Arbeitsweisen vertraut zu machen. Er beschleunigt und erweitert unsere Aktivitäten und bringt unsere Mission voran.“

Die Zerstörung des Amazonas-Regenwaldes durch menschliche Eingriffe wie Abholzung und Brandrodung zur Gewinnung von Flächen für die Landwirtschaft trägt erheblich zu den verheerenden Auswirkungen des Klimawandels bei. Seit 1985 wurden schätzungsweise mehr als 870.000 km² des Amazonas-Regenwaldes gerodet – eine Fläche, die größer ist als Frankreich, das Vereinigte Königreich und Belgien zusammen.1 Da bereits mehrere Milliarden Bäume verschwunden sind, erwärmt sich die Region schnell.

Pilotprojekt von ABB Robotics zur Wiederaufforstung im Amazonas: Der ABB-Cobot YuMi kümmert sich um die Saatgutbeutel in der Basisstation von Junglekeepers.

„Der Amazonas ist in Gefahr. Um ihn zu retten, müssen wir Technologie, Wissenschaft und lokales Wissen bündeln, andernfalls wird es zu spät sein. Der Regenwald kann gerettet werden, aber wir müssen alle diese Elemente zusammenführen, um wirklich etwas zu bewirken“, betont Dennis del Castillo Torres, Director of Forest Management Research am Peruvian Amazon Research Institute. „Es ist sehr wichtig, Spitzentechnologie und Naturschutz zu vereinen. Es gibt viele Technologien, die wir für den Erhalt des Waldes nutzen können. Dieser Roboter kann die Wiederaufforstung beschleunigen, muss aber sehr gezielt eingesetzt werden. Wir sollten ihn in stark entwaldeten Gebieten zur Beschleunigung der Neubepflanzung nutzen.“

Das Pilotprojekt wird durch die RobotStudio Cloud-Technologie von ABB unterstützt, die Teams auf der ganzen Welt ermöglicht, in Echtzeit zusammenzuarbeiten. Diese innovative Art der Fernprogrammierung ermöglicht ein neues Maß an Flexibilität und sofortiger Optimierung, was die Effizienz und Resilienz steigert und Zeitverluste bei der Bepflanzung verhindert. Gestützt auf mehr als 25 Jahre Erfahrung in der Offline-Programmierung bietet RobotStudio branchenführende digitale Technologie und gewährleistet eine 99-prozentige Übereinstimmung zwischen Simulation und Realität. So können Anwender den Zeitaufwand für Tests von Roboterlösungen um 50 Prozent reduzieren und Produktionsunterbrechungen vollständig vermeiden.

Pilotprojekt von ABB Robotics zur Wiederaufforstung im Amazonas: solarbetriebener und mit der Cloud verbundener YuMi-Cobot im peruanischen Amazonasgebiet

Das Pilotprojekt von ABB Robotics im Amazonasgebiet unterstützt das Ziel der Division, mit intelligenten Roboter- und Automatisierungslösungen zu einer nachhaltigen Transformation beizutragen und Unternehmen zu helfen, ihre Produktivität zu steigern, Abfallmengen zu verringern und die Effizienz zu maximieren. 2022 arbeitete ABB Robotics mit der gemeinnützigen Organisation und dem globalen Netzwerk Parley for the Oceans zusammen, das sich gegen die Plastikverschmutzung und Zerstörung der Weltmeere einsetzt. ABB Roboter stellten per additivem 3D-Druck personalisierte Designobjekte aus recyceltem Parley Ocean Plastic® her.

Auf Wunsch von Junglekeepers wird das Pilotprojekt mit RobotStudio Cloud und YuMi im Regenwald über rund sechs Wochen laufen (im Mai und Juni 2023). Nach Abschluss des Pilotprogramms wird ABB Möglichkeiten zur weiteren Unterstützung von Junglekeepers ausloten. Außerdem will das Unternehmen prüfen, wie seine Roboterlösungen und Cloudtechnologien die nachhaltige Transformation zusätzlich maßgeblich fördern können.