Kosmos Bionic Robotic Arm im Test – Bionischer Roboterarm als Experimentier-Set

Der Kosmos Bionic Robotic Arm ist ein Experimentierbaukasten, der Elemente aus Bionik und Modellbau kombiniert. Das Set richtet sich an junge technikinteressierte Menschen ab etwa zehn Jahren und verbindet Lernerfahrung mit Bastelspaß.

Konzept und Funktionsweise

Im Mittelpunkt steht ein mechanischer Roboterarm, dessen Bewegungsprinzip am echten Elefantenrüssel orientiert ist. Statt Elektromotoren kommt ein ausgeklügeltes System aus Nylonfäden zum Einsatz. Diese wirken im Modell wie künstliche Muskeln und Sehnen. So gelingt es, den Arm in viele Richtungen zu bewegen; die Bewegungen erscheinen sehr flexibel und erinnern an Science-Fiction-Konstruktionen.

Gesteuert wird der Arm über zwei Joysticks. Der eine ist für den oberen, der andere für den unteren Bereich des Arms gedacht. Zusätzlich gibt es Tasten für die Rotation der Greifklaue und das Öffnen und Schließen derselben. Die Steuerung ist komplett mechanisch und benötigt weder Elektronik noch Batterien. Die Kraft wird allein per Hand auf die Bewegungselemente übertragen.

Aufbau und Schwierigkeitsgrad

Mit Bauteilen auf über 8 Teileträgern ist der Bausatz eine echte Herausforderung. Der Aufbau läuft in mehreren Phasen: Zuerst werden Kabelschnallen vorbereitet, dann die Joysticks zusammengesteckt, später der Arm zusammengesetzt und die Fäden eingefädelt sowie gespannt. Genau dieses Einstellen der Nylonfäden ist ein kritischer Punkt, weil dadurch die reibungslose Funktion sichergestellt wird.

Die Anleitung ist umfangreich und bebildert, sodass Schritt für Schritt der Bau nachvollzogen werden kann. Wer Schwierigkeiten beim Nachbauen hat, findet im Internet ergänzende Video-Anleitungen, die besonders bei komplizierten Schritten hilfreich sind. Für den gesamten Aufbau sollte man mehrere Stunden, teils auch mehrere Tage einplanen.

Vorteile des Sets

  • Der Kosmos Bionic Robotic Arm vermittelt wichtige Grundlagen in den Bereichen Bionik, Robotik und Mechanik. Während des Aufbaus lernt man, wie komplexe Bewegungssysteme funktionieren und entwickelt technisches Verständnis und Geschick.
  • Der seilzugbasierte Antrieb des Arms ist ziemlich einzigartig. Anders als motorisierte Modelle wirkt die Bewegung hier fast organisch.
  • Da das System ohne Elektronik und Batterien auskommt, verursacht es keine laufenden Kosten und ist weniger anfällig für technische Ausfälle.
  • Der Arm bietet dank verschiedener Aufsätze und hoher Beweglichkeit viel Vielfalt beim Spielen oder Experimentieren.

Nachteile und Herausforderungen

  • Mit beinahe 300 Teilen könnte das Set für Jüngere oder Ungeduldige schnell zu viel werden. Geduldige Bastler profitieren, aber wer rasche Erfolge sucht, könnte frustriert sein.
  • Für den Aufbau werden zusätzliche Werkzeuge benötigt, etwa Kreuzschlitz-Schraubendreher, Seitenschneider oder eine Feile, die nicht im Lieferumfang enthalten sind.
  • Wer beim Einstellen der Nylonfäden nicht genau aufpasst, dem könnte der Arm entweder zu wenig oder zu stark spannen. Das beeinflusst die Funktion und kann mehrere Justierversuche erfordern.
  • Im Unterschied zu elektronischen Roboterarmen kann der mechanische Arm nur leichtere Objekte greifen. Zu schwere Gegenstände können das System beschädigen oder verstellen.
  • Mit der Zeit könnten sich Fäden lockern, dehnen oder reißen. Dann ist Nachjustieren oder Austauschen notwendig.

Verarbeitung

Die Kunststoffteile des Sets sind passgenau gearbeitet und machen einen stabilen Eindruck. Die Gelenke und Zahnräder lassen sich leichtgängig bewegen. Langfristig könnte der Kunststoff aber bei intensiver Nutzung abnutzen oder ein Nylonfaden reißen. Bei der Vorstellung auf der Spielwarenmessen passierte leider genau das. Ich vermute aber, dass es dafür viele Stunden intensiver Belastung benötigt.

Preis-Leistungs-Verhältnis

Das Set wird im mittleren Preisbereich für Experimentierbaukästen angeboten. Interessanterweise wird es auch unter anderen Marken günstiger verkauft, da Kosmos eine Lizenzversion vertreibt, was manche Käufer zum Preisvergleich anregt.

Zielgruppe

Empfohlen wird das Set für Kinder ab etwa zehn Jahren, wobei jüngere Baufans durchaus Unterstützung gebrauchen können. Auch für Modellbau-Fans und Sammler ist das System durch seine mechanische Funktionsweise interessant.

Fazit

Der Kosmos Bionic Robotic Arm ist ein Experimentierbaukasten mit spannendem mechanischem Konzept. Sein bionisch inspiriertes Zugseilsystem hebt sich deutlich von anderen Roboterarmen ab und bietet wertvolle technische Einblicke.

Besonders zeichnet sich der Bausatz durch seinen Lerneffekt, die robuste Bauweise und die geschmeidigen Bewegungen des fertigen Arms aus. Die hohen Anforderungen an Präzision und Geduld beim Aufbau sind für viele Nutzer eine echte Herausfoderung, können aber gerade bei Kindern zu Frust führen.

Insgesamt handelt es sich um ein solides Lernspielzeug für Bastlerinnen und Bastler, das mit Herausforderungen, aber auch mit einem faszinierenden Arbeitsprinzip belohnt. Wer Freude an Technik, Robotern, Bionik und Mechanik hat, wird viel Spaß am Kosmos Bionic Robotic Arm haben.

Alexander Zorn vom Fraunhofer IAIS stellt KI gesteuerten Roboterarm im Robots-Blog Interview vor

Mehr Informationen unter: https://www.iais.fraunhofer.de/de/branchen-themen/themen/intelligente-prozessautomatisierung/gen-ai-robotersteuerung.html

Robots-Blog trifft Alexander Mühlens und igus ersten humanoiden Roboter „Iggy Rob“ auf der automatica

Volker Spanier präsentiert neuen Epson 6-Achs-Roboter Cobot AX6 im Robots-Blog Interview auf automatica 2025

KI-Gestenerkennung mit IDS NXT Kamera lässt igus ReBel Roboter Stein, Schere, Papier gegen Mensch spielen

Enhancing Drone Navigation with AI and IDS uEye Camera Technology

AI-driven drone from University of Klagenfurt uses IDS uEye camera for real-time, object-relative navigation—enabling safer, more efficient, and precise inspections.

High-voltage power lines. Electricity distribution station. high voltage electric transmission tower. Distribution electric substation with power lines and transformers.

The inspection of critical infrastructures such as energy plants, bridges or industrial complexes is essential to ensure their safety, reliability and long-term functionality. Traditional inspection methods always require the use of people in areas that are difficult to access or risky. Autonomous mobile robots offer great potential for making inspections more efficient, safer and more accurate. Uncrewed aerial vehicles (UAVs) such as drones in particular have become established as promising platforms, as they can be used flexibly and can even reach areas that are difficult to access from the air. One of the biggest challenges here is to navigate the drone precisely relative to the objects to be inspected in order to reliably capture high-resolution image data or other sensor data.

A research group at the University of Klagenfurt has designed a real-time capable drone based on object-relative navigation using artificial intelligence. Also on board: a USB3 Vision industrial camera from the uEye LE family from IDS Imaging Development Systems GmbH.

As part of the research project, which was funded by the Austrian Federal Ministry for Climate Action, Environment, Energy, Mobility, Innovation and Technology (BMK), the drone must autonomously recognise what is a power pole and what is an insulator on the power pole. It will fly around the insulator at a distance of three meters and take pictures. „Precise localisation is important such that the camera recordings can also be compared across multiple inspection flights,“ explains Thomas Georg Jantos, PhD student and member of the Control of Networked Systems research group at the University of Klagenfurt. The prerequisite for this is that object-relative navigation must be able to extract so-called semantic information about the objects in question from the raw sensory data captured by the camera. Semantic information makes raw data, in this case the camera images, „understandable“ and makes it possible not only to capture the environment, but also to correctly identify and localise relevant objects.

In this case, this means that an image pixel is not only understood as an independent colour value (e.g. RGB value), but as part of an object, e.g. an isolator. In contrast to classic GNNS (Global Navigation Satellite System), this approach not only provides a position in space, but also a precise relative position and orientation with respect to the object to be inspected (e.g. „Drone is located 1.5m to the left of the upper insulator“).

The key requirement is that image processing and data interpretation must be latency-free so that the drone can adapt its navigation and interaction to the specific conditions and requirements of the inspection task in real time.

Thomas Jantos with the inspection drone – Photo: aau/Müller

Semantic information through intelligent image processing
Object recognition, object classification and object pose estimation are performed using artificial intelligence in image processing. „In contrast to GNSS-based inspection approaches using drones, our AI with its semantic information enables the inspection of the infrastructure to be inspected from certain reproducible viewpoints,“ explains Thomas Jantos. „In addition, the chosen approach does not suffer from the usual GNSS problems such as multi-pathing and shadowing caused by large infrastructures or valleys, which can lead to signal degradation and thus to safety risks.“

A USB3 uEye LE serves as the quadcopter’s navigation camera

How much AI fits into a small quadcopter?
The hardware setup consists of a TWINs Science Copter platform equipped with a Pixhawk PX4 autopilot, an NVIDIA Jetson Orin AGX 64GB DevKit as on-board computer and a USB3 Vision industrial camera from IDS. „The challenge is to get the artificial intelligence onto the small helicopters.

The computers on the drone are still too slow compared to the computers used to train the AI. With the first successful tests, this is still the subject of current research,“ says Thomas Jantos, describing the problem of further optimising the high-performance AI model for use on the on-board computer.

The camera, on the other hand, delivers perfect basic data straight away, as the tests in the university’s own drone hall show. When selecting a suitable camera model, it was not just a question of meeting the requirements in terms of speed, size, protection class and, last but not least, price. „The camera’s capabilities are essential for the inspection system’s innovative AI-based navigation algorithm,“ says Thomas Jantos. He opted for the U3-3276LE C-HQ model, a space-saving and cost-effective project camera from the uEye LE family. The integrated Sony Pregius IMX265 sensor is probably the best CMOS image sensor in the 3 MP class and enables a resolution of 3.19 megapixels (2064 x 1544 px) with a frame rate of up to 58.0 fps. The integrated 1/1.8″ global shutter, which does not produce any ‚distorted‘ images at these short exposure times compared to a rolling shutter, is decisive for the performance of the sensor. „To ensure a safe and robust inspection flight, high image quality and frame rates are essential,“ Thomas Jantos emphasises. As a navigation camera, the uEye LE provides the embedded AI with the comprehensive image data that the on-board computer needs to calculate the relative position and orientation with respect to the object to be inspected. Based on this information, the drone is able to correct its pose in real time.

The IDS camera is connected to the on-board computer via a USB3 interface. „With the help of the IDS peak SDK, we can integrate the camera and its functionalities very easily into the ROS (Robot Operating System) and thus into our drone,“ explains Thomas Jantos. IDS peak also enables efficient raw image processing and simple adjustment of recording parameters such as auto exposure, auto white Balancing, auto gain and image downsampling.

To ensure a high level of autonomy, control, mission management, safety monitoring and data recording, the researchers use the source-available CNS Flight Stack on the on-board computer. The CNS Flight Stack includes software modules for navigation, sensor fusion and control algorithms and enables the autonomous execution of reproducible and customisable missions. „The modularity of the CNS Flight Stack and the ROS interfaces enable us to seamlessly integrate our sensors and the AI-based ’state estimator‘ for position detection into the entire stack and thus realise autonomous UAV flights. The functionality of our approach is being analysed and developed using the example of an inspection flight around a power pole in the drone hall at the University of Klagenfurt,“ explains Thomas Jantos.

Visualisation of the flight path of an inspection flight around an electricity pole model with three insulators in the research laboratory at the University of Klagenfurt

Precise, autonomous alignment through sensor fusion
The high-frequency control signals for the drone are generated by the IMU (Inertial Measurement Unit). Sensor fusion with camera data, LIDAR or GNSS (Global Navigation Satellite System) enables real-time navigation and stabilisation of the drone – for example for position corrections or precise alignment with inspection objects. For the Klagenfurt drone, the IMU of the PX4 is used as a dynamic model in an EKF (Extended Kalman Filter). The EKF estimates where the drone should be now based on the last known position, speed and attitude. New data (e.g. from IMU, GNSS or camera) is then recorded at up to 200 Hz and incorprated into the state estimation process.

The camera captures raw images at 50 fps and an image size of 1280 x 960px. „This is the maximum frame rate that we can achieve with our AI model on the drone’s onboard computer,“ explains Thomas Jantos. When the camera is started, an automatic white balance and gain adjustment are carried out once, while the automatic exposure control remains switched off. The EKF compares the prediction and measurement and corrects the estimate accordingly. This ensures that the drone remains stable and can maintain its position autonomously with high precision.

Electricity pole with insulators in the drone hall at the University of Klagenfurt is used for test flights

Outlook
„With regard to research in the field of mobile robots, industrial cameras are necessary for a variety of applications and algorithms. It is important that these cameras are robust, compact, lightweight, fast and have a high resolution. On-device pre-processing (e.g. binning) is also very important, as it saves valuable computing time and resources on the mobile robot,“ emphasises Thomas Jantos.

With corresponding features, IDS cameras are helping to set a new standard in the autonomous inspection of critical infrastructures in this promising research approach, which significantly increases safety, efficiency and data quality.

The Control of Networked Systems (CNS) research group is part of the Institute for Intelligent System Technologies. It is involved in teaching in the English-language Bachelor’s and Master’s programs „Robotics and AI“ and „Information and Communications Engineering (ICE)“ at the University of Klagenfurt. The group’s research focuses on control engineering, state estimation, path and motion planning, modeling of dynamic systems, numerical simulations and the automation of mobile robots in a swarm: More information

uEye LE – the cost-effective, space-saving project camera
Model used:USB3 Vision Industriekamera U3-3276LE Rev.1.2
Camera family: uEye LE

Image rights: Alpen-Adria-Universität (aau) Klagenfurt
© 2025 IDS Imaging Development Systems GmbH

Roboter automatisiert Pick-and-Place-Prozesse mit KI-gestützter Bildverarbeitung

Pick-and-Place-Anwendungen sind ein zentrales Einsatzgebiet der Robotik. Sie werden häufig in der Industrie genutzt, um Montageprozesse zu beschleunigen und manuelle Tätigkeiten zu reduzieren – ein spannendes Thema für Informatik Masteranden des Instituts für datenoptimierte Fertigung der Hochschule Kempten. Sie entwickelten einen Roboter, der Prozesse durch den Einsatz von künstlicher Intelligenz und Computer Vision optimiert. Auf Basis einer Montagezeichnung ist das System in der Lage, einzelne Bauteile zu greifen und an vorgegebener Stelle abzulegen – vergleichbar mit einem Puzzle. Anschließend können die Teile dort manuell durch einen Mitarbeiter verklebt werden.

Pick-and-Place-Roboter platziert Bauteile ähnlich wie bei einem Puzzle. (© Hochschule Kempten)

Zwei IDS Industriekameras liefern die nötigen Bildinformationen

Mithilfe von zwei uEye XC Kameras und einer KI-gestützten Bildverarbeitung analysiert das System die Umgebung und berechnet präzise Aufnahme- sowie Ablagekoordinaten. Eine der Kameras wurde dazu über der Arbeitsfläche platziert, die andere über der Entnahmestelle. Konkret verarbeitet eine KI-Pipeline die Bilder der beiden Kameras in mehreren Schritten, um die exakte Lage und Ausrichtung der Objekte zu bestimmen. Mithilfe der Computer-Vision-Algorithmen und neuronalen Netzen erkennt das System relevante Merkmale, berechnet die optimalen Greifpunkte und generiert präzise Koordinaten für die Aufnahme und Ablage der Objekte. Zudem identifiziert das System die Teile eindeutig, indem es ihre Oberfläche segmentiert und die Konturen mit einer Datenbank abgleicht. Darüber hinaus nutzt es die Ergebnisse, um eine Annäherung an bereits abgelegte Teile zu ermöglichen. Die Automatisierungslösung reduziert damit die Abhängigkeit von Expertenwissen, verkürzt Prozesszeiten und wirkt dem Fachkräftemangel entgegen.

Roboter greift einzelne Bauteile und positioniert sie an vorgegebener Stelle. (© Hochschule Kempten)

Kameraanforderungen

Schnittstelle, Sensor, Baugröße und Preis waren die Kriterien, die für die Wahl des Kameramodells entscheidend waren. Die uEye XC kombiniert die Benutzerfreundlichkeit einer Webcam mit der Leistungsfähigkeit einer Industriekamera. Sie erfordert lediglich eine Kabelverbindung für den Betrieb. Ausgestattet mit einem 13-MP-onsemi-Sensor (AR1335) liefert die Autofokus-Kamera hochauflösende Bilder und Videos. Eine wechselbare Makro-Aufsatzlinse ermöglicht eine verkürzte Objektdistanz, wodurch die Kamera auch für Nahbereichsanwendungen geeignet ist. Auch ihre Einbindung war denkbar einfach, wie Raphael Seliger, Wissenschaftlicher Mitarbeiter der Hochschule Kempten, erklärt: „Wir binden die Kameras über die IDS peak Schnittstelle an unser Python Backend an.“

Zwei uEye XC Industriekameras liefern die nötigen Bildinformationen. (© Hochschule Kempten)

Ausblick

Zukünftig soll das System durch Reinforcement Learning weiterentwickelt werden – einer Methode des maschinellen Lernens, die auf Lernen durch Versuch und Irrtum beruht. „Wir möchten gerne die KI-Funktionen ausbauen, um die Pick-and-Place Vorgänge intelligenter zu gestalten. Unter Umständen benötigen wir dafür eine zusätzliche Kamera direkt am Roboterarm“, erläutert Seliger. Geplant ist zudem eine automatische Genauigkeitsprüfung der abgelegten Teile. Langfristig soll der Roboter allein anhand der Montagezeichnung alle erforderlichen Schritte eigenständig ausführen können.

Informationen zu uEye XC Kameras

Creativity in motion: The modular robot Otto from HP Robots

The HP Robots Otto is a versatile, modular robot designed specifically for educational purposes. It offers students and teachers an exciting opportunity to immerse themselves in the world of robotics, 3D printing, electronics and programming. The robot was developed by HP as part of their robotics initiative and is particularly suitable for use in science, technology, engineering and mathematics (STEM) classes.

Key features of Otto:

  • Modular design: Otto is a modular robot that allows students to build, program and customize it through extensions. This promotes an understanding of technology and creativity. The modular structure allows various components such as motors, sensors and LEDs to be added or replaced, which increases the learning curve for students.
  • Programmability: The robot can be programmed with various programming languages, including block-based programming for beginners and Python and C++ for advanced programmers. This diversity allows students to continuously improve their coding skills and adapt to the complexity of the tasks.
  • Sensors and functions: Equipped with ultrasonic sensors for obstacle detection, line tracking sensors and RGB LEDs, Otto offers numerous interactive possibilities. These features allow students to program complex tasks such as navigating courses or tracing lines. The sensors help to detect the environment and react accordingly.
  • 3D printing and customizability: Students can design Otto’s outer parts themselves and produce them with a 3D printer. This allows for further personalization and customization of the robot. This creative freedom not only promotes technical understanding, but also artistic skills. Own parts can be designed and sensors can be attached to desired locations.

Educational approach:

Otto is ideal for use in schools and is aimed at students from the age of 8. Younger students can work under supervision, while older students from the age of 14 can also use and expand the robot independently. The kit contains all the necessary components to build a functioning robot, including motors, sensors, and a rechargeable battery.

Programming environments:

Otto is programmed via a web-based platform that runs on all operating systems. This platform offers different modes:

  • Block-based programming: Similar to Scratch Jr., ideal for beginners. This visual programming makes it easier to get started in the world of programming and helps students understand basic concepts such as loops and conditions.
  • Python: A Python editor is available for advanced users. Python is a popular language that works well for teaching because it is easy to read and write. Students can use Python to develop more complex algorithms and expand their programming skills.
  • C++: Compatible with the Arduino IDE for users who have deeper programming knowledge. C++ offers a high degree of flexibility and allows students to access the hardware directly, allowing for their own advanced projects.

Expansion Kits:

In addition to the Starter Kit, there are several expansion kits. All expansion kits require the starter kit, as they are built on top of it.

Emote Expansion Kit:

  • It includes components such as an LED matrix display, OLED display, and an MP3 player that allow the robot to display visual and acoustic responses.
  • This kit is particularly suitable for creative projects where Otto should act as an interactive companion.
  • The emote kit allows Otto to show emotions, mirror human interactions, and develop different personalities.

Sense Expansion Kit:

  • With the Sense Kit, Otto can perceive its surroundings through various sensors.
  • Included are sensors for temperature, humidity, light and noise as well as an inclination sensor. These enable a wide range of interactions with the environment.
  • The kit is ideal for projects that focus on environmental detection and data analysis.

Interact Expansion Kit:

  • The Interact kit expands Otto’s tactile interaction capability through modules such as push buttons, rotary knobs and accelerometers.
  • It enables precise inputs and reactions, as well as measurement of acceleration.
  • This kit is great for playful activities and interactive games.

Invent Expansion Kit:

  • The Invent kit is specifically designed to encourage users‘ creativity. It allows the individual adaptation of Otto’s functionalities and design through 3D printing and additional modules as well as compatible clamping blocks.
  • Users can design and print new accessories to make the robot unique.
  • Equip Otto with legs and teach him to walk or make him fit for outdoor use off-road with chains.

Use in the classroom:

Otto comes with extensive resources developed by teachers. These materials help teachers design effective STEM lessons without the need for prior knowledge. The robot can be used both in the classroom and at home. The didactic materials include:

  • Curricula: Structured lesson plans that help teachers plan and execute lessons.
  • Project ideas and worksheets: A variety of projects that encourage students to think creatively and expand their skills.
  • Tutorials and videos: Additional learning materials to help students better understand complex concepts.

Conclusion:

The HP Robots Otto is an excellent tool for fostering technical understanding and creativity in students. Thanks to its modular design and diverse programming options, it offers a hands-on learning experience in the field of robotics and electronics. Ideal for use in schools, Otto provides teachers with a comprehensive platform to accompany students on an exciting journey into the world of technology. In particular, Otto’s versatility through the 3D-printed parts and expansion packs offers the opportunity to build the personal learning robot.