Alexander Zorn vom Fraunhofer IAIS stellt KI gesteuerten Roboterarm im Robots-Blog Interview vor

Mehr Informationen unter: https://www.iais.fraunhofer.de/de/branchen-themen/themen/intelligente-prozessautomatisierung/gen-ai-robotersteuerung.html

Robots-Blog trifft Alexander Mühlens und igus ersten humanoiden Roboter „Iggy Rob“ auf der automatica

Volker Spanier präsentiert neuen Epson 6-Achs-Roboter Cobot AX6 im Robots-Blog Interview auf automatica 2025

KI-Gestenerkennung mit IDS NXT Kamera lässt igus ReBel Roboter Stein, Schere, Papier gegen Mensch spielen

ABot Advanced by Avishkaar

Das Avishkaar ABot Advanced Kit ist ein umfassendes DIY-Set für STEM-Robotik und Codierung, das speziell für Kinder ab 8 Jahren entwickelt wurde. Es enthält über 60 Teile, darunter Metallteile, Motoren, Sensoren, Räder, USB-Kabel, Schrauben, Muttern, ein Inbusschlüssel und ein Schraubenschlüssel. Mit diesen Teilen können Kinder 10 verschiedene Roboter bauen, von einfachen Fahrzeugen bis hin zu komplexeren Konstruktionen Das Set erinnerte mich beim Aufbau an den mBot, da auch hier eine stabile Metallkonstruktion als Grundlage diente. Nett sind die mitgelieferten Sticker und das Werkzeug. Die Anleitung war einfach zu verstehen und ich fand keine Fehler oder hatte Probleme beim Zusammenbau. Die App zur Fernsteuerung und Programmierung muss vor der ersten Verwendung mit dem Produktcode aktiviert und der Benutzer registriert werden. Beim Einsatz, z.B. im Klassenzimmer, sollte man dies vorab schon erledigt haben. Die im Video sichtbare 9V Blockbatterie ist übrigens beim Kauf über einen Händler nicht dabei, sondern ein vollwertiges Akkupack. Ich verwende die 9V Batterie nur wegen Lieferschwierigkeiten. Insgesamt aber schon interessant, dass der Roboter dies überhaupt ermöglicht. Ich spiele direkt mit dem Gedanken hier eine Solarzelle anzuschließen und den Roboter mit Sonnenenergie zu betreiben…wie so ein richtiger Marsrover…

Hier sind weitere detaillierte Informationen:

  • Einfach zu bauende programmierbare Roboter: Mit diesem Kit können Kinder 10 verschiedene Roboter mit über 60 Teilen erstellen. Dazu gehören Metallteile, ein leicht programmierbares Gehirn, Motoren, Sensoren (2x Lichtsensor, 1x Berührungssensor/Taster), Räder, USB-Kabel, Schrauben, Muttern, ein Inbusschlüssel, ein Schraubenschlüssel, Kabel und eine Anleitung.
  • Steuerung über mobile App: Die Roboter können über eine Fernbedienungs-App gesteuert werden. Außerdem können sie mithilfe einer visuellen blockbasierten Programmierumgebung (ähnlich Scratch/Blockly) programmiert werden.
  • Lernziele: Mit dem ABot Advanced Kit lernen Kinder Robotik, Programmierung, Konstruktion, mechanisches Design und Problemlösung.
  • Kompatibilität: Die mobile App ist mit iOS 11 oder höher und Android 10 oder höher kompatibel.
  • Preiswertes Kit: Das ABot Advanced Kit bietet einen stabilen Metallrahmen an dem Motoren und Sensoren angebracht werden können. Für umgerechnet ca. 60€ bietet das Set ein gutes Preis-Leistungsverhältnis. Vielleicht findet sich das Set ja auch bald bei einem deutschen Händler.

Ein umfassendes Aufbauvideos eines der 10 Robotermodelle findet ihr hier:

Das Set ist u.a. hier erhältlich: https://shop.avishkaar.cc/products/abot-advanced

Enhancing Drone Navigation with AI and IDS uEye Camera Technology

AI-driven drone from University of Klagenfurt uses IDS uEye camera for real-time, object-relative navigation—enabling safer, more efficient, and precise inspections.

High-voltage power lines. Electricity distribution station. high voltage electric transmission tower. Distribution electric substation with power lines and transformers.

The inspection of critical infrastructures such as energy plants, bridges or industrial complexes is essential to ensure their safety, reliability and long-term functionality. Traditional inspection methods always require the use of people in areas that are difficult to access or risky. Autonomous mobile robots offer great potential for making inspections more efficient, safer and more accurate. Uncrewed aerial vehicles (UAVs) such as drones in particular have become established as promising platforms, as they can be used flexibly and can even reach areas that are difficult to access from the air. One of the biggest challenges here is to navigate the drone precisely relative to the objects to be inspected in order to reliably capture high-resolution image data or other sensor data.

A research group at the University of Klagenfurt has designed a real-time capable drone based on object-relative navigation using artificial intelligence. Also on board: a USB3 Vision industrial camera from the uEye LE family from IDS Imaging Development Systems GmbH.

As part of the research project, which was funded by the Austrian Federal Ministry for Climate Action, Environment, Energy, Mobility, Innovation and Technology (BMK), the drone must autonomously recognise what is a power pole and what is an insulator on the power pole. It will fly around the insulator at a distance of three meters and take pictures. „Precise localisation is important such that the camera recordings can also be compared across multiple inspection flights,“ explains Thomas Georg Jantos, PhD student and member of the Control of Networked Systems research group at the University of Klagenfurt. The prerequisite for this is that object-relative navigation must be able to extract so-called semantic information about the objects in question from the raw sensory data captured by the camera. Semantic information makes raw data, in this case the camera images, „understandable“ and makes it possible not only to capture the environment, but also to correctly identify and localise relevant objects.

In this case, this means that an image pixel is not only understood as an independent colour value (e.g. RGB value), but as part of an object, e.g. an isolator. In contrast to classic GNNS (Global Navigation Satellite System), this approach not only provides a position in space, but also a precise relative position and orientation with respect to the object to be inspected (e.g. „Drone is located 1.5m to the left of the upper insulator“).

The key requirement is that image processing and data interpretation must be latency-free so that the drone can adapt its navigation and interaction to the specific conditions and requirements of the inspection task in real time.

Thomas Jantos with the inspection drone – Photo: aau/Müller

Semantic information through intelligent image processing
Object recognition, object classification and object pose estimation are performed using artificial intelligence in image processing. „In contrast to GNSS-based inspection approaches using drones, our AI with its semantic information enables the inspection of the infrastructure to be inspected from certain reproducible viewpoints,“ explains Thomas Jantos. „In addition, the chosen approach does not suffer from the usual GNSS problems such as multi-pathing and shadowing caused by large infrastructures or valleys, which can lead to signal degradation and thus to safety risks.“

A USB3 uEye LE serves as the quadcopter’s navigation camera

How much AI fits into a small quadcopter?
The hardware setup consists of a TWINs Science Copter platform equipped with a Pixhawk PX4 autopilot, an NVIDIA Jetson Orin AGX 64GB DevKit as on-board computer and a USB3 Vision industrial camera from IDS. „The challenge is to get the artificial intelligence onto the small helicopters.

The computers on the drone are still too slow compared to the computers used to train the AI. With the first successful tests, this is still the subject of current research,“ says Thomas Jantos, describing the problem of further optimising the high-performance AI model for use on the on-board computer.

The camera, on the other hand, delivers perfect basic data straight away, as the tests in the university’s own drone hall show. When selecting a suitable camera model, it was not just a question of meeting the requirements in terms of speed, size, protection class and, last but not least, price. „The camera’s capabilities are essential for the inspection system’s innovative AI-based navigation algorithm,“ says Thomas Jantos. He opted for the U3-3276LE C-HQ model, a space-saving and cost-effective project camera from the uEye LE family. The integrated Sony Pregius IMX265 sensor is probably the best CMOS image sensor in the 3 MP class and enables a resolution of 3.19 megapixels (2064 x 1544 px) with a frame rate of up to 58.0 fps. The integrated 1/1.8″ global shutter, which does not produce any ‚distorted‘ images at these short exposure times compared to a rolling shutter, is decisive for the performance of the sensor. „To ensure a safe and robust inspection flight, high image quality and frame rates are essential,“ Thomas Jantos emphasises. As a navigation camera, the uEye LE provides the embedded AI with the comprehensive image data that the on-board computer needs to calculate the relative position and orientation with respect to the object to be inspected. Based on this information, the drone is able to correct its pose in real time.

The IDS camera is connected to the on-board computer via a USB3 interface. „With the help of the IDS peak SDK, we can integrate the camera and its functionalities very easily into the ROS (Robot Operating System) and thus into our drone,“ explains Thomas Jantos. IDS peak also enables efficient raw image processing and simple adjustment of recording parameters such as auto exposure, auto white Balancing, auto gain and image downsampling.

To ensure a high level of autonomy, control, mission management, safety monitoring and data recording, the researchers use the source-available CNS Flight Stack on the on-board computer. The CNS Flight Stack includes software modules for navigation, sensor fusion and control algorithms and enables the autonomous execution of reproducible and customisable missions. „The modularity of the CNS Flight Stack and the ROS interfaces enable us to seamlessly integrate our sensors and the AI-based ’state estimator‘ for position detection into the entire stack and thus realise autonomous UAV flights. The functionality of our approach is being analysed and developed using the example of an inspection flight around a power pole in the drone hall at the University of Klagenfurt,“ explains Thomas Jantos.

Visualisation of the flight path of an inspection flight around an electricity pole model with three insulators in the research laboratory at the University of Klagenfurt

Precise, autonomous alignment through sensor fusion
The high-frequency control signals for the drone are generated by the IMU (Inertial Measurement Unit). Sensor fusion with camera data, LIDAR or GNSS (Global Navigation Satellite System) enables real-time navigation and stabilisation of the drone – for example for position corrections or precise alignment with inspection objects. For the Klagenfurt drone, the IMU of the PX4 is used as a dynamic model in an EKF (Extended Kalman Filter). The EKF estimates where the drone should be now based on the last known position, speed and attitude. New data (e.g. from IMU, GNSS or camera) is then recorded at up to 200 Hz and incorprated into the state estimation process.

The camera captures raw images at 50 fps and an image size of 1280 x 960px. „This is the maximum frame rate that we can achieve with our AI model on the drone’s onboard computer,“ explains Thomas Jantos. When the camera is started, an automatic white balance and gain adjustment are carried out once, while the automatic exposure control remains switched off. The EKF compares the prediction and measurement and corrects the estimate accordingly. This ensures that the drone remains stable and can maintain its position autonomously with high precision.

Electricity pole with insulators in the drone hall at the University of Klagenfurt is used for test flights

Outlook
„With regard to research in the field of mobile robots, industrial cameras are necessary for a variety of applications and algorithms. It is important that these cameras are robust, compact, lightweight, fast and have a high resolution. On-device pre-processing (e.g. binning) is also very important, as it saves valuable computing time and resources on the mobile robot,“ emphasises Thomas Jantos.

With corresponding features, IDS cameras are helping to set a new standard in the autonomous inspection of critical infrastructures in this promising research approach, which significantly increases safety, efficiency and data quality.

The Control of Networked Systems (CNS) research group is part of the Institute for Intelligent System Technologies. It is involved in teaching in the English-language Bachelor’s and Master’s programs „Robotics and AI“ and „Information and Communications Engineering (ICE)“ at the University of Klagenfurt. The group’s research focuses on control engineering, state estimation, path and motion planning, modeling of dynamic systems, numerical simulations and the automation of mobile robots in a swarm: More information

uEye LE – the cost-effective, space-saving project camera
Model used:USB3 Vision Industriekamera U3-3276LE Rev.1.2
Camera family: uEye LE

Image rights: Alpen-Adria-Universität (aau) Klagenfurt
© 2025 IDS Imaging Development Systems GmbH

Quincy, ein malender Lernroboter

Quincy ist ein Roboter, der speziell für Kinder im Alter von 3 bis 8 Jahren entwickelt wurde. Er hat die Gestalt eines putzigen Roboter-Zyklopen mit zwei magnetischen Armen, die einen Stift halten können. Er kann verschiedene Bilder zeichnen, die er von speziellen Karten scannt, und dabei Kinder anleiten, ihm zu folgen und mitzuzeichnen. Er kann auch lehren, wie man das Alphabet, die Rechtschreibung, das Zählen und Mathematik lernt, indem er ihnen Geschichten erzählt, Fragen stellt und sie zum Mitmachen auffordert.

Quincy ist mehr als nur ein Spielzeug, er ist ein innovativer Lernbegleiter, der die Kreativität, die kognitiven und die sprachlichen Fähigkeiten der Kinder fördert. Er verwendet eine interaktive und spielerische Methode, um die Kinder zu motivieren. Er passt sich dem Lernniveau und dem Tempo der Kinder an und gibt ihnen positives Feedback und Ermutigung. Er ist ebenso ein schönes Spielzeug, das die Kinder unterhält und aktiv beschäftigt.

Quincy funktioniert mit verschiedenen Karten, die er mit seinem Auge, bzw. der dahinter verbauten Kamera, scannen kann. Es gibt vier Arten von Karten: Zeichenkarten, Buchstabenkarten, Zahlenkarten und Mathe-Herausforderungskarten. Die Zeichenkarten enthalten Bilder von Tieren, Pflanzen, Objekten und anderen Themen, die Quincy zeichnen und erklären kann. Die Buchstabenkarten enthalten die 26 Buchstaben des Alphabets, die Quincy verwenden kann, um die Kinder das Alphabet und die Rechtschreibung zu lehren. Die Zahlenkarten enthalten die Zahlen von 0 bis 9, die Quincy verwenden kann, um Kindern das Zählen und die Grundrechenarten zu lehren. Die Mathe-Herausforderungskarten enthalten Geschichten mit Mathefragen, die Quincy zeichnen und erzählen kann, und die Kinder sollen die richtige Antwort mit den Zahlenkarten geben.

Um Quincy zu benutzen, muss man ihn zuerst einschalten, indem man den Lautstärkeregler nach rechts dreht. Dann muss man einen Stift in seine Arme stecken, so dass die Spitze das Papier berührt. Dann muss man Quincy auf die obere Mitte des Papiers stellen, so dass seine Arme über dem Papier sind. Dann kann man eine Karte auswählen, die man Quincy zeigen möchte, und sie in etwa 5 cm Entfernung von sein Auge halten. Wenn sein Auge blinkt, bedeutet das, dass er die Karte erkannt hat, und man kann die Weiter-Taste drücken, um fortzufahren. Quincy wird dann das Bild zeichnen oder die Geschichte erzählen, und die Kinder können mitzeichnen oder ihm antworten. Mit der Weiter, Wiederholen oder Pause Taste lassen sich die Ansagen entsprechend steuern.

Quincy hat ein modernes und einzigartiges Design, das ihm Flexibilität und Stabilität beim Zeichnen und Schreiben verleiht. Er hat eine Saugnapfkonstruktion, die verhindert, dass er versehentlich beim Zeichnen verrutscht, und einen Arm, der durch seine magnetische Befestigung verhindert, dass er abbricht, wenn er mal herunterfällt. Seine schnelle Scanfähigkeit von 0,5 Sekunden ermöglicht es ihm, Bilder sofort zu erkennen und zu zeichnen. Er hat einen eingebauten 2500mAh wiederaufladbaren Lithium-Akku, der 2-2,5 Stunden zum Aufladen benötigt und 5,5 Stunden ohne Unterbrechung arbeiten kann. Er hat einen eingebauten gut klingenden Lautsprecher, der seine Stimme klar und angenehm macht. Er ist aus PET-Kunststoff gefertigt und hat eine rutschfeste Silikonbasis.

Das erste Ausprobieren und Starten von Qunicy gelang uns auf Anhieb und stellt keine Hürde dar. Vermutlich schaffen es die meisten Kinder, ohne die Hilfe Ihrer Eltern, Quincy in Betrieb zu nehmen. Wir empfehlen Quincy direkt neben einem Malblock zu platzieren, der gegen Verrutschen gesichert ist oder entsprechendes Eigengewicht besitzt.

Quincy ist bei Amazon für ca. 90 Euro erhältlich. Das Quincy Starterpaket enthält: Quincy, eine Bedienungsanleitung, zwei magnetische Arme, ein Ladekabel sowie zwei Stifte. Außerdem sind 24 Zeichenaufgaben, 4 Mathematikaufgaben, 26 Buchstabenkarten und 10 Zahlenkarten enthalten. Es gibt auch ein Quincy Erweiterungsset, das bald erhältlich sein wird, und das mehr Rechenaufgaben, Zeichenaufgaben und Buchstabieraufgaben bietet.

Quincy ist ein pädagogischer Zeichenroboter, der Kindern hilft, ihre Kreativität zu entwickeln und das Zeichnen zu lernen. Er ist ein perfekter Hauslehrer für Ihre Kinder, der ihnen verschiedene Fähigkeiten und Kenntnisse vermittelt, wie z.B das Alphabet, Rechtschreibung, Zählen, Mathe und mehr. Er ist ein lustiger und lehrreicher Begleiter, der Kinder zu motivieren und beschäftigen weiß.