RoboCup German Open 2026: Rekordbeteiligung beim größten KI-Robotik-Wettbewerb Europas

Über 1.100 Teilnehmende aus Deutschland, Europa und Asien in Köln. Bundesforschungsministerin Dorothee Bär würdigt Wettbewerb als „Talentschmiede“ für den Standort Deutschland. Wachstum von 15 Prozent bei Hochschul- und Schulteams unterstreicht steigende Bedeutung von KI und Robotik.

Die RoboCup German Open 2026 festigen ihre Position als führender europäischer Innovationsmotor für KI-basierte Robotik. Vom 10. bis 14. März versammelten sich im Rahmen der Bildungsmesse didacta in Köln über 1.100 Teilnehmende, um in visionären Szenarien wie dem autonomen Fußball, der Haushalts-, Industrie- oder Rettungsrobotik die Grenzen der Technik zu verschieben. Rund 280 hochmotivierte Teams aus Universitäten, Hochschulen und Schulen, präsentierten ihre Entwicklungen und setzten damit entscheidende Impulse für systematisches Benchmarking für Forschung und Technikreife. 

Als Innovationsmotor adressieren die RoboCup German Open die gesamte Bildungskette von der 5. Klasse bis zur Promotion. Das Event sichert so den nachhaltigen Transfer von Talenten und Technologien in Wirtschaft und Wissenschaft. Besonders erfreulich ist dabei die wachsende Zahl an teilnehmenden Teams, die im Vergleich zum Vorjahr um mehr als 15 Prozent stieg. 

Bundesforschungsministerin Dorothee Bär unterstreicht die Bedeutung für Deutschland

„Ich gratuliere den Siegerteams der RoboCup German Open ganz herzlich“, so Dorothee Bär, Bundesministerin für Forschung, Technologie und Raumfahrt. „Nicht nur sie haben gewonnen, sondern gewonnen hat ganz Deutschland. Denn: Der RoboCup ist Talentschmiede und ein wichtiges Instrument, um jungen Menschen die KI-basierte Robotik näher zu bringen, um sie für MINT-Fächer und -Berufe oder die Gründung eigener Unternehmen im MINT-Bereich zu begeistern. Damit Spitzenforschung sichtbar wird und zukünftige Spitzenleute Innovation aus Deutschland voranbringen. Das ist auch ein Ziel unserer Hightech Agenda Deutschland. Deutschland hat eine starke Forschung und ist stark in der produzierenden Industrie und Wirtschaft – ein Ökosystem, in dem KI-basierte Robotik ein riesiges Potential entwickeln wird.“ 

Als Schirmherrin der RoboCup German Open 2026 hatte Bundesforschungsministerin Bär die Wettbewerbe offiziell eröffnet. Bei einem anschließenden Rundgang war sie mit Forschenden und Schülerinnen und Schülern über innovative Robotik-Lösungen in den Austausch gekommen.

Hochschul- und Schulteams mit selbstentwickelten autonomen Robotern am Start

Für die RoboCupMajor-Ligen waren in diesem Jahr über 50 Hochschulteams vertreten, darunter Teams aus Deutschland, Italien, Österreich, Niederlande, Türkei, China und Japan. In den jeweiligen Ligen mussten die Roboter ganz oder teilweise autonom in Echtzeit komplexe, situationsabhängige Entscheidungen treffen und umsetzen. Besondere Herausforderungen bilden in den Ligen @Home (Serviceroboter) und insbesondere Rescue (Rettungsroboter) unterschiedliche Grade an Strukturiertheit der Umgebung. Demgegenüber steht bei Soccer (Fußball) Autonomie und Teamkooperation in einer besonders dynamischen Umgebung im Fokus. Systemstabilität wurde unter Wettbewerbsdruck benötigt, was auch sorgfältiges Ressourcen- und Zeitmanagement erforderte. „Durch die Wettbewerbsteilnahme erwerben Forschende und Studierende wichtige fachliche und überfachliche Qualifikationen, die weit über klassische Lehrveranstaltungen hinausgehen“, betonte Prof. Dr. Oskar von Stryk, vom deutschen RoboCup-Komitee und Veranstalter TU Darmstadt.

Im Bereich RoboCupJunior wurde auf den German Open das nationale Finale der besten deutschen Schulteams, insgesamt 230, ausgetragen. Diese hatten sich in neun regionalen Vorturnieren dafür qualifiziert. Für die Junior-Teilnehmenden von 10 bis 19 Jahren dient der Wettbewerb als Plattform, um den Spaß am Tüfteln, Programmieren und der Teamarbeit zu fördern. Dabei wirkt die Teilnahme langfristig: Viele Kinder, die bereits in der 5. Klasse in RoboCup-AGs einsteigen, bleiben über Jahre hinweg engagiert in Technik, Informatik und Naturwissenschaften. „Die hohe Eigenmotivation, Teamarbeit, Resilienz und kreative Problemlösefähigkeit der Jugendlichen sind beeindruckend und bilden genau jene Kompetenzen aus, die für eine zukunftsfähige Bildungsrepublik zentral sind“, so von Stryk.

Die Rapidly Manufactured Robot Challenge (RMRC) ist eine spezialisierte Brückenliga, in der Teilnehmende komplexe und dennoch kostengünstige, oft 3D-gedruckte Roboter entwickeln, um simulierte Rettungsmissionen und Geschicklichkeitsaufgaben zu bewältigen. Sie dient als Bindeglied zwischen den Junior- und Major-Wettbewerben.

Ausblick auf die Weltmeisterschaft

Viele der siegreichen Teams werden sich nun intensiv auf die kommenden RoboCupJunior-Europameisterschaften Anfang Juni in Wien sowie die RoboCup-Weltmeisterschaften Ende Juni in Südkorea vorbereiten. Die RoboCup German Open haben erneut gezeigt, dass sie eine unverzichtbare Station auf dem Weg zu internationalen Robotik-Erfolgen sind.

Im kommenden Jahr werden die RoboCup-Weltmeisterschaften erstmals seit über einem Jahrzehnt wieder in Deutschland ausgetragen, und zwar vom 15. bis 21. Juni 2027 in Nürnberg. Gleichzeitig ist dies das 30. Jubiläum des RoboCups, an welchem jährlich tausende Teams aus mehr als 50 Ländern in regionalen und überregionalen Wettbewerben weltweit teilnehmen.

Ergebnisse der Major-Ligen:

Small Size League
1. Platz – TIGERs Mannheim, DHBW Mannheim
2. Platz – ER-Force, Friedrich-Alexander-Universität Erlangen-Nürnberg
3. Platz – KIKS, National Institute of Technology, Toyota College


Humanoid Soccer League
Small Devision
1. Platz – ZJUDancer, Zhejiang University
2. Platz – Hamburg Bit-Bots, Universität Hamburg
3. Platz – Berlin United, Humboldt-Universität zu Berlin

Middle Devision
1. Platz – B-Human, Universität Bremen und Deutsches Forschungszentrum für Künstliche Intelligenz
2. Platz – HTWK Robots, HTWK Leipzig
3. Platz – whIRLwind Amsterdam, University of Amsterdam (UvA)

Large Devision
1. Platz – B-Human, Universität Bremen und Deutsches Forschungszentrum für Künstliche Intelligenz

@Home League
1. Platz – NimbRo, Universität Bonn
2. Platz – ToBI, Universität Bielefeld

Smart Manufacturing League
Workshop EAI Overal Winner
1. Platz – GM-Force Cologne, TH Köln
Workshop EAI Best-in-Class „Warehouse“
1. Platz – Team robOTTO, Otto-von-Guericke-Universität Magdeburg
Workshop EAI Best-in-Class „Assembly“
1. Platz – GM-Force Cologne, TH Köln

Rescue Robot League
1. Platz – AleRT, MASKOR – Institute for Mobile Autonomous Systems and Cognitive Robotics
2. Platz – Team DYNAMICS, FH OÖ – Campus Wels
3. Platz – AutonOhm Rescue, Technische Hochschule Nürnberg Georg-Simon-Ohm

Rapidly Manufactured Robot Challenge
1. Platz – CJTec, Christoph-Jacob-Treu, Gymnasium Lauf a.d. Pegnitz
2. Platz – Bento Robotics, Wilhelm-Löhe-Schule Nürnberg
3. Platz – CJT Bot Banditen, Christoph-Jacob-Treu Gymnasium Lauf a.d. Pegnitz

Ergebnisse der Junior-Ligen:

OnStage
OnStage Entry
1. Platz – rtc gransee – junior, Strittmatter-Gymnasium in Gransee
2. Platz – Die sauren Glühwürmchen, Lessing-Gymnasium Neu-Ulm

OnStage
1. Platz – atheAmadeus, Gymnasium Athenaeum in Stade
2. Platz – rtc gransee – goofy tech, Strittmatter-Gymnasium in Gransee
3. Platz – SquareCodes, Lion-Feuchtwanger-Gymnasium in München

Soccer
1vs1 Entry
1. Platz – Penguins on Wheels, Alexander-von-Humboldt Gymnasium in Berlin
2. Platz – No Name Penguins, Alexander-von-Humboldt Gymnasium in Berlin
3. Platz – LuSi, Schülerforschungszentrum Südwürttemberg e. V. Standort Wangen

1vs1 Lightweight
1. Platz – XBOT, RoCCI e.V. in Senden 
2. Platz – Team Alt+F4, Gymnasium Bad Zwischenahn-Edewecht
3. Platz – Bodensee Devils, Gymnasium im Bildungszentrum Markdorf

2vs2 Infrared
1. Platz – Mathimazierer, Lessing-Gymnasium Neu-Ulm
2. Platz – Bodensee Drachen, Gymnasium im Bildungszentrum Markdorf
3. Platz – Bohlebots Pompeii, Gymnasium Haan

2vs2 Vision
1. Platz – Bohlebots Atlantis, Gymnasium Haan
2. Platz – Bodensee Adler, Gymnasium im Bildungszentrum Markdorf
3. Platz – Team Faabs, Lessing-Gymnasium Neu-Ulm

Rescue
Simulation
1. Platz – Roger!Roger!, Gymnasium Burgdorf

Line Entry
1. Platz – Brain, Gymnasium Korntal-Münchingen
2. Platz – Leerzeichen, Gymnasium Korntal-Münchingen
3. Platz – Die Steine, Herbartgymnasium Oldenburg

Line
1. Platz – BioBrause, Uni Kassel Workshop
2. Platz – DinA4, Schülerforschungszentrum Südwürttemberg (SFZ) – Stockach
3. Platz – BIGG-IRMI, Schülerforschungszentrum Südwürttemberg e. V. – Wangen

Maze Entry
1. Platz – KaMa Robots, Universität Kassel Workshop
2. Platz – Cyber Knights, Universität Kassel Workshop
3. Platz – Bratnudeln, KGS Rastede

Maze
1. Platz – RRR Kabelmüsli, Schülerforschungszentrum Südwürttemberg (SFZ) – Tuttlingen
2. Platz – Bodensee Dogs, Gymnasium im Bildungszentrum Markdorf
3. Platz – Bodensee Beavers, Gymnasium im Bildungszentrum Markdorf

Parallel zu den RoboCup German Open 2026 fand vom 11. bis 13. März auf der Koelnmesse mit der 2. German Robotics Conference die führende Fachkonferenz zum Thema KI-gestützte Robotik statt, die vom Robotics Institute Germany organisiert wird. Die Konferenz brachte führende Vertreter aus Politik, Wissenschaft, Wirtschaft und Start-ups zusammen, um die Verbindung zwischen Forschung, Innovation und Technologietransfer zu stärken und bot aktuelle Einblicke in die Zukunft der intelligenten Robotik.

In diesem Jahr wurden die RoboCup German Open im Rahmen der didacta 2026 ausgetragen. Als größte und wichtigste Bildungsmesse Europas präsentiert die didacta alle relevanten Bildungsthemen und fördert den Dialog in der Bildungswirtschaft. 

Die RoboCup German Open 2026 wurden vom RoboCup-Komitee Deutschland und der Technischen Universität Darmstadt mit Unterstützung durch WorldSkills Germany und im Austausch mit dem Robotics Institute Germany durchgeführt. Die Veranstaltung wird gefördert vom Bundesministerium für Forschung, Technologie und Raumfahrt. Maßgeblich unterstützt wird sie darüber hinaus von der Hans und Ria Messer Stiftung. Des Weiteren unterstützten zahlreiche Partner und Sponsoren die Durchführung der RoboCup German Open 2026, darunter die Gisela und Erwin Sick Stiftung, NetCologne, Maxtronics Robotics SAS und die Micro-Epsilon Messtechnik GmbH & Co. KG.

Buchbesprechung: Roboter und KI aus der neuen Reihe SchlauFUX von KOSMOS

Technik verstehen – ganz ohne Fachchinesisch

Roboter, künstliche Intelligenz, Maschinen, die lernen können – das klingt erst einmal ziemlich kompliziert. Genau hier setzt „Roboter und KI“ an. Das Buch zeigt, dass Technik nicht einschüchternd sein muss, sondern neugierig machen kann. Und zwar so, dass Kinder ab etwa 8 Jahren problemlos folgen können – und Erwachsene oft gleich mitlesen.

Schon nach den ersten Seiten wird klar: Hier geht es nicht darum, alles perfekt zu verstehen. Es geht ums Entdecken, Staunen und Fragenstellen. Und genau das macht den Reiz dieses Buches aus.

Was dich im Buch erwartet

Statt streng von vorne nach hinten gelesen zu werden, lädt dieses Buch zum Querlesen ein. Du kannst selbst entscheiden, welches Thema dich gerade interessiert – fast so, als würdest du durch ein Technik-Museum schlendern und an den Stationen stehen bleiben, die dich am meisten ansprechen.

Im Buch geht es unter anderem darum,

  • was Roboter eigentlich sind und wo sie uns heute schon begegnen
  • wie künstliche Intelligenz funktioniert – ganz einfach erklärt
  • warum Roboter im Weltall, in Krankenhäusern oder sogar beim Spielen helfen
  • wie Maschinen lernen können und was das mit unserem eigenen Lernen zu tun hat

Die Texte sind bewusst kurz gehalten, werden durch Bilder, Infokästen und kleine Zusatzinfos ergänzt und lassen sich auch gut in Etappen lesen. Ideal also für zwischendurch – oder für einen gemütlichen Lesenachmittag.

Warum Leser:innen das Buch mögen

In Rezensionen auf Plattformen wie Thalia, Hugendubel oder Amazon liest man immer wieder, dass das Buch Kinder richtig gut abholt. Besonders positiv fällt auf, dass Technik hier nicht trocken erklärt wird, sondern in kleinen Häppchen, die neugierig machen.

Viele Eltern berichten, dass ihre Kinder selbstständig im Buch stöbern, hin- und herblättern und immer wieder neue Seiten entdecken. Genau dieses freie Lesen motiviert – vor allem Kinder, die bei klassischen Sachbüchern schnell die Lust verlieren.

Auch die Erklärweise wird häufig gelobt. Fachbegriffe werden nicht einfach hingeschrieben, sondern so erklärt, dass man sie wirklich versteht. Oft helfen Vergleiche aus dem Alltag dabei, zum Beispiel aus Spielen, Schule oder dem eigenen Zuhause.

Ein weiterer Pluspunkt ist die Gestaltung: Die Seiten sind farbig, übersichtlich und hochwertig gestaltet. Das Buch fühlt sich stabil an, liegt gut in der Hand und eignet sich auch hervorragend als Geschenk.

Mein Fazit

„Kosmos SchlauFUX – Roboter und KI“ ist ein Buch, das Lust auf Zukunft macht. Es erklärt große Themen verständlich, ohne sie zu vereinfachen, und zeigt, dass Technik nichts Abgehobenes ist, sondern längst zu unserem Alltag gehört.

Besonders schön: Man muss kein Technik-Profi sein, um Spaß an diesem Buch zu haben. Es reicht Neugier – der Rest kommt beim Lesen fast von allein. Ein Buch, das man immer wieder zur Hand nimmt und jedes Mal etwas Neues entdeckt.


Hier gehts zum Buch

👉 „Roboter & KI“ aus der SchlauFUX-Reihe vom Kosmos Verlag
https://amzn.to/46IMeKn

Vention führt GRIIP ein: Eine generalisierte Physical-AI-Pipeline für die Fertigungsautomatisierung

MONTREAL, 10. Februar 2026 /PRNewswire/ — Vention, das Unternehmen hinter der KI-gestützten Software- und Hardwareplattform für Automatisierung und Robotik, gab heute die Einführung von GRIIP (Generalized Robotic Industrial Intelligence Pipeline) bekannt. Dabei handelt es sich um eine End-to-End-Pipeline für physische KI, die den Einsatz autonomer Roboterzellen in hochgradig unstrukturierten Fertigungsumgebungen ermöglicht. GRIIP markiert einen fundamentalen Wandel von der aufgabenspezifischen Robotik hin zu einer generalisierten Intelligenz, die anwendungsübergreifend skalierbar ist.

Die GRIIP-Pipeline: End-to-End-Intelligenz

GRIIP liefert eine einheitliche Pipeline von der Wahrnehmung bis zur Bewegung, indem sie Ventions proprietäre Modelle mit offenen NVIDIA Isaac-Modellen integriert – insbesondere NVIDIA FoundationStereo für das Stereo-Matching und NVIDIA FoundationPose für die Lageerkennung. Die Pipeline übernimmt automatisch die Szenendigitalisierung und Kalibrierung, Objekterkennung und -segmentierung, 6DOF-Pose-Estimation, Greifpunktbewertung sowie die kollisionsfreie Pfadplanung und passt sich ohne manuelle Konfiguration an die realen Bedingungen an.

Die Architektur entwickelt sich durch die Nutzung neuester Physical-AI-Modelle kontinuierlich weiter und verbessert die Leistung im Laufe der Zeit ohne Hardware-Upgrades oder manuelle Eingriffe. Software-Updates werden über MachineMotion AI durchgeführt, wahlweise via WLAN oder integrierter LTE-Konnektivität.

Produktionsbereite Leistung und bewährte Zuverlässigkeit

GRIIP liefert industrietaugliche Ergebnisse mit validierter Performance:

  • Konsistent zuverlässige Pick-Leistung im 24/7-Betrieb über drei Monate hinweg.
  • Zykluszeiten von bis zu fünf Teilen pro Minute werden ohne Leistungsabfall eingehalten.
  • Sub-Millimeter-Genauigkeit bei der Lageerkennung (Pose Estimation).
  • CAD-to-Pick-Setup in 15 Minuten, vollständige Implementierung in unter zwei Tagen.
  • Adaptive Performance über verschiedene Bauteilgeometrien und Materialeigenschaften hinweg, einschließlich Oberflächenbeschaffenheit, Transparenz und Umgebungsvariationen.
  • Im Gegensatz zu Physical-AI-Modellen früherer Generationen behält GRIIP die Spitzenleistung während des gesamten Betriebs bei.
  • Die KI-Pipeline ist sofort einsatzbereit ohne Trainingsdaten oder benutzerdefinierte Datensätze, sodass Hersteller direkt neue Roboterzellen implementieren und neue Teile ohne Programmierung hinzufügen können.

Automatisierung über Einzelaufgaben hinaus skalieren

GRIIP nutzt dieselbe Technologie für mehrere Aufgaben und Anwendungsfälle innerhalb einer Fabrik, darunter Bin-Picking, Maschinenbeschickung, Pick-and-Place am Förderband, Kitting, Palettierung und Schleifen. GRIIP läuft auf dem MachineMotion AI-Controller von Vention (powered by NVIDIA Jetson) und kann bestehende, traditionell programmierte Robotik-Anwendungen in autonome Abläufe umwandeln. Dies ermöglicht eine schnellere Projektabwicklung, einen höheren ROI und einen klaren Upgrade-Pfad für die Automatisierungsinfrastruktur.

Verfügbarkeit und Unternehmenseinsatz

Vention skaliert derzeit sein Demonstrationsprogramm  für Kunden und arbeitet mit Unternehmenskunden zusammen, welche die Technologie für den Einsatz im Jahr 2026 evaluieren. Für technische Informationen oder um eine Demonstration zu vereinbaren, besuchen Sie https://vention.io/de/physical-ai-pipeline.

M5Stack StackChan Review Video by Robots-Blog

‪M5Stack‬ Stackchan is now available at @Kickstarter
See my short review Video by ‪@RobotsBlog‬ and get your own Stackchan now!

https://www.kickstarter.com/projects/m5stack/stackchan-the-first-co-created-open-source-ai-desktop-robot?ref=4fblpr

#robot #ai #stackchan #opensource #desktop #desktoprobot #diy #companion

StackChan by M5Stack Now Available on Kickstarter

January, 2026 — M5Stack, a global leader in modular IoT and embedded development platforms, today launched StackChan, the first community-co-created open-source AI desktop robot, built on a proven ESP32 platform and designed to be endlessly hackable by makers worldwide.

Unlike closed, concept-driven AI robots, StackChan exposes its hardware, firmware, and interaction logic from day one — turning a playful desktop companion into a real development platform.

StackChan is now live on Kickstarter with a $65 Super Early Bird offer available for the first 72 hours.

From Community to the Globe: How StackChan Was Born 

Before its official launch by M5Stack, StackChan had already existed as a community-driven project since 2021. Built on M5Stack standard controller, Core series, it began as a personal open-source project by maker Shinya Ishikawa, sustained and shaped through ongoing community contributions. 

As more enthusiasts joined the project, contributors like Takao, who helped popularize the DIY kits, and Robo8080, who introduced AI capabilities, played key roles in expanding StackChan beyond its original form. 

Inspired by StackChan’s expandability and creative potential, M5Stack officially brought the project to life as its first ready-to-play yet endlessly hackable desktop robot—while keeping its community-driven spirit at the core. 

What Remains: Core Computing & Interaction Capabilities 

As with the original version, StackChan continues to use the M5Stack flagship Core Series (CoreS3) as its main controller. CoreS3 is powered by an ESP32-S3 SoC with a 240 MHz dual-core processor, 16 MB Flash, and 8 MB PSRAM, and supports both Wi-Fi and BLE connectivity. 

To enable richer interactions, the main unit integrates a 2.0-inch capacitive touch display, a 0.3 MP camera, a proximity sensor, a 9-axis IMU (accelerometer + gyroscope + magnetometer). It also includes a microSD card slot, a 1W speaker, dual microphones, and power/reset buttons. Together, these hardware components form a solid foundation for StackChan’s audio-visual interactive experiences. 

For more technical details, please refer to the StackChan documentation: https://docs.m5stack.com/en/StackChan 

What’s New: Ready-to-Play Functions Powered by Advanced Hardware  

For the robot body, several advancements have been made to make it easier to get hands-on and improve the out-of-box experience. It features: 

Power & connectivity: A USB-C interface for both power and data, paired with a built-in 700 mAh battery.  

Movement system: 2 feedback servos supporting 360° continuous rotation on the horizontal axis and 90° vertical tilt—enabling expressive movements with real-time position feedback. 

Visual feedback: 2 rows totaling 12 RGB LEDs for expressive system and interaction feedback. 

Sensors & interaction: Infrared transmission and reception, a three-zone touch panel, and a full-featured NFC module enabling touch- and identity-based interactions. 

On the software side, StackChan is ready-to-play for starters with no coding required. The pre-installed factory firmware delivers: 

Expressive faces and motions: Preloaded with vivid facial expressions and coordinated movements that bring personality and liveliness to StackChan. 

Built-in AI agent: Integrates an AI agent for natural voice-based interaction and conversational experiences. 

App-based remote interaction: Supports official iOS app for video calls, remote avatar control, and real-time interaction with StackChan. 

Chan-to-Chan Friends Map: Enables discovery of nearby StackChan devices, unlocking playful multi-device and social interaction scenarios. 

Open for customization: While beginner-friendly by default, the firmware supports further development via Arduino and UiFlow2, making it easy to create custom applications. 

100% Open-Source: Built to Be Customized and Extended 

In an era filled with closed, concept-driven “AI robot” products, StackChan stands out with its open-source core. From firmware and hardware interfaces to development tools, every layer is designed to be explored, modified, and extended by users. 

Beyond code, StackChan also encourages physical customization. With 3D printing and creative accessories, users can personalize their StackChan’s appearance and turn it into a unique desktop companion. 

Open-source repository: https://github.com/m5stack/StackChan 

 
Fun with Global Community: Share, Extend, and Evolve Together 

Since its birth, StackChan has grown into a vibrant global community of makers, developers, and enthusiasts. From sharing projects and source code online to hosting meetups and anniversary events offline, the community continues to expand what StackChan can be. 

Owning a StackChan is not just about building a robot—it’s about being part of an open ecosystem where ideas and creativity evolve together. 

StackChan is not built to its end at launch. It is built to grow—through open technology, creative experimentation, and a global community that continues to redefine what a desktop robot can be.  

Discover your StackChan on Kickstarter now: https://www.kickstarter.com/projects/m5stack/stackchan-the-first-co-created-open-source-ai-desktop-robot?ref=d5iznw&utm_source=PR 

Der kleinste programmierbare Roboter der Welt!

Stell dir vor, ein Roboter ist so klein, dass er fast auf die Spitze eines Bleistifts passt – und trotzdem ganz allein denken und handeln kann. Klingt wie Science-Fiction? Forschende haben genau das geschafft! In einem aktuellen Bericht von heise online geht es um den kleinsten programmierbaren autonomen Roboter der Welt. Lass uns gemeinsam entdecken, was dieses Mini-Wunder kann – und warum es so spannend für die Zukunft ist.

Was bedeutet „programmierbar“ und „autonom“?

Bevor wir zum Roboter selbst kommen, klären wir kurz zwei wichtige Begriffe:

  • Programmierbar heißt: Menschen können dem Roboter sagen, was er tun soll – zum Beispiel laufen, stoppen oder einem Licht folgen.
  • Autonom bedeutet: Der Roboter entscheidet selbst, wann er was tut. Er braucht keine Fernsteuerung.

Und jetzt kommt das Erstaunliche: Dieser Roboter kann beides – obwohl er nur wenige Millimeter groß ist!

Der neue Roboter ist kaum größer als ein Staubkorn im Vergleich zu normalen Maschinen. Er ist so winzig, dass man ihn nur mit sehr ruhiger Hand oder unter dem Mikroskop genau anschauen kann. Trotzdem stecken in ihm eine winzige Elektronik. Sensoren, mit denen er seine Umgebung wahrnimmt und ein Antrieb, der ihn bewegen kann.

Das Team hinter dem Projekt arbeitet an der Northwestern University in den USA. Dort wird schon lange an extrem kleinen Robotern geforscht.

Was kann der Mini-Roboter?

Obwohl er so klein ist, kann der Roboter:

  • sich selbstständig bewegen
  • programmierten Befehlen folgen
  • auf seine Umgebung reagieren

Das ist etwas ganz Besonderes, denn bisher waren so kleine Roboter oft nur einfache Maschinen ohne „eigenes Denken“.

Wofür braucht man so winzige Roboter?

Jetzt wird es richtig spannend! Solche Mini-Roboter könnten in Zukunft in der Medizin helfen, zum Beispiel bei sehr schonenden Untersuchungen im Körper. Sie könnten in der Umweltforschung winzige Orte erkunden, die für Menschen unerreichbar sind. In der Technik könnten sie beim Bau noch kleinerer Geräte unterstützen. Einige Forschende träumen sogar davon, dass viele dieser Roboter eines Tages gemeinsam wie ein Ameisen-Schwarm arbeiten.

Fazit

Der kleinste programmierbare autonome Roboter der Welt zeigt, wie rasant sich Robotik und KI entwickeln. Obwohl er winzig ist, steckt in ihm jede Menge Technik und Zukunft. Vielleicht sind es genau solche Mini-Helfer, die eines Tages große Probleme lösen – leise, unsichtbar und unglaublich schlau.


FunFact

Wusstest du, dass… manche Mini-Roboter ihre Bewegung von Insekten wie Käfern oder Grillen abgeschaut haben? Die Natur ist oft die beste Ingenieur:in!


Für Profis 🔍


Quellenverweis


Buchempfehlung

Wenn du noch mehr über Roboter und künstliche Intelligenz erfahren möchtest, schau dir das Buch „Roboter & KI” aus der SchlauFUX-Reihe des Kosmos Verlags an. Der Autor beschreibt darin viele weitere Roboter aus den unterschiedlichsten Anwendungsgebieten: Manche fliegen zum Mars, andere tauchen in den tiefsten Gewässern der Erde und wieder andere arbeiten in Fabriken ganz ohne Licht.  👉 https://www.kosmos.de/de/kosmos-schlaufux-roboter-und-ki_1182437_9783440182437

Schülerinnen und Schüler trainieren ihre eigenen neuronalen Netze mit fischertechnik

fischertechnik setzt einen weiteren Meilenstein in der technischen Bildung. Mit dem neuen Lernkonzept STEM Coding Ultimate AI wird es erstmals möglich, ein neuronales Netzwerk selbst zu trainieren und dessen Funktionsweise von Grund auf zu verstehen. Damit vermittelt fischertechnik jungen Menschen die Programmier- und KI-Kompetenzen der Zukunft – direkt im Klassenzimmer und ohne Cloud-Anbindung.

Der Baukasten STEM Coding Ultimate AI richtet sich an weiterführende Schulen und vermittelt handlungsorientiert die Grundlagen von maschinellem Lernen und KI-gestützter Robotik. Anhand von zwölf vielseitigen, zum Teil erweiterbaren Modellen setzen sich Schülerinnen und Schüler der Sekundarstufe II mit zentralen Fragestellungen der Informationstechnik und der Künstlichen Intelligenz auseinander. Ausgehend von realitätsnahen Szenarien entwickeln sie eigenständig Lösungen für komplexe, problemorientierte Aufgabenstellungen. Ein leistungsstarker Controller, moderne Sensoren und Aktoren, eine benutzerfreundliche App sowie die bewährten fischertechnik Bausteine ermöglichen einen praxisnahen Zugang zu fortgeschrittenen Technologien.

Erste Trainingsschritte lassen sich unmittelbar grafisch darstellen, sodass Lernende den Fortschritt nachvollziehen können. Anschließend können die trainierten Daten per Bluetooth oder über einen WLAN- oder USB-Anschluss an Roboter übertragen werden, die das Gelernte in realen Anwendungen sichtbar machen – beispielsweise nach dem Prinzip eines autonomen Fahrzeugs. Damit wird abstraktes Wissen greifbar, und aus Theorie entsteht erlebbare Praxis.

Lehrkräfte erhalten über didaktisches Begleitmaterial einen leichten Einstieg ins Thema.

Besonders wertvoll ist dieser Ansatz, weil er die sogenannten Future Skills wie projektorientiertes Arbeiten und Teamfähigkeit fördert, die in einer zunehmend digitalisierten Arbeitswelt unverzichtbar sind. Der Umgang mit Künstlicher Intelligenz, das Verständnis neuronaler Netze und die Fähigkeit, Daten eigenständig zu erfassen, zu analysieren und nutzbar zu machen, gehören zu den Schlüsselkompetenzen der kommenden Generation. Schülerinnen und Schüler lernen nicht nur die technischen Grundlagen, sondern entwickeln auch ein tiefes Verständnis dafür, wie KI Entscheidungen trifft. Sie erwerben Grundkenntnisse der neuronalen Netze und KI-Programmierung – ein Wissen, das weit über den schulischen Kontext hinaus Bedeutung hat. Darüber hinaus bauen die Schülerinnen und Schüler ihre Kenntnisse in Informatik und Robotik aus und lernen, die Funktionsweise von Aktoren und Sensoren zu verstehen.

Die Integration von Robo Pro Coding und der fischertechnik STEM Suite ermöglicht einen sanften Einstieg mit Blockly-Programmierung und zugleich den direkten Einblick in professionelle Programmiersprachen wie Python. Der neue Baukasten arbeitet lokal auf dem TXT 4.0 Controller – ganz ohne Cloud. Damit steht Schulen ein zukunftssicheres Werkzeug zur Verfügung, das über Jahre hinweg eingesetzt werden kann.

„Gemäß unserem Motto: wo Neugier Wissen wird, schaffen wir mit unserem Lernkonzept STEM Coding Ultimate AI für Schülerinnen und Schüler die Möglichkeit, Künstliche Intelligenz nicht nur zu konsumieren, sondern aktiv zu gestalten und zu verstehen“, erklärt Martin Rogler, Geschäftsführer fischertechnik. „Denn wer frühzeitig die Grundlagen der KI erlernt, besitzt morgen einen entscheidenden Vorteil in Studium, Beruf und Gesellschaft.“

Das Jahr 2025 markiert zugleich ein besonderes Jubiläum: 60 Jahre fischertechnik. Seit sechs Jahrzehnten inspiriert das Unternehmen Generationen von Tüftlern, Ingenieurinnen und Forschern, Technik spielerisch zu entdecken und zu verstehen. Der neue STEM Coding Ultimate AI Baukasten knüpft als Nachfolger des TXT Base Sets an diese Tradition an und führt sie in die Zukunft – mit einer Innovation, die die Faszination klassischer Baukästen mit den Technologien von morgen verbindet. Im Sinne der Nachhaltigkeit ist STEM Coding Ultimate AI zudem weiterhin kompatibel mit allen verfügbaren TXT 4.0 Base Set Add-Ons für Omniwheels, Industrial Robots, AI, IoT, Competition und Autonomous Driving.

Mit diesem Schritt leistet fischertechnik einen entscheidenden Beitrag zur Förderung von Kreativität und Problemlösungskompetenz sowie für das Verständnis von Zukunftstechnologien. So entsteht ein Produkt, das nicht nur den aktuellen Bildungsbedarf deckt, sondern auch den Geist der Marke seit 60 Jahren weiterträgt: Technik zum Anfassen, Verstehen und Gestalten.

United Robotics Group präsentiert erstmals humanoiden Roboter uMe auf der CES 2026

Stuhr, 06.01.2026 – Die United Robotics Group (URG) präsentiert auf der CES 2026 erstmals ihren humanoiden Roboter uMe. Der technologische Prototyp ergänzt das bestehende Portfolio aus mobilen Service- und Gesundheitsrobotern und zeigt, wie humanoide Robotik sinnvoll in reale Arbeitsumgebungen integriert werden kann. uMe demonstriert auf der Messe erste Kernfunktionen wie sprachbasierte Interaktion, vorprogrammierte Bewegungsabläufe und sensorbasierte Wahrnehmung. Dazu gehören unter anderem hochauflösende Kameras, Tiefensensorik, ein Mikrofonarray sowie ein interaktives Display, über das Inhalte und Dialoge dargestellt werden können. uMe ist softwareseitig vollständig in die URG Plattform uGo+ integriert und wurde von Beginn an so konzipiert, dass er sich nahtlos in bestehende Datenflüsse, Geräteanbindungen und Workflows einfügt.

Humanoide Robotik für Bildung, Pflege und Forschung

Als humanoide Erweiterung des Portfolios adressiert uMe vor allem Umgebungen, in denen soziale Interaktion und Zugänglichkeit im Mittelpunkt stehen. Dazu gehören Bildungseinrichtungen, in denen uMe Lerninhalte unterstützt und technische Zusammenhänge erlebbar macht, sowie Pflegeumgebungen, in denen der Roboter Routinen begleitet und durch Gespräche, Aktivierung und Orientierung entlastende Unterstützung bietet. Auch Forschungsteams eröffnet uMe neue Möglichkeiten für die Entwicklung und Erprobung von Robotikfunktionen.

Wassim Saeidi, Gründer und CEO der United Robotics Group, erklärt: „uMe ist ein wichtiger Schritt in der Entwicklung unserer Plattform. Er macht deutlich, wie humanoide Robotik künftig einen Beitrag zu gesellschaftlichen Herausforderungen leisten kann. Entscheidend ist für uns nicht das Spektakuläre, sondern der praktische Nutzen. Wir zeigen, wie sich ein humanoides System in bestehende Prozesse integrieren lässt und echten Mehrwert für Pflegekräfte, Lehrende und Forschende schaffen kann.“

uGo+ als zentrale Software-Plattform zwischen Hardware und Anwendung

uMe ist vollständig in die Software-Plattform uGo+ integriert, die mobile und humanoide Robotersysteme über eine gemeinsame Architektur miteinander verbindet. uGo+ ist dabei bewusst als anwenderzentrierte Plattform konzipiert, die sich kontinuierlich weiterentwickelt und künftig einen klaren No-Code-Charakter erhalten soll. Ziel ist es, Nutzer:innen zu befähigen, Robotik-Workflows selbstständig, sicher und ohne Programmierkenntnisse zu konfigurieren und anzupassen. Die Weiterentwicklung von uGo+ ist – neben dem humanoiden Prototyp uMe – einer der zentralen Entwicklungsschwerpunkte der United Robotics Group, da hier die Brücke zwischen Hardware, konkreten Anwendungen und Alltagstauglichkeit entsteht. uMe ist zudem als offene, erweiterbare Plattform ausgelegt und bietet Partner:innen aus Industrie, Forschung und Bildung die Möglichkeit, eigene Module zu entwickeln, Funktionen zu testen und neue Szenarien zu pilotieren. So entsteht ein durchgängiges Zusammenspiel aus Software-Plattform und spezialisierten Robotersystemen, zu denen uLab Mobile, uServe, uLog und uClean bereits mehrere spezialisierte Serviceroboter für Labor-, Klinik- und Logistikumgebungen gehören. Gemeinsam bilden sie ein durchgängiges System, in dem mobile und humanoide Robotik über eine gemeinsame Infrastruktur zusammenwirken können.

Kunst oder KI: Wer ist der Künstler?

Aktionswochenende und Ausstellung mit Lena Reifenhäuser und Sebastian Trella im Deutschen Museum Bonn


 – 

 – 

Was macht Kunst aus? Wie kann man KI im Bereich der Kunst für sich nutzen? Und wer ist dann der Urheber des Werks? Diese Frage steht im Mittelpunkt eines besonderen Wochenendes im Deutschen Museum Bonn mit Künstlerin Lena Reifenhäuser und Robotik-Spezialist Sebastian Trella.

Künstliche Intelligenz gewinnt in fast jedem Beruf immer mehr an Bedeutung. Insbesondere in kreativen Berufsfeldern zeichnet sich ab, dass es nur eine Frage der Zeit ist, dass die Nutzung von KI-Tools unumgänglich wird. Wo führt die Reise hin? Ist mit KI bald jeder Mensch ein Künstler? Und was bedeutet dies für unser Verständnis von Kunst? 

Künstlerin Lena Reifenhäuser und Robotik-Enthusiast Sebastian Trella zeigen ein Wochenende lang in einem gemeinsamen Ausstellungsprojekt im Deutschen Museum Bonn, wie man KI-Anwendungen im Bereich der Kunst für sich nutzen kann und welche Möglichkeiten es dafür geben kann. Sie veranschaulichen, wie ausgehend vom Ursprungswerk eines Künstlers KI-generierte Kunst entsteht. Welche Schritte sind dafür nötig? Und wer ist am Ende eigentlich der Künstler, der Urheber des Werks, der die kreative Leistung erbracht hat? Handelt es sich um eine neue Art künstlerischer Zusammenarbeit?

»Eine Künstliche Intelligenz, also eine Maschine, arbeitet in Perfektion und wesentlich schneller als ein Mensch«, so Lena Reifenhäuser. »Aber sind es nicht genau unsere kleinen menschlichen ›Fehler‹ oder Abweichungen, die etwas überhaupt zu Kunst machen?«

Die Ausstellung regt Fragen wie diese an, indem sie Werke der Künstlerin auf überraschende Weise präsentiert, multimedial neu interpretiert und dadurch gleichzeitig weiterentwickelt – sowohl mit als auch ohne KI. Sebastian Trellas Expertise im Bereich der Robotik und KI erweckt Zeichnungen und Malereien beispielsweise als Videoinstallationen zum Leben und eine KI erweitert bestehende Werke der Künstlerin völlig frei. 
Im Zentrum dabei stets präsent: Die von Lena Reifenhäuser eigens für die Aktion mit einem 3D-Druckstift gefertigte Skulptur MANUEL(L) regt als manuell gefertigte Gegenüberstellung zur KI-Kunst zur Diskussion an.
Als Höhepunkt der Ausstellung wird ein völlig neues Werk, das von einer ausschließlich mit künstlerischen Arbeiten von Lena Reifenhäuser trainierten KI erstellt wurde, enthüllt und im Deutschen Museum Bonn an diesem Wochenende zum ersten Mal zu sehen sein. 

An interaktiven Stationen können die Museumsgäste nicht zuletzt ihre eigene Kreativität ausleben: Eine 3D-Druckstift-Station bietet beispielsweise Groß und Klein die Möglichkeit, eigene Skulpturen zu erschaffen. Zudem kann ein Roboter in künstlerischer Aktion an beiden Tagen live erlebt werden.

Über die Künstler

Lena Reifenhäuser wurde 1986 in Troisdorf geboren und lebt in Bonn. 2018 hat sie den Studiengang Bildende Kunst mit der Fachrichtung Malerei an der Alanus Hochschule für Kunst und Gesellschaft in Alfter bei Bonn, abgeschlossen. Seitdem arbeitet sie als freischaffende Künstlerin. Zahlreiche Projekte und Ausstellungen im In- und Ausland, darunter Krakau, Georgien und China, runden ihre künstlerische Tätigkeit ab. Seit 2019 hat Lena Reifenhäuser ein Atelier im Kunsthaus Troisdorf.

Linkslenareifenhaeuser.dewww.instagram.com/lena_reifenhaeuser

Sebastian Trella wurde 1986 geboren und lebt in Troisdorf. Von 2007-2014 war er im Bereich Educational Robotics am Fraunhofer IAIS tätig und sammelt seitdem in seiner Freizeit Roboter und testet neue Robotik-Produkte für diverse Unternehmen. Er arbeitet hauptberuflich als Informatiker und betrachtet künstliche Intelligenz als einen faszinierenden Weg, Roboter zum Leben zu erwecken. Seit 2010 teilt er sein Wissen über Roboter und KI auf seiner Webseite Robots-Blog.com.

Lena Reifenhäuser und Sebastian Trella unterstützen das Deutsche Museum Bonn als Mitglieder von WISSENschaf(f)t SPASS – Förderverein für Bildung und Innovation im Rheinland e.V. 

Open Source Humanoid pib in neuer Version veröffentlicht

3D-gedruckter Roboter wird einfacher, smarter und noch flexibler

Nürnberg, 11.11.2025 +++ Die vierte Version von pib (printable intelligent bot) ist ab sofort verfügbar. Der humanoide Open Source Roboter aus dem 3D-Drucker lässt sich von jedem selbst bauen, programmieren und mit KI erweitern. Alle 3D-Druckdaten und Anleitungen stehen auf der Projekt-Website zur freien Verfügung, Unterstützung und Austausch gibt es durch die mehr als 1.800 Community-Mitglieder. Das Projekt hat bereits mehrere renommierte Auszeichnungen gewonnen, darunter den German Design Award 2025 und den German Innovation Award 2025.

pib – der Roboter aus dem 3D-Drucker

Der humanoide Roboter pib wurde von der Nürnberger isento GmbH entwickelt und richtet sich an Technik-Enthusiasten, Bildungseinrichtungen sowie Maker-Communities. Mit einem handelsüblichen 3D-Drucker lassen sich sämtliche mechanischen Komponenten herstellen. Alle STL-Dateien, Materiallisten und detaillierten Bauanleitungen stehen frei zur Verfügung.

pib kombiniert eine modulare humanoide Struktur mit Servomotoren, Sensorik und offenen Software-Komponenten. Er kann gedruckt, zusammengebaut, programmiert und individuell erweitert werden. Als Open-Source-Projekt bietet pib einen einfachen Einstieg in Robotik und KI – frei von hohen Kosten und geschlossenen Systemen. Die internationale Community treibt die kontinuierliche Weiterentwicklung voran, sodass pib ideal für Maker, Forschung und Bildung ist. Das Ziel: Robotik und KI für alle zugänglich zu machen und die Einstiegshürden nachhaltig zu senken.

Vereinfachter Aufbau dank Community-Feedback

Die neue Version ist deutlich einfacher und flexibler aufgebaut. Die Kalibrierung der Motoren wurde erleichtert, der Zugang zur Elektronik und zum Power-Button komfortabler gestaltet. Viele dieser Verbesserungen gehen direkt auf das wertvolle Feedback der aktiven Community zurück.

Neue Technik und Funktionen

pib ist nun mit einem Mikrofon-Array ausgestattet, das nicht nur die Audioqualität verbessert, sondern auch die Richtung von Geräuschen erkennt. Neue Lautsprecher sorgen für natürlichere Interaktion und setzen mit blauer Beleuchtung ein Design-Highlight. Drei programmierbare RGB-Buttons am Oberkörper ermöglichen individuelle Steuerbefehle.

Offene Robotik für alle

„Mit pib verfolgen wir die Vision, Robotik für alle zugänglich zu machen. Das neue Release zeigt, wie Open Source Innovation vorantreibt: ein humanoider Roboter, den man selbst bauen, erweitern und verstehen kann. Besonders stolz sind wir darauf, dass viele Verbesserungen direkt aus dem wertvollen Feedback unserer Community entstanden sind“, sagt Dr. Jürgen Baier, Co-Founder und CEO von pib.rocks.

Von der Werkbank ins Klassenzimmer

pib richtet sich an Maker, Robotik-Interessierte und KI-Tüftler gleichermaßen. Darüber hinaus wird der Roboter bereits in mehr als 70 Schulen und Bildungseinrichtungen eingesetzt: als fächerübergreifende Lernplattform für Zukunftsthemen wie Robotik, 3D-Druck und künstliche Intelligenz.

Weitere Infos, Baupläne und Anleitungen: www.pib.rocks