Kosmos Bionic Robotic Arm im Test – Bionischer Roboterarm als Experimentier-Set

Der Kosmos Bionic Robotic Arm ist ein Experimentierbaukasten, der Elemente aus Bionik und Modellbau kombiniert. Das Set richtet sich an junge technikinteressierte Menschen ab etwa zehn Jahren und verbindet Lernerfahrung mit Bastelspaß.

Konzept und Funktionsweise

Im Mittelpunkt steht ein mechanischer Roboterarm, dessen Bewegungsprinzip am echten Elefantenrüssel orientiert ist. Statt Elektromotoren kommt ein ausgeklügeltes System aus Nylonfäden zum Einsatz. Diese wirken im Modell wie künstliche Muskeln und Sehnen. So gelingt es, den Arm in viele Richtungen zu bewegen; die Bewegungen erscheinen sehr flexibel und erinnern an Science-Fiction-Konstruktionen.

Gesteuert wird der Arm über zwei Joysticks. Der eine ist für den oberen, der andere für den unteren Bereich des Arms gedacht. Zusätzlich gibt es Tasten für die Rotation der Greifklaue und das Öffnen und Schließen derselben. Die Steuerung ist komplett mechanisch und benötigt weder Elektronik noch Batterien. Die Kraft wird allein per Hand auf die Bewegungselemente übertragen.

Aufbau und Schwierigkeitsgrad

Mit Bauteilen auf über 8 Teileträgern ist der Bausatz eine echte Herausforderung. Der Aufbau läuft in mehreren Phasen: Zuerst werden Kabelschnallen vorbereitet, dann die Joysticks zusammengesteckt, später der Arm zusammengesetzt und die Fäden eingefädelt sowie gespannt. Genau dieses Einstellen der Nylonfäden ist ein kritischer Punkt, weil dadurch die reibungslose Funktion sichergestellt wird.

Die Anleitung ist umfangreich und bebildert, sodass Schritt für Schritt der Bau nachvollzogen werden kann. Wer Schwierigkeiten beim Nachbauen hat, findet im Internet ergänzende Video-Anleitungen, die besonders bei komplizierten Schritten hilfreich sind. Für den gesamten Aufbau sollte man mehrere Stunden, teils auch mehrere Tage einplanen.

Vorteile des Sets

  • Der Kosmos Bionic Robotic Arm vermittelt wichtige Grundlagen in den Bereichen Bionik, Robotik und Mechanik. Während des Aufbaus lernt man, wie komplexe Bewegungssysteme funktionieren und entwickelt technisches Verständnis und Geschick.
  • Der seilzugbasierte Antrieb des Arms ist ziemlich einzigartig. Anders als motorisierte Modelle wirkt die Bewegung hier fast organisch.
  • Da das System ohne Elektronik und Batterien auskommt, verursacht es keine laufenden Kosten und ist weniger anfällig für technische Ausfälle.
  • Der Arm bietet dank verschiedener Aufsätze und hoher Beweglichkeit viel Vielfalt beim Spielen oder Experimentieren.

Nachteile und Herausforderungen

  • Mit beinahe 300 Teilen könnte das Set für Jüngere oder Ungeduldige schnell zu viel werden. Geduldige Bastler profitieren, aber wer rasche Erfolge sucht, könnte frustriert sein.
  • Für den Aufbau werden zusätzliche Werkzeuge benötigt, etwa Kreuzschlitz-Schraubendreher, Seitenschneider oder eine Feile, die nicht im Lieferumfang enthalten sind.
  • Wer beim Einstellen der Nylonfäden nicht genau aufpasst, dem könnte der Arm entweder zu wenig oder zu stark spannen. Das beeinflusst die Funktion und kann mehrere Justierversuche erfordern.
  • Im Unterschied zu elektronischen Roboterarmen kann der mechanische Arm nur leichtere Objekte greifen. Zu schwere Gegenstände können das System beschädigen oder verstellen.
  • Mit der Zeit könnten sich Fäden lockern, dehnen oder reißen. Dann ist Nachjustieren oder Austauschen notwendig.

Verarbeitung

Die Kunststoffteile des Sets sind passgenau gearbeitet und machen einen stabilen Eindruck. Die Gelenke und Zahnräder lassen sich leichtgängig bewegen. Langfristig könnte der Kunststoff aber bei intensiver Nutzung abnutzen oder ein Nylonfaden reißen. Bei der Vorstellung auf der Spielwarenmessen passierte leider genau das. Ich vermute aber, dass es dafür viele Stunden intensiver Belastung benötigt.

Preis-Leistungs-Verhältnis

Das Set wird im mittleren Preisbereich für Experimentierbaukästen angeboten. Interessanterweise wird es auch unter anderen Marken günstiger verkauft, da Kosmos eine Lizenzversion vertreibt, was manche Käufer zum Preisvergleich anregt.

Zielgruppe

Empfohlen wird das Set für Kinder ab etwa zehn Jahren, wobei jüngere Baufans durchaus Unterstützung gebrauchen können. Auch für Modellbau-Fans und Sammler ist das System durch seine mechanische Funktionsweise interessant.

Fazit

Der Kosmos Bionic Robotic Arm ist ein Experimentierbaukasten mit spannendem mechanischem Konzept. Sein bionisch inspiriertes Zugseilsystem hebt sich deutlich von anderen Roboterarmen ab und bietet wertvolle technische Einblicke.

Besonders zeichnet sich der Bausatz durch seinen Lerneffekt, die robuste Bauweise und die geschmeidigen Bewegungen des fertigen Arms aus. Die hohen Anforderungen an Präzision und Geduld beim Aufbau sind für viele Nutzer eine echte Herausfoderung, können aber gerade bei Kindern zu Frust führen.

Insgesamt handelt es sich um ein solides Lernspielzeug für Bastlerinnen und Bastler, das mit Herausforderungen, aber auch mit einem faszinierenden Arbeitsprinzip belohnt. Wer Freude an Technik, Robotern, Bionik und Mechanik hat, wird viel Spaß am Kosmos Bionic Robotic Arm haben.

M5Stack StackChan Review Video by Robots-Blog

‪M5Stack‬ Stackchan is now available at @Kickstarter
See my short review Video by ‪@RobotsBlog‬ and get your own Stackchan now!

https://www.kickstarter.com/projects/m5stack/stackchan-the-first-co-created-open-source-ai-desktop-robot?ref=4fblpr

#robot #ai #stackchan #opensource #desktop #desktoprobot #diy #companion

StackChan by M5Stack Now Available on Kickstarter

January, 2026 — M5Stack, a global leader in modular IoT and embedded development platforms, today launched StackChan, the first community-co-created open-source AI desktop robot, built on a proven ESP32 platform and designed to be endlessly hackable by makers worldwide.

Unlike closed, concept-driven AI robots, StackChan exposes its hardware, firmware, and interaction logic from day one — turning a playful desktop companion into a real development platform.

StackChan is now live on Kickstarter with a $65 Super Early Bird offer available for the first 72 hours.

From Community to the Globe: How StackChan Was Born 

Before its official launch by M5Stack, StackChan had already existed as a community-driven project since 2021. Built on M5Stack standard controller, Core series, it began as a personal open-source project by maker Shinya Ishikawa, sustained and shaped through ongoing community contributions. 

As more enthusiasts joined the project, contributors like Takao, who helped popularize the DIY kits, and Robo8080, who introduced AI capabilities, played key roles in expanding StackChan beyond its original form. 

Inspired by StackChan’s expandability and creative potential, M5Stack officially brought the project to life as its first ready-to-play yet endlessly hackable desktop robot—while keeping its community-driven spirit at the core. 

What Remains: Core Computing & Interaction Capabilities 

As with the original version, StackChan continues to use the M5Stack flagship Core Series (CoreS3) as its main controller. CoreS3 is powered by an ESP32-S3 SoC with a 240 MHz dual-core processor, 16 MB Flash, and 8 MB PSRAM, and supports both Wi-Fi and BLE connectivity. 

To enable richer interactions, the main unit integrates a 2.0-inch capacitive touch display, a 0.3 MP camera, a proximity sensor, a 9-axis IMU (accelerometer + gyroscope + magnetometer). It also includes a microSD card slot, a 1W speaker, dual microphones, and power/reset buttons. Together, these hardware components form a solid foundation for StackChan’s audio-visual interactive experiences. 

For more technical details, please refer to the StackChan documentation: https://docs.m5stack.com/en/StackChan 

What’s New: Ready-to-Play Functions Powered by Advanced Hardware  

For the robot body, several advancements have been made to make it easier to get hands-on and improve the out-of-box experience. It features: 

Power & connectivity: A USB-C interface for both power and data, paired with a built-in 700 mAh battery.  

Movement system: 2 feedback servos supporting 360° continuous rotation on the horizontal axis and 90° vertical tilt—enabling expressive movements with real-time position feedback. 

Visual feedback: 2 rows totaling 12 RGB LEDs for expressive system and interaction feedback. 

Sensors & interaction: Infrared transmission and reception, a three-zone touch panel, and a full-featured NFC module enabling touch- and identity-based interactions. 

On the software side, StackChan is ready-to-play for starters with no coding required. The pre-installed factory firmware delivers: 

Expressive faces and motions: Preloaded with vivid facial expressions and coordinated movements that bring personality and liveliness to StackChan. 

Built-in AI agent: Integrates an AI agent for natural voice-based interaction and conversational experiences. 

App-based remote interaction: Supports official iOS app for video calls, remote avatar control, and real-time interaction with StackChan. 

Chan-to-Chan Friends Map: Enables discovery of nearby StackChan devices, unlocking playful multi-device and social interaction scenarios. 

Open for customization: While beginner-friendly by default, the firmware supports further development via Arduino and UiFlow2, making it easy to create custom applications. 

100% Open-Source: Built to Be Customized and Extended 

In an era filled with closed, concept-driven “AI robot” products, StackChan stands out with its open-source core. From firmware and hardware interfaces to development tools, every layer is designed to be explored, modified, and extended by users. 

Beyond code, StackChan also encourages physical customization. With 3D printing and creative accessories, users can personalize their StackChan’s appearance and turn it into a unique desktop companion. 

Open-source repository: https://github.com/m5stack/StackChan 

 
Fun with Global Community: Share, Extend, and Evolve Together 

Since its birth, StackChan has grown into a vibrant global community of makers, developers, and enthusiasts. From sharing projects and source code online to hosting meetups and anniversary events offline, the community continues to expand what StackChan can be. 

Owning a StackChan is not just about building a robot—it’s about being part of an open ecosystem where ideas and creativity evolve together. 

StackChan is not built to its end at launch. It is built to grow—through open technology, creative experimentation, and a global community that continues to redefine what a desktop robot can be.  

Discover your StackChan on Kickstarter now: https://www.kickstarter.com/projects/m5stack/stackchan-the-first-co-created-open-source-ai-desktop-robot?ref=d5iznw&utm_source=PR 

Alex vom Make Magazin stellt MakeyLab Roboter Experimentierset im Robots-Blog Interview vor

https://www.heise.de/hintergrund/Makey-Lab-Der-leichte-IoT-Einstieg-fuer-junge-Maker-10498312.html

Schülerinnen und Schüler trainieren ihre eigenen neuronalen Netze mit fischertechnik

fischertechnik setzt einen weiteren Meilenstein in der technischen Bildung. Mit dem neuen Lernkonzept STEM Coding Ultimate AI wird es erstmals möglich, ein neuronales Netzwerk selbst zu trainieren und dessen Funktionsweise von Grund auf zu verstehen. Damit vermittelt fischertechnik jungen Menschen die Programmier- und KI-Kompetenzen der Zukunft – direkt im Klassenzimmer und ohne Cloud-Anbindung.

Der Baukasten STEM Coding Ultimate AI richtet sich an weiterführende Schulen und vermittelt handlungsorientiert die Grundlagen von maschinellem Lernen und KI-gestützter Robotik. Anhand von zwölf vielseitigen, zum Teil erweiterbaren Modellen setzen sich Schülerinnen und Schüler der Sekundarstufe II mit zentralen Fragestellungen der Informationstechnik und der Künstlichen Intelligenz auseinander. Ausgehend von realitätsnahen Szenarien entwickeln sie eigenständig Lösungen für komplexe, problemorientierte Aufgabenstellungen. Ein leistungsstarker Controller, moderne Sensoren und Aktoren, eine benutzerfreundliche App sowie die bewährten fischertechnik Bausteine ermöglichen einen praxisnahen Zugang zu fortgeschrittenen Technologien.

Erste Trainingsschritte lassen sich unmittelbar grafisch darstellen, sodass Lernende den Fortschritt nachvollziehen können. Anschließend können die trainierten Daten per Bluetooth oder über einen WLAN- oder USB-Anschluss an Roboter übertragen werden, die das Gelernte in realen Anwendungen sichtbar machen – beispielsweise nach dem Prinzip eines autonomen Fahrzeugs. Damit wird abstraktes Wissen greifbar, und aus Theorie entsteht erlebbare Praxis.

Lehrkräfte erhalten über didaktisches Begleitmaterial einen leichten Einstieg ins Thema.

Besonders wertvoll ist dieser Ansatz, weil er die sogenannten Future Skills wie projektorientiertes Arbeiten und Teamfähigkeit fördert, die in einer zunehmend digitalisierten Arbeitswelt unverzichtbar sind. Der Umgang mit Künstlicher Intelligenz, das Verständnis neuronaler Netze und die Fähigkeit, Daten eigenständig zu erfassen, zu analysieren und nutzbar zu machen, gehören zu den Schlüsselkompetenzen der kommenden Generation. Schülerinnen und Schüler lernen nicht nur die technischen Grundlagen, sondern entwickeln auch ein tiefes Verständnis dafür, wie KI Entscheidungen trifft. Sie erwerben Grundkenntnisse der neuronalen Netze und KI-Programmierung – ein Wissen, das weit über den schulischen Kontext hinaus Bedeutung hat. Darüber hinaus bauen die Schülerinnen und Schüler ihre Kenntnisse in Informatik und Robotik aus und lernen, die Funktionsweise von Aktoren und Sensoren zu verstehen.

Die Integration von Robo Pro Coding und der fischertechnik STEM Suite ermöglicht einen sanften Einstieg mit Blockly-Programmierung und zugleich den direkten Einblick in professionelle Programmiersprachen wie Python. Der neue Baukasten arbeitet lokal auf dem TXT 4.0 Controller – ganz ohne Cloud. Damit steht Schulen ein zukunftssicheres Werkzeug zur Verfügung, das über Jahre hinweg eingesetzt werden kann.

„Gemäß unserem Motto: wo Neugier Wissen wird, schaffen wir mit unserem Lernkonzept STEM Coding Ultimate AI für Schülerinnen und Schüler die Möglichkeit, Künstliche Intelligenz nicht nur zu konsumieren, sondern aktiv zu gestalten und zu verstehen“, erklärt Martin Rogler, Geschäftsführer fischertechnik. „Denn wer frühzeitig die Grundlagen der KI erlernt, besitzt morgen einen entscheidenden Vorteil in Studium, Beruf und Gesellschaft.“

Das Jahr 2025 markiert zugleich ein besonderes Jubiläum: 60 Jahre fischertechnik. Seit sechs Jahrzehnten inspiriert das Unternehmen Generationen von Tüftlern, Ingenieurinnen und Forschern, Technik spielerisch zu entdecken und zu verstehen. Der neue STEM Coding Ultimate AI Baukasten knüpft als Nachfolger des TXT Base Sets an diese Tradition an und führt sie in die Zukunft – mit einer Innovation, die die Faszination klassischer Baukästen mit den Technologien von morgen verbindet. Im Sinne der Nachhaltigkeit ist STEM Coding Ultimate AI zudem weiterhin kompatibel mit allen verfügbaren TXT 4.0 Base Set Add-Ons für Omniwheels, Industrial Robots, AI, IoT, Competition und Autonomous Driving.

Mit diesem Schritt leistet fischertechnik einen entscheidenden Beitrag zur Förderung von Kreativität und Problemlösungskompetenz sowie für das Verständnis von Zukunftstechnologien. So entsteht ein Produkt, das nicht nur den aktuellen Bildungsbedarf deckt, sondern auch den Geist der Marke seit 60 Jahren weiterträgt: Technik zum Anfassen, Verstehen und Gestalten.

United Robotics Group präsentiert erstmals humanoiden Roboter uMe auf der CES 2026

Stuhr, 06.01.2026 – Die United Robotics Group (URG) präsentiert auf der CES 2026 erstmals ihren humanoiden Roboter uMe. Der technologische Prototyp ergänzt das bestehende Portfolio aus mobilen Service- und Gesundheitsrobotern und zeigt, wie humanoide Robotik sinnvoll in reale Arbeitsumgebungen integriert werden kann. uMe demonstriert auf der Messe erste Kernfunktionen wie sprachbasierte Interaktion, vorprogrammierte Bewegungsabläufe und sensorbasierte Wahrnehmung. Dazu gehören unter anderem hochauflösende Kameras, Tiefensensorik, ein Mikrofonarray sowie ein interaktives Display, über das Inhalte und Dialoge dargestellt werden können. uMe ist softwareseitig vollständig in die URG Plattform uGo+ integriert und wurde von Beginn an so konzipiert, dass er sich nahtlos in bestehende Datenflüsse, Geräteanbindungen und Workflows einfügt.

Humanoide Robotik für Bildung, Pflege und Forschung

Als humanoide Erweiterung des Portfolios adressiert uMe vor allem Umgebungen, in denen soziale Interaktion und Zugänglichkeit im Mittelpunkt stehen. Dazu gehören Bildungseinrichtungen, in denen uMe Lerninhalte unterstützt und technische Zusammenhänge erlebbar macht, sowie Pflegeumgebungen, in denen der Roboter Routinen begleitet und durch Gespräche, Aktivierung und Orientierung entlastende Unterstützung bietet. Auch Forschungsteams eröffnet uMe neue Möglichkeiten für die Entwicklung und Erprobung von Robotikfunktionen.

Wassim Saeidi, Gründer und CEO der United Robotics Group, erklärt: „uMe ist ein wichtiger Schritt in der Entwicklung unserer Plattform. Er macht deutlich, wie humanoide Robotik künftig einen Beitrag zu gesellschaftlichen Herausforderungen leisten kann. Entscheidend ist für uns nicht das Spektakuläre, sondern der praktische Nutzen. Wir zeigen, wie sich ein humanoides System in bestehende Prozesse integrieren lässt und echten Mehrwert für Pflegekräfte, Lehrende und Forschende schaffen kann.“

uGo+ als zentrale Software-Plattform zwischen Hardware und Anwendung

uMe ist vollständig in die Software-Plattform uGo+ integriert, die mobile und humanoide Robotersysteme über eine gemeinsame Architektur miteinander verbindet. uGo+ ist dabei bewusst als anwenderzentrierte Plattform konzipiert, die sich kontinuierlich weiterentwickelt und künftig einen klaren No-Code-Charakter erhalten soll. Ziel ist es, Nutzer:innen zu befähigen, Robotik-Workflows selbstständig, sicher und ohne Programmierkenntnisse zu konfigurieren und anzupassen. Die Weiterentwicklung von uGo+ ist – neben dem humanoiden Prototyp uMe – einer der zentralen Entwicklungsschwerpunkte der United Robotics Group, da hier die Brücke zwischen Hardware, konkreten Anwendungen und Alltagstauglichkeit entsteht. uMe ist zudem als offene, erweiterbare Plattform ausgelegt und bietet Partner:innen aus Industrie, Forschung und Bildung die Möglichkeit, eigene Module zu entwickeln, Funktionen zu testen und neue Szenarien zu pilotieren. So entsteht ein durchgängiges Zusammenspiel aus Software-Plattform und spezialisierten Robotersystemen, zu denen uLab Mobile, uServe, uLog und uClean bereits mehrere spezialisierte Serviceroboter für Labor-, Klinik- und Logistikumgebungen gehören. Gemeinsam bilden sie ein durchgängiges System, in dem mobile und humanoide Robotik über eine gemeinsame Infrastruktur zusammenwirken können.

Maxtronics erweckt NAO neu zum Leben – Ikone der humanoiden Robotik kehrt mit neuem Vertriebspartner zurück

Maxtronics kündigt die Rückkehr des humanoiden Roboters NAO an und stellt damit die kontinuierliche Verfügbarkeit einer der wichtigsten Bildungs‑ und Forschungsplattformen im Bereich humanoider Robotik im deutschsprachigen Raum sicher. Mit der Übernahme von Vertrieb, Service und Schulungsangeboten erhalten Bildungseinrichtungen, Hochschulen, Forschungslabore und Einrichtungen im Gesundheitswesen wieder einen verlässlichen Ansprechpartner rund um NAO.

Geschichte des NAO

NAO wurde Mitte der 2000er‑Jahre vom französischen Robotikunternehmen Aldebaran Robotics entwickelt und 2006 erstmals der Öffentlichkeit vorgestellt. 2007 wurde NAO zur offiziellen Standardplattform des RoboCup und entwickelte sich in den folgenden Jahren mit mehreren Generationen (unter anderem NAO Next Gen, NAO Evolution und NAO V6) zu einem der bekanntesten humanoiden Roboter für Bildungs‑ und Forschungszwecke weltweit.

Mit der Übernahme von Aldebaran durch die japanische SoftBank Group wurde NAO Teil von SoftBank Robotics und international weiter ausgerollt. Später ging das europäische Robotikgeschäft mit NAO und dem Schwesterroboter Pepper schrittweise an die deutsche United Robotics Group über, die Aldebaran wieder als Marke positionierte und NAO vor allem als Service‑ und Bildungsroboter in Europa einsetzte.

Warum der Vertriebswechsel stattfand

Im Zuge strategischer Neuausrichtungen reduzierten frühere Eigentümer ihr Engagement im Bereich humanoider Robotik, stellten Produktionen teilweise ein und fokussierten sich stärker auf andere Geschäftsfelder. Dies führte dazu, dass der Marktauftritt von NAO geschwächt wurde und für viele Anwender Unsicherheit hinsichtlich Verfügbarkeit, Ersatzteilen und technischem Support entstand.

Gerade Bildungseinrichtungen und Forschungslabore sind jedoch auf eine langfristig verfügbare und betreute Plattform angewiesen. Durch die entstandene Lücke in Vertrieb und Service fehlte vielerorts ein zentraler, verlässlicher Ansprechpartner. Maxtronics setzt genau hier an, übernimmt den strukturierten Vertrieb von NAO im deutschsprachigen Raum und stellt mit klar definierten Service‑, Wartungs‑ und Schulungsleistungen die nachhaltige Nutzung der Plattform sicher.

NAO heute: Profil und Einsatzfelder

NAO ist ein interaktiver, autonomer und vollständig programmierbarer humanoider Roboter mit menschenähnlicher Gestalt, vielfältiger Sensorik, Kameras, Mikrofonen und zahlreichen Freiheitsgraden. Die Plattform ermöglicht realistische Mensch‑Roboter‑Interaktionen und wird weltweit zur Vermittlung von Programmierung, Robotik, Künstlicher Intelligenz und sozialer Interaktion eingesetzt – von Schulen und Hochschulen über Labore bis hin zu therapeutischen und pflegerischen Einrichtungen.

Durch die lange Marktpräsenz von NAO existiert ein breites Ökosystem aus Software‑Bibliotheken, Lehrmaterialien, Forschungsprojekten und Best‑Practice‑Szenarien. Maxtronics knüpft an dieses Ökosystem an und unterstützt Anwender dabei, bestehende Installationen weiterzuführen und neue Projekte aufzubauen, ohne die Plattform wechseln zu müssen.

Rolle und Leistungen von Maxtronics

Im Rahmen des „Comeback“ von NAO übernimmt Maxtronics im deutschsprachigen Raum:

  • Beratung, Konfiguration und Lieferung neuer NAO‑Systeme für Bildung, Forschung und Therapie.
  • Technischen Support, Wartung, Fehlerdiagnose, Ersatzteilversorgung und Reparaturkoordination für bestehende NAO‑Flotten.
  • Schulungen, Workshops und didaktische Begleitung für Lehrkräfte, Forschende und therapeutische Fachkräfte, um NAO sinnvoll in Unterricht, Forschung und Praxis zu integrieren.

Damit schafft Maxtronics neue Planungssicherheit für alle, die NAO bereits einsetzen oder künftig nutzen möchten, und stärkt die Rolle von NAO als stabile, zukunftsfähige Plattform in der humanoiden Bildungs‑ und Servicerobotik.

Unternehmensprofil

„Mit der Wiederbelebung von NAO geben wir Schulen, Hochschulen, Forschungseinrichtungen und Therapiepartnern die Sicherheit zurück, auf eine etablierte humanoide Plattform setzen zu können – heute und in Zukunft“, erklärt ein Sprecher von Maxtronics. NAO soll als Schlüsseltechnologie dienen, um Robotik‑ und KI‑Kompetenzen praxisnah aufzubauen und gleichzeitig innovative Anwendungen in Inklusion, Assistenz und Therapie zu ermöglichen.

Über Maxtronics
Maxtronics ist ein auf humanoide und edukative Robotik spezialisierter Anbieter. Das Unternehmen vertreibt den humanoiden Roboter NAO für professionelle Anwender in Bildung, Forschung und Gesundheitswesen und bündelt langjährige Erfahrung in Robotik‑Integration, Schulung und Service. Ziel von Maxtronics ist es, Anwendern eine stabile, verlässliche und langfristig verfügbare Plattform für anspruchsvolle humanoide Robotikprojekte zu bieten.

Kunst oder KI: Wer ist der Künstler?

Aktionswochenende und Ausstellung mit Lena Reifenhäuser und Sebastian Trella im Deutschen Museum Bonn


 – 

 – 

Was macht Kunst aus? Wie kann man KI im Bereich der Kunst für sich nutzen? Und wer ist dann der Urheber des Werks? Diese Frage steht im Mittelpunkt eines besonderen Wochenendes im Deutschen Museum Bonn mit Künstlerin Lena Reifenhäuser und Robotik-Spezialist Sebastian Trella.

Künstliche Intelligenz gewinnt in fast jedem Beruf immer mehr an Bedeutung. Insbesondere in kreativen Berufsfeldern zeichnet sich ab, dass es nur eine Frage der Zeit ist, dass die Nutzung von KI-Tools unumgänglich wird. Wo führt die Reise hin? Ist mit KI bald jeder Mensch ein Künstler? Und was bedeutet dies für unser Verständnis von Kunst? 

Künstlerin Lena Reifenhäuser und Robotik-Enthusiast Sebastian Trella zeigen ein Wochenende lang in einem gemeinsamen Ausstellungsprojekt im Deutschen Museum Bonn, wie man KI-Anwendungen im Bereich der Kunst für sich nutzen kann und welche Möglichkeiten es dafür geben kann. Sie veranschaulichen, wie ausgehend vom Ursprungswerk eines Künstlers KI-generierte Kunst entsteht. Welche Schritte sind dafür nötig? Und wer ist am Ende eigentlich der Künstler, der Urheber des Werks, der die kreative Leistung erbracht hat? Handelt es sich um eine neue Art künstlerischer Zusammenarbeit?

»Eine Künstliche Intelligenz, also eine Maschine, arbeitet in Perfektion und wesentlich schneller als ein Mensch«, so Lena Reifenhäuser. »Aber sind es nicht genau unsere kleinen menschlichen ›Fehler‹ oder Abweichungen, die etwas überhaupt zu Kunst machen?«

Die Ausstellung regt Fragen wie diese an, indem sie Werke der Künstlerin auf überraschende Weise präsentiert, multimedial neu interpretiert und dadurch gleichzeitig weiterentwickelt – sowohl mit als auch ohne KI. Sebastian Trellas Expertise im Bereich der Robotik und KI erweckt Zeichnungen und Malereien beispielsweise als Videoinstallationen zum Leben und eine KI erweitert bestehende Werke der Künstlerin völlig frei. 
Im Zentrum dabei stets präsent: Die von Lena Reifenhäuser eigens für die Aktion mit einem 3D-Druckstift gefertigte Skulptur MANUEL(L) regt als manuell gefertigte Gegenüberstellung zur KI-Kunst zur Diskussion an.
Als Höhepunkt der Ausstellung wird ein völlig neues Werk, das von einer ausschließlich mit künstlerischen Arbeiten von Lena Reifenhäuser trainierten KI erstellt wurde, enthüllt und im Deutschen Museum Bonn an diesem Wochenende zum ersten Mal zu sehen sein. 

An interaktiven Stationen können die Museumsgäste nicht zuletzt ihre eigene Kreativität ausleben: Eine 3D-Druckstift-Station bietet beispielsweise Groß und Klein die Möglichkeit, eigene Skulpturen zu erschaffen. Zudem kann ein Roboter in künstlerischer Aktion an beiden Tagen live erlebt werden.

Über die Künstler

Lena Reifenhäuser wurde 1986 in Troisdorf geboren und lebt in Bonn. 2018 hat sie den Studiengang Bildende Kunst mit der Fachrichtung Malerei an der Alanus Hochschule für Kunst und Gesellschaft in Alfter bei Bonn, abgeschlossen. Seitdem arbeitet sie als freischaffende Künstlerin. Zahlreiche Projekte und Ausstellungen im In- und Ausland, darunter Krakau, Georgien und China, runden ihre künstlerische Tätigkeit ab. Seit 2019 hat Lena Reifenhäuser ein Atelier im Kunsthaus Troisdorf.

Linkslenareifenhaeuser.dewww.instagram.com/lena_reifenhaeuser

Sebastian Trella wurde 1986 geboren und lebt in Troisdorf. Von 2007-2014 war er im Bereich Educational Robotics am Fraunhofer IAIS tätig und sammelt seitdem in seiner Freizeit Roboter und testet neue Robotik-Produkte für diverse Unternehmen. Er arbeitet hauptberuflich als Informatiker und betrachtet künstliche Intelligenz als einen faszinierenden Weg, Roboter zum Leben zu erwecken. Seit 2010 teilt er sein Wissen über Roboter und KI auf seiner Webseite Robots-Blog.com.

Lena Reifenhäuser und Sebastian Trella unterstützen das Deutsche Museum Bonn als Mitglieder von WISSENschaf(f)t SPASS – Förderverein für Bildung und Innovation im Rheinland e.V. 

Open Source Humanoid pib in neuer Version veröffentlicht

3D-gedruckter Roboter wird einfacher, smarter und noch flexibler

Nürnberg, 11.11.2025 +++ Die vierte Version von pib (printable intelligent bot) ist ab sofort verfügbar. Der humanoide Open Source Roboter aus dem 3D-Drucker lässt sich von jedem selbst bauen, programmieren und mit KI erweitern. Alle 3D-Druckdaten und Anleitungen stehen auf der Projekt-Website zur freien Verfügung, Unterstützung und Austausch gibt es durch die mehr als 1.800 Community-Mitglieder. Das Projekt hat bereits mehrere renommierte Auszeichnungen gewonnen, darunter den German Design Award 2025 und den German Innovation Award 2025.

pib – der Roboter aus dem 3D-Drucker

Der humanoide Roboter pib wurde von der Nürnberger isento GmbH entwickelt und richtet sich an Technik-Enthusiasten, Bildungseinrichtungen sowie Maker-Communities. Mit einem handelsüblichen 3D-Drucker lassen sich sämtliche mechanischen Komponenten herstellen. Alle STL-Dateien, Materiallisten und detaillierten Bauanleitungen stehen frei zur Verfügung.

pib kombiniert eine modulare humanoide Struktur mit Servomotoren, Sensorik und offenen Software-Komponenten. Er kann gedruckt, zusammengebaut, programmiert und individuell erweitert werden. Als Open-Source-Projekt bietet pib einen einfachen Einstieg in Robotik und KI – frei von hohen Kosten und geschlossenen Systemen. Die internationale Community treibt die kontinuierliche Weiterentwicklung voran, sodass pib ideal für Maker, Forschung und Bildung ist. Das Ziel: Robotik und KI für alle zugänglich zu machen und die Einstiegshürden nachhaltig zu senken.

Vereinfachter Aufbau dank Community-Feedback

Die neue Version ist deutlich einfacher und flexibler aufgebaut. Die Kalibrierung der Motoren wurde erleichtert, der Zugang zur Elektronik und zum Power-Button komfortabler gestaltet. Viele dieser Verbesserungen gehen direkt auf das wertvolle Feedback der aktiven Community zurück.

Neue Technik und Funktionen

pib ist nun mit einem Mikrofon-Array ausgestattet, das nicht nur die Audioqualität verbessert, sondern auch die Richtung von Geräuschen erkennt. Neue Lautsprecher sorgen für natürlichere Interaktion und setzen mit blauer Beleuchtung ein Design-Highlight. Drei programmierbare RGB-Buttons am Oberkörper ermöglichen individuelle Steuerbefehle.

Offene Robotik für alle

„Mit pib verfolgen wir die Vision, Robotik für alle zugänglich zu machen. Das neue Release zeigt, wie Open Source Innovation vorantreibt: ein humanoider Roboter, den man selbst bauen, erweitern und verstehen kann. Besonders stolz sind wir darauf, dass viele Verbesserungen direkt aus dem wertvollen Feedback unserer Community entstanden sind“, sagt Dr. Jürgen Baier, Co-Founder und CEO von pib.rocks.

Von der Werkbank ins Klassenzimmer

pib richtet sich an Maker, Robotik-Interessierte und KI-Tüftler gleichermaßen. Darüber hinaus wird der Roboter bereits in mehr als 70 Schulen und Bildungseinrichtungen eingesetzt: als fächerübergreifende Lernplattform für Zukunftsthemen wie Robotik, 3D-Druck und künstliche Intelligenz.

Weitere Infos, Baupläne und Anleitungen: www.pib.rocks

Open Source Humanoid Robot pib Released in New Version

3D-printed robot becomes simpler, smarter, and even more flexible

Nuremberg, November 11, 2025 +++ The fourth version of pib (printable intelligent bot) is now available. The humanoid open-source robot can be 3D-printed, built, programmed, and enhanced with AI by anyone. All 3D printing files and assembly instructions are freely available on the project website, with support and exchange provided by a community of more than 1,800 members. The project has already received several prestigious awards, including the German Design Award 2025 and the German Innovation Award 2025.

pib – the robot from the 3D printer

The humanoid robot pib was developed by isento GmbH in Nuremberg and is aimed at tech enthusiasts, educational institutions, and maker communities. Using a standard 3D printer, all mechanical components can be produced. All STL files, material lists, and detailed assembly guides are freely available.

pib combines a modular humanoid structure with servo motors, sensors, and open software components. It can be printed, assembled, programmed, and customized. As an open-source project, pib offers an accessible entry point into robotics and AI—free from high costs and proprietary systems. The international community continuously drives its development forward, making pib ideal for makers, research, and education. The goal: to make robotics and AI accessible to everyone and to lower entry barriers sustainably.

Simplified design thanks to community feedback

The new version features a significantly simpler and more flexible design. Motor calibration has been made easier, and access to the electronics and power button is now more convenient. Many of these improvements are direct results of valuable feedback from the active community.

New technology and features

pib now includes a microphone array that not only improves audio quality but also detects the direction of sound. New speakers provide a more natural interaction experience and feature blue accent lighting as a design highlight. Three programmable RGB buttons on the torso allow for customizable control commands.

Open robotics for everyone

“With pib, we pursue the vision of making robotics accessible to everyone. The new release demonstrates how open source drives innovation: a humanoid robot that anyone can build, extend, and understand. We’re especially proud that many improvements came directly from our community’s valuable feedback,” says Dr. Jürgen Baier, Co-Founder and CEO of pib.rocks.

From the workbench to the classroom

pib appeals equally to makers, robotics enthusiasts, and AI tinkerers. Beyond that, the robot is already being used in more than 70 schools and educational institutions—as a cross-disciplinary learning platform for future-focused topics such as robotics, 3D printing, and artificial intelligence.

More information, building plans, and guides: www.pib.rocks