Ein Roboter im MRT: neue Hilfe bei Gehirnoperationen

Stell dir vor, du liegst in einem riesigen Scanner, der dein Gehirn fotografiert – und gleichzeitig hilft ein Roboter einem Arzt dabei, eine Operation durchzuführen. Was nach Science-Fiction klingt, wird jetzt Realität. Forschende haben ein vollständig robotisches System entwickelt, das direkt in einem MRT-Scanner arbeiten kann. Diese neue Technologie könnte Operationen am Gehirn in Zukunft deutlich präziser und sicherer machen.

Warum ein MRT bei Operationen so hilfreich ist

Ein MRT (Magnetresonanztomograph) ist eine Maschine, die extrem detaillierte Bilder vom Inneren des Körpers erzeugt. Besonders beim Gehirn sind diese Bilder für Ärzte unglaublich wertvoll. Man kann sich das MRT wie eine Art Superkamera für den Körper vorstellen. Sie zeigt zum Beispiel, wo sich ein Tumor befindet, wie Blutgefäße verlaufen oder welche Bereiche des Gehirns für Sprache und Bewegung verantwortlich sind.

Während einer Operation wäre es natürlich ideal, solche Bilder ständig sehen zu können. Genau hier liegt aber das Problem: Ein MRT arbeitet mit sehr starken Magnetfeldern. Viele chirurgische Instrumente oder Roboter enthalten Metall und können deshalb im Scanner nicht eingesetzt werden. Sie würden vom Magnetfeld gestört oder sogar gefährlich angezogen werden.

________________________________________

Ein Roboter, der im Magnetfeld arbeiten kann

Genau deshalb ist die neue Entwicklung so spannend. Ein Forschungsteam hat einen Operationsroboter gebaut, der speziell dafür entwickelt wurde, im starken Magnetfeld eines MRT zu funktionieren.

Damit das möglich ist, mussten die Ingenieure viele technische Probleme lösen. Der Roboter besteht aus besonderen Materialien, die nicht magnetisch sind. Außerdem nutzt er spezielle Antriebstechniken, die im Scanner keine Störungen verursachen.

Der große Vorteil dieser Technik ist, dass das MRT während der Operation ständig neue Bilder liefern kann. Der Chirurg sieht also in Echtzeit, wo sich seine Instrumente befinden und wie nah sie an empfindlichen Hirnregionen sind. Dadurch kann er viel genauer arbeiten.

________________________________________

Millimeterarbeit im Gehirn

Operationen am Gehirn gehören zu den schwierigsten Eingriffen in der Medizin. Oft entscheiden schon wenige Millimeter darüber, ob wichtige Funktionen erhalten bleiben. Ein minimaler Fehler könnte zum Beispiel Bereiche betreffen, die für Sprache, Bewegung oder Gedächtnis verantwortlich sind.

Hier kann ein Roboter eine enorme Hilfe sein. Seine Bewegungen sind extrem ruhig und präzise. Während ein Mensch durch kleine Muskelbewegungen immer ein wenig zittert, kann der Roboter Instrumente mit sehr hoher Genauigkeit führen. So lassen sich beispielsweise feine Nadeln exakt platzieren, Gewebeproben entnehmen oder Medikamente direkt an eine bestimmte Stelle im Gehirn bringen.

Wichtig ist dabei: Der Roboter ersetzt den Arzt nicht. Der Chirurg steuert das System und entscheidet jeden einzelnen Schritt. Der Roboter ist also eher wie eine hochpräzise Werkzeugverlängerung der menschlichen Hand.

________________________________________

Neue Chancen für die Medizin

Die Kombination aus Robotik und MRT-Bildgebung eröffnet ganz neue Möglichkeiten. Besonders bei Krankheiten wie Hirntumoren, Parkinson oder Epilepsie könnte diese Technologie helfen. Bei einigen Therapien müssen Elektroden oder Medikamente an ganz bestimmten Stellen im Gehirn platziert werden. Mit Hilfe eines Roboters und gleichzeitig laufenden MRT-Bildern könnte das deutlich genauer gelingen als bisher.

Auch zukünftige Entwicklungen sind spannend. Forschende arbeiten bereits daran, solche Systeme mit künstlicher Intelligenz zu verbinden. Dann könnten Computerprogramme während der Operation zusätzliche Informationen liefern oder den Ärzten bei schwierigen Entscheidungen helfen.

________________________________________

Fazit

Der neue MRT-kompatible Operationsroboter zeigt eindrucksvoll, wie Robotik die Medizin verändert. Durch die Kombination aus hochauflösender Bildgebung und präziser Technik können Ärzte während einer Operation genau sehen, was im Gehirn passiert. Das macht Eingriffe sicherer und eröffnet völlig neue Behandlungsmöglichkeiten.

Vielleicht werden in Zukunft in vielen Operationssälen Ärzte und Roboter Seite an Seite arbeiten, um Menschen noch besser zu helfen.

________________________________________

FuxFun 🦊

Wusstest du, dass …

die Magnete in einem MRT etwa 10.000-mal stärker als das Magnetfeld der Erde sein können? Deshalb müssen sogar einfache Gegenstände wie Scheren oder Sauerstoffflaschen speziell für MRT-Räume geprüft sein.

________________________________________

Für Profis

Wer tiefer in das Thema einsteigen möchte, kann sich mit folgenden Bereichen beschäftigen:

•             MRT-kompatible Robotik

•             bildgeführte Neurochirurgie

•             minimalinvasive robotische Operationen

________________________________________

Quellen

Radiology Business

„Experts develop first-of-its-kind fully robotic MRI-compatible system for neurosurgery“

https://radiologybusiness.com/topics/medical-imaging/magnetic-resonance-imaging-mri/experts-develop-first-its-kind-fully-robotic-mri-compatible-system-neurosurgery

Ausgezeichneter Robotik-Baukasten: Beckhoff ATRO erhält den Innovation Award 2026

ATRO ist mit dem Innovation Award 2026 ausgezeichnet worden. Der modulare Industrieroboter-Baukasten von Beckhoff überzeugte die Jury durch freie Skalierbarkeit, innenliegende Medienführung sowie vollständige Integration in die PC-basierte Steuerungstechnik. Damit erhalten Anwender eine hochflexible Roboterlösung, die sich exakt an den jeweiligen Prozess anpasst und den Engineering-Aufwand drastisch reduziert.

Der in diesem Jahr erstmalig verliehene Innovation Award würdigt herausragende technologische Entwicklungen in der Robotik. Die Bewertung der Einreichungen erfolgte durch eine unabhängige Expertenjury aus Forschung und Industrie, die besonderes Augenmerk auf den unmittelbaren Anwendernutzen und die Innovationskraft der Lösungen legte. Produktmanager Uwe Bonin nahm die Auszeichnung im Rahmen der Fachmesse all about automation in Friedrichshafen von Frauke Itzerott, Chefredakteurin des Fachmagazins Robotik und Produktion, entgegen. „Die Auszeichnung bestätigt, dass wir mit ATRO den richtigen Weg eingeschlagen haben“, ordnet Uwe Bonin den Erfolg ein. Der Innovation Award unterstreicht den Anspruch von Beckhoff, maschinenintegrierte Robotik neu zu definieren und etablierte Systemgrenzen aufzulösen.

Der Industrieroboter-Baukasten ATRO (Automation Technology for Robotics) eliminiert die Überdimensionierung von Roboterlösungen: Anwender erhalten eine exakt zu ihrem spezifischen Prozess passende Kinematik – vom kompakten Vierachs-Palettierer bis zur hochkomplexen Mehrarm-Applikation. Die Modularität ermöglicht eine signifikante Reduktion der Lagerhaltung und eine Wiederverwendbarkeit der Komponenten. Die vollständige Innenverlegung sämtlicher Medien – Strom, Daten und Fluide – verhindert Störkonturen und ermöglicht eine endlose Drehbarkeit aller Achsen.

Der entscheidende Effizienzgewinn manifestiert sich auf der Steuerungsebene. Traditionell entfallen bis zu 80 Prozent des Programmieraufwands in der Robotik auf die Koordination zwischen Roboter-Controllern, SPSen sowie Vision- und Safety-Systemen. Anders bei ATRO: Durch die konsequente Integration in TwinCAT und EtherCAT verschmilzt die Roboterkinematik zu einem regulären Teil der Maschine. Jedes konfigurierte System erkennt die verbauten Module automatisch und ist ohne langwierige Parametrierung unmittelbar einsatzbereit. Mit ATRO bietet Beckhoff dem Maschinen- und Anlagenbau ein zukunftssicheres Ökosystem, das höchste Leistungsdichte mit minimalem Engineering-Aufwand verbindet und völlig neue Maschinenkonzepte ermöglicht.

Vention führt GRIIP ein: Eine generalisierte Physical-AI-Pipeline für die Fertigungsautomatisierung

MONTREAL, 10. Februar 2026 /PRNewswire/ — Vention, das Unternehmen hinter der KI-gestützten Software- und Hardwareplattform für Automatisierung und Robotik, gab heute die Einführung von GRIIP (Generalized Robotic Industrial Intelligence Pipeline) bekannt. Dabei handelt es sich um eine End-to-End-Pipeline für physische KI, die den Einsatz autonomer Roboterzellen in hochgradig unstrukturierten Fertigungsumgebungen ermöglicht. GRIIP markiert einen fundamentalen Wandel von der aufgabenspezifischen Robotik hin zu einer generalisierten Intelligenz, die anwendungsübergreifend skalierbar ist.

Die GRIIP-Pipeline: End-to-End-Intelligenz

GRIIP liefert eine einheitliche Pipeline von der Wahrnehmung bis zur Bewegung, indem sie Ventions proprietäre Modelle mit offenen NVIDIA Isaac-Modellen integriert – insbesondere NVIDIA FoundationStereo für das Stereo-Matching und NVIDIA FoundationPose für die Lageerkennung. Die Pipeline übernimmt automatisch die Szenendigitalisierung und Kalibrierung, Objekterkennung und -segmentierung, 6DOF-Pose-Estimation, Greifpunktbewertung sowie die kollisionsfreie Pfadplanung und passt sich ohne manuelle Konfiguration an die realen Bedingungen an.

Die Architektur entwickelt sich durch die Nutzung neuester Physical-AI-Modelle kontinuierlich weiter und verbessert die Leistung im Laufe der Zeit ohne Hardware-Upgrades oder manuelle Eingriffe. Software-Updates werden über MachineMotion AI durchgeführt, wahlweise via WLAN oder integrierter LTE-Konnektivität.

Produktionsbereite Leistung und bewährte Zuverlässigkeit

GRIIP liefert industrietaugliche Ergebnisse mit validierter Performance:

  • Konsistent zuverlässige Pick-Leistung im 24/7-Betrieb über drei Monate hinweg.
  • Zykluszeiten von bis zu fünf Teilen pro Minute werden ohne Leistungsabfall eingehalten.
  • Sub-Millimeter-Genauigkeit bei der Lageerkennung (Pose Estimation).
  • CAD-to-Pick-Setup in 15 Minuten, vollständige Implementierung in unter zwei Tagen.
  • Adaptive Performance über verschiedene Bauteilgeometrien und Materialeigenschaften hinweg, einschließlich Oberflächenbeschaffenheit, Transparenz und Umgebungsvariationen.
  • Im Gegensatz zu Physical-AI-Modellen früherer Generationen behält GRIIP die Spitzenleistung während des gesamten Betriebs bei.
  • Die KI-Pipeline ist sofort einsatzbereit ohne Trainingsdaten oder benutzerdefinierte Datensätze, sodass Hersteller direkt neue Roboterzellen implementieren und neue Teile ohne Programmierung hinzufügen können.

Automatisierung über Einzelaufgaben hinaus skalieren

GRIIP nutzt dieselbe Technologie für mehrere Aufgaben und Anwendungsfälle innerhalb einer Fabrik, darunter Bin-Picking, Maschinenbeschickung, Pick-and-Place am Förderband, Kitting, Palettierung und Schleifen. GRIIP läuft auf dem MachineMotion AI-Controller von Vention (powered by NVIDIA Jetson) und kann bestehende, traditionell programmierte Robotik-Anwendungen in autonome Abläufe umwandeln. Dies ermöglicht eine schnellere Projektabwicklung, einen höheren ROI und einen klaren Upgrade-Pfad für die Automatisierungsinfrastruktur.

Verfügbarkeit und Unternehmenseinsatz

Vention skaliert derzeit sein Demonstrationsprogramm  für Kunden und arbeitet mit Unternehmenskunden zusammen, welche die Technologie für den Einsatz im Jahr 2026 evaluieren. Für technische Informationen oder um eine Demonstration zu vereinbaren, besuchen Sie https://vention.io/de/physical-ai-pipeline.

Der Wing-Glider von Ocean Quest: Ein Roboter gegen Plastik im Meer

Plastik im Meer ist ein Problem, das man oft gar nicht sieht. Viel Müll schwimmt unter der Oberfläche oder liegt tief auf dem Meeresboden. Menschen können dort kaum arbeiten – aber Roboter schon!
Bei Ocean Quest International spielt dabei ein besonderes Konzept eine wichtige Rolle: der Wing-Glider. Er ist kein Spielzeug, sondern ein schlauer Unterwasserroboter, der hilft, Plastik im Meer aufzuspüren und besser zu verstehen.

Quelle: https://www.ocean-robotics.ai/kopie-von-drones

🤔 Warum braucht man Roboter gegen Plastik?

Jedes Jahr gelangen Millionen Tonnen Plastik ins Meer. Dort zerfällt es langsam zu Mikroplastik, das Fische und andere Meerestiere aufnehmen. Das Problem dabei:

  • Der Müll liegt oft sehr tief
  • Große Flächen sind für Menschen unerreichbar
  • Tauchen ist gefährlich und zeitlich begrenzt

Hier kommt moderne Robotik ins Spiel.


🤖 Was genau ist der „Wing-Glider“?

Der Wing-Glider ist ein autonomer Unterwasserroboter, also ein Roboter, der selbstständig durch das Meer gleiten kann. Ocean Quest nutzt diesen Begriff für ein Forschungs- und Entwicklungsprojekt, nicht für ein fertiges Serien-Produkt.

Man kann sich den Wing-Glider vorstellen wie einen intelligenten Unterwasser-Späher:

  • Er bewegt sich energiesparend durch das Wasser
  • Er kann lange Zeit im Meer bleiben
  • Er sammelt wichtige Daten über Verschmutzung

🧠 Wie erkennt der Wing-Glider Plastik?

👀 Kameras & Sensoren

Der Roboter ist mit Kameras, Sonar und Umweltsensoren ausgestattet. Damit „sieht“ er, was um ihn herum passiert – auch in trübem Wasser.

🤖 Künstliche Intelligenz

Eine KI hilft dem Wing-Glider zu erkennen, ob etwas Plastik ist oder zur Natur gehört. Das ist wichtig, denn unter Wasser sehen viele Dinge ähnlich aus.

📊 Daten statt Blindflug

Der Roboter sammelt genaue Informationen darüber,

  • wo Plastik liegt
  • wie viel es ist
  • in welcher Tiefe es vorkommt

Diese Daten helfen Forschern, gezielt aufzuräumen.


🌊 Sammelt der Wing-Glider auch Plastik ein?

Der Wing-Glider ist vor allem ein Such- und Analyse-Roboter. Sein Hauptjob ist es:

  • Müllstellen zu finden
  • sie zu dokumentieren
  • Aufräumaktionen vorzubereiten

In Zukunft könnten solche Roboter auch mit Greifarmen oder Sammelsystemen kombiniert werden. Ocean Quest denkt also langfristig – Schritt für Schritt.


🌍 Warum ist das so wichtig?

Ohne genaue Daten weiß niemand, wo man anfangen soll zu reinigen. Der Wing-Glider hilft dabei, die unsichtbaren Plastik-Hotspots im Meer sichtbar zu machen.

Das zeigt:

  • Robotik kann Umweltschutz unterstützen
  • KI hilft, Natur besser zu verstehen
  • Technik ist nicht nur cool – sie kann Gutes tun 🌱

✅ Fazit

Der Wing-Glider von Ocean Quest International ist kein Science-Fiction-Roboter, sondern ein realistisches und wichtiges Zukunftsprojekt. Als autonomer Unterwasserroboter hilft er dabei, Plastik im Meer zu entdecken, zu analysieren und gezielte Lösungen vorzubereiten. Ein tolles Beispiel dafür, wie Robotik und Umweltschutz zusammenarbeiten können.


🦊 FuxFun – Wusstest du, dass…?

… über 90 % des Plastikmülls im Meer nicht an der Oberfläche schwimmt, sondern darunter oder am Meeresboden liegt? Genau deshalb sind Unterwasserroboter wie der Wing-Glider so wichtig! 😲


🔍 Für Profis

Wenn du tiefer einsteigen möchtest:


📘 Buchempfehlung

Du möchtest noch mehr über Roboter, KI und spannende Technik erfahren?
👉 „Roboter & KI“ aus der SchlauFUX-Reihe vom Kosmos Verlag
https://www.kosmos.de/de/kosmos-schlaufux-roboter-und-ki_1182437_9783440182437

M5Stack StackChan Review Video by Robots-Blog

‪M5Stack‬ Stackchan is now available at @Kickstarter
See my short review Video by ‪@RobotsBlog‬ and get your own Stackchan now!

https://www.kickstarter.com/projects/m5stack/stackchan-the-first-co-created-open-source-ai-desktop-robot?ref=4fblpr

#robot #ai #stackchan #opensource #desktop #desktoprobot #diy #companion

StackChan by M5Stack Now Available on Kickstarter

January, 2026 — M5Stack, a global leader in modular IoT and embedded development platforms, today launched StackChan, the first community-co-created open-source AI desktop robot, built on a proven ESP32 platform and designed to be endlessly hackable by makers worldwide.

Unlike closed, concept-driven AI robots, StackChan exposes its hardware, firmware, and interaction logic from day one — turning a playful desktop companion into a real development platform.

StackChan is now live on Kickstarter with a $65 Super Early Bird offer available for the first 72 hours.

From Community to the Globe: How StackChan Was Born 

Before its official launch by M5Stack, StackChan had already existed as a community-driven project since 2021. Built on M5Stack standard controller, Core series, it began as a personal open-source project by maker Shinya Ishikawa, sustained and shaped through ongoing community contributions. 

As more enthusiasts joined the project, contributors like Takao, who helped popularize the DIY kits, and Robo8080, who introduced AI capabilities, played key roles in expanding StackChan beyond its original form. 

Inspired by StackChan’s expandability and creative potential, M5Stack officially brought the project to life as its first ready-to-play yet endlessly hackable desktop robot—while keeping its community-driven spirit at the core. 

What Remains: Core Computing & Interaction Capabilities 

As with the original version, StackChan continues to use the M5Stack flagship Core Series (CoreS3) as its main controller. CoreS3 is powered by an ESP32-S3 SoC with a 240 MHz dual-core processor, 16 MB Flash, and 8 MB PSRAM, and supports both Wi-Fi and BLE connectivity. 

To enable richer interactions, the main unit integrates a 2.0-inch capacitive touch display, a 0.3 MP camera, a proximity sensor, a 9-axis IMU (accelerometer + gyroscope + magnetometer). It also includes a microSD card slot, a 1W speaker, dual microphones, and power/reset buttons. Together, these hardware components form a solid foundation for StackChan’s audio-visual interactive experiences. 

For more technical details, please refer to the StackChan documentation: https://docs.m5stack.com/en/StackChan 

What’s New: Ready-to-Play Functions Powered by Advanced Hardware  

For the robot body, several advancements have been made to make it easier to get hands-on and improve the out-of-box experience. It features: 

Power & connectivity: A USB-C interface for both power and data, paired with a built-in 700 mAh battery.  

Movement system: 2 feedback servos supporting 360° continuous rotation on the horizontal axis and 90° vertical tilt—enabling expressive movements with real-time position feedback. 

Visual feedback: 2 rows totaling 12 RGB LEDs for expressive system and interaction feedback. 

Sensors & interaction: Infrared transmission and reception, a three-zone touch panel, and a full-featured NFC module enabling touch- and identity-based interactions. 

On the software side, StackChan is ready-to-play for starters with no coding required. The pre-installed factory firmware delivers: 

Expressive faces and motions: Preloaded with vivid facial expressions and coordinated movements that bring personality and liveliness to StackChan. 

Built-in AI agent: Integrates an AI agent for natural voice-based interaction and conversational experiences. 

App-based remote interaction: Supports official iOS app for video calls, remote avatar control, and real-time interaction with StackChan. 

Chan-to-Chan Friends Map: Enables discovery of nearby StackChan devices, unlocking playful multi-device and social interaction scenarios. 

Open for customization: While beginner-friendly by default, the firmware supports further development via Arduino and UiFlow2, making it easy to create custom applications. 

100% Open-Source: Built to Be Customized and Extended 

In an era filled with closed, concept-driven “AI robot” products, StackChan stands out with its open-source core. From firmware and hardware interfaces to development tools, every layer is designed to be explored, modified, and extended by users. 

Beyond code, StackChan also encourages physical customization. With 3D printing and creative accessories, users can personalize their StackChan’s appearance and turn it into a unique desktop companion. 

Open-source repository: https://github.com/m5stack/StackChan 

 
Fun with Global Community: Share, Extend, and Evolve Together 

Since its birth, StackChan has grown into a vibrant global community of makers, developers, and enthusiasts. From sharing projects and source code online to hosting meetups and anniversary events offline, the community continues to expand what StackChan can be. 

Owning a StackChan is not just about building a robot—it’s about being part of an open ecosystem where ideas and creativity evolve together. 

StackChan is not built to its end at launch. It is built to grow—through open technology, creative experimentation, and a global community that continues to redefine what a desktop robot can be.  

Discover your StackChan on Kickstarter now: https://www.kickstarter.com/projects/m5stack/stackchan-the-first-co-created-open-source-ai-desktop-robot?ref=d5iznw&utm_source=PR 

Alex vom Make Magazin stellt MakeyLab Roboter Experimentierset im Robots-Blog Interview vor

https://www.heise.de/hintergrund/Makey-Lab-Der-leichte-IoT-Einstieg-fuer-junge-Maker-10498312.html

United Robotics Group präsentiert erstmals humanoiden Roboter uMe auf der CES 2026

Stuhr, 06.01.2026 – Die United Robotics Group (URG) präsentiert auf der CES 2026 erstmals ihren humanoiden Roboter uMe. Der technologische Prototyp ergänzt das bestehende Portfolio aus mobilen Service- und Gesundheitsrobotern und zeigt, wie humanoide Robotik sinnvoll in reale Arbeitsumgebungen integriert werden kann. uMe demonstriert auf der Messe erste Kernfunktionen wie sprachbasierte Interaktion, vorprogrammierte Bewegungsabläufe und sensorbasierte Wahrnehmung. Dazu gehören unter anderem hochauflösende Kameras, Tiefensensorik, ein Mikrofonarray sowie ein interaktives Display, über das Inhalte und Dialoge dargestellt werden können. uMe ist softwareseitig vollständig in die URG Plattform uGo+ integriert und wurde von Beginn an so konzipiert, dass er sich nahtlos in bestehende Datenflüsse, Geräteanbindungen und Workflows einfügt.

Humanoide Robotik für Bildung, Pflege und Forschung

Als humanoide Erweiterung des Portfolios adressiert uMe vor allem Umgebungen, in denen soziale Interaktion und Zugänglichkeit im Mittelpunkt stehen. Dazu gehören Bildungseinrichtungen, in denen uMe Lerninhalte unterstützt und technische Zusammenhänge erlebbar macht, sowie Pflegeumgebungen, in denen der Roboter Routinen begleitet und durch Gespräche, Aktivierung und Orientierung entlastende Unterstützung bietet. Auch Forschungsteams eröffnet uMe neue Möglichkeiten für die Entwicklung und Erprobung von Robotikfunktionen.

Wassim Saeidi, Gründer und CEO der United Robotics Group, erklärt: „uMe ist ein wichtiger Schritt in der Entwicklung unserer Plattform. Er macht deutlich, wie humanoide Robotik künftig einen Beitrag zu gesellschaftlichen Herausforderungen leisten kann. Entscheidend ist für uns nicht das Spektakuläre, sondern der praktische Nutzen. Wir zeigen, wie sich ein humanoides System in bestehende Prozesse integrieren lässt und echten Mehrwert für Pflegekräfte, Lehrende und Forschende schaffen kann.“

uGo+ als zentrale Software-Plattform zwischen Hardware und Anwendung

uMe ist vollständig in die Software-Plattform uGo+ integriert, die mobile und humanoide Robotersysteme über eine gemeinsame Architektur miteinander verbindet. uGo+ ist dabei bewusst als anwenderzentrierte Plattform konzipiert, die sich kontinuierlich weiterentwickelt und künftig einen klaren No-Code-Charakter erhalten soll. Ziel ist es, Nutzer:innen zu befähigen, Robotik-Workflows selbstständig, sicher und ohne Programmierkenntnisse zu konfigurieren und anzupassen. Die Weiterentwicklung von uGo+ ist – neben dem humanoiden Prototyp uMe – einer der zentralen Entwicklungsschwerpunkte der United Robotics Group, da hier die Brücke zwischen Hardware, konkreten Anwendungen und Alltagstauglichkeit entsteht. uMe ist zudem als offene, erweiterbare Plattform ausgelegt und bietet Partner:innen aus Industrie, Forschung und Bildung die Möglichkeit, eigene Module zu entwickeln, Funktionen zu testen und neue Szenarien zu pilotieren. So entsteht ein durchgängiges Zusammenspiel aus Software-Plattform und spezialisierten Robotersystemen, zu denen uLab Mobile, uServe, uLog und uClean bereits mehrere spezialisierte Serviceroboter für Labor-, Klinik- und Logistikumgebungen gehören. Gemeinsam bilden sie ein durchgängiges System, in dem mobile und humanoide Robotik über eine gemeinsame Infrastruktur zusammenwirken können.

Open Source Humanoid pib in neuer Version veröffentlicht

3D-gedruckter Roboter wird einfacher, smarter und noch flexibler

Nürnberg, 11.11.2025 +++ Die vierte Version von pib (printable intelligent bot) ist ab sofort verfügbar. Der humanoide Open Source Roboter aus dem 3D-Drucker lässt sich von jedem selbst bauen, programmieren und mit KI erweitern. Alle 3D-Druckdaten und Anleitungen stehen auf der Projekt-Website zur freien Verfügung, Unterstützung und Austausch gibt es durch die mehr als 1.800 Community-Mitglieder. Das Projekt hat bereits mehrere renommierte Auszeichnungen gewonnen, darunter den German Design Award 2025 und den German Innovation Award 2025.

pib – der Roboter aus dem 3D-Drucker

Der humanoide Roboter pib wurde von der Nürnberger isento GmbH entwickelt und richtet sich an Technik-Enthusiasten, Bildungseinrichtungen sowie Maker-Communities. Mit einem handelsüblichen 3D-Drucker lassen sich sämtliche mechanischen Komponenten herstellen. Alle STL-Dateien, Materiallisten und detaillierten Bauanleitungen stehen frei zur Verfügung.

pib kombiniert eine modulare humanoide Struktur mit Servomotoren, Sensorik und offenen Software-Komponenten. Er kann gedruckt, zusammengebaut, programmiert und individuell erweitert werden. Als Open-Source-Projekt bietet pib einen einfachen Einstieg in Robotik und KI – frei von hohen Kosten und geschlossenen Systemen. Die internationale Community treibt die kontinuierliche Weiterentwicklung voran, sodass pib ideal für Maker, Forschung und Bildung ist. Das Ziel: Robotik und KI für alle zugänglich zu machen und die Einstiegshürden nachhaltig zu senken.

Vereinfachter Aufbau dank Community-Feedback

Die neue Version ist deutlich einfacher und flexibler aufgebaut. Die Kalibrierung der Motoren wurde erleichtert, der Zugang zur Elektronik und zum Power-Button komfortabler gestaltet. Viele dieser Verbesserungen gehen direkt auf das wertvolle Feedback der aktiven Community zurück.

Neue Technik und Funktionen

pib ist nun mit einem Mikrofon-Array ausgestattet, das nicht nur die Audioqualität verbessert, sondern auch die Richtung von Geräuschen erkennt. Neue Lautsprecher sorgen für natürlichere Interaktion und setzen mit blauer Beleuchtung ein Design-Highlight. Drei programmierbare RGB-Buttons am Oberkörper ermöglichen individuelle Steuerbefehle.

Offene Robotik für alle

„Mit pib verfolgen wir die Vision, Robotik für alle zugänglich zu machen. Das neue Release zeigt, wie Open Source Innovation vorantreibt: ein humanoider Roboter, den man selbst bauen, erweitern und verstehen kann. Besonders stolz sind wir darauf, dass viele Verbesserungen direkt aus dem wertvollen Feedback unserer Community entstanden sind“, sagt Dr. Jürgen Baier, Co-Founder und CEO von pib.rocks.

Von der Werkbank ins Klassenzimmer

pib richtet sich an Maker, Robotik-Interessierte und KI-Tüftler gleichermaßen. Darüber hinaus wird der Roboter bereits in mehr als 70 Schulen und Bildungseinrichtungen eingesetzt: als fächerübergreifende Lernplattform für Zukunftsthemen wie Robotik, 3D-Druck und künstliche Intelligenz.

Weitere Infos, Baupläne und Anleitungen: www.pib.rocks

Open Source Humanoid Robot pib Released in New Version

3D-printed robot becomes simpler, smarter, and even more flexible

Nuremberg, November 11, 2025 +++ The fourth version of pib (printable intelligent bot) is now available. The humanoid open-source robot can be 3D-printed, built, programmed, and enhanced with AI by anyone. All 3D printing files and assembly instructions are freely available on the project website, with support and exchange provided by a community of more than 1,800 members. The project has already received several prestigious awards, including the German Design Award 2025 and the German Innovation Award 2025.

pib – the robot from the 3D printer

The humanoid robot pib was developed by isento GmbH in Nuremberg and is aimed at tech enthusiasts, educational institutions, and maker communities. Using a standard 3D printer, all mechanical components can be produced. All STL files, material lists, and detailed assembly guides are freely available.

pib combines a modular humanoid structure with servo motors, sensors, and open software components. It can be printed, assembled, programmed, and customized. As an open-source project, pib offers an accessible entry point into robotics and AI—free from high costs and proprietary systems. The international community continuously drives its development forward, making pib ideal for makers, research, and education. The goal: to make robotics and AI accessible to everyone and to lower entry barriers sustainably.

Simplified design thanks to community feedback

The new version features a significantly simpler and more flexible design. Motor calibration has been made easier, and access to the electronics and power button is now more convenient. Many of these improvements are direct results of valuable feedback from the active community.

New technology and features

pib now includes a microphone array that not only improves audio quality but also detects the direction of sound. New speakers provide a more natural interaction experience and feature blue accent lighting as a design highlight. Three programmable RGB buttons on the torso allow for customizable control commands.

Open robotics for everyone

“With pib, we pursue the vision of making robotics accessible to everyone. The new release demonstrates how open source drives innovation: a humanoid robot that anyone can build, extend, and understand. We’re especially proud that many improvements came directly from our community’s valuable feedback,” says Dr. Jürgen Baier, Co-Founder and CEO of pib.rocks.

From the workbench to the classroom

pib appeals equally to makers, robotics enthusiasts, and AI tinkerers. Beyond that, the robot is already being used in more than 70 schools and educational institutions—as a cross-disciplinary learning platform for future-focused topics such as robotics, 3D printing, and artificial intelligence.

More information, building plans, and guides: www.pib.rocks