fruitcore robotics: Das neue horstOS – noch einfacher, schneller und smarter

Konstanz, November 2025 – fruitcore robotics hebt mit dem neuen Release seines Betriebssystems horstOS die industrielle Automatisierung auf ein neues Level. Mit dem Update erhält die Software zahlreiche SPS-Funktionen. So können nicht nur der Roboter, sondern gesamte Prozesse mit und ohne KI-Unterstützung einfach gesteuert werden. Das Ergebnis: Mehr Leistung, weniger Aufwand – echte Autonomie in der Automatisierung.

Mehr Output durch Parallelität

Mit der neuen Funktion „Parallele Prozesse“ können Anwender gleichzeitig ablaufende Vorgänge über ein einzigartig intuitives grafisches Interface einrichten – ganz ohne SPS-Kenntnisse. Dadurch lassen sich beispielsweise bei Aufgaben wie der Teilevereinzelung Taktzeiten deutlich reduzieren, da Roboterbewegung und Bauteillokalisierung zeitgleich erfolgen können.

Das Interface zur Einrichtung Paralleler Prozesse fügt sich nahtlos in die intuitiv bedienbare Benutzeroberfläche von horstOS ein und macht so auch die Umsetzung komplexerer Abläufe so einfach wie nie zuvor. Für Anwender bedeutet das Unabhängigkeit, Flexibilität und Zeitersparnis, da Prozesse ohne externes Expertenwissen schnell erstellt und bei Bedarf jederzeit angepasst werden können.

Sofort startklar mit Projekt- und Komponentenvorlagen

Das neue Projektmanagement in horstOS ermöglicht eine noch einfachere Organisation unterschiedlicher Setups und Anwendungen. Dank vorkonfigurierter Projektvorlagen können Anwender neue Projekte in kürzester Zeit aufsetzen und strukturiert verwalten.

Auch der Aufbau individueller Projektsetups gelingt mühelos über die umfangreiche Komponentenbibliothek mit über 200 „pre-trained“ Zubehörteilen. Die Komponenten – von Sicherheitstechnik über Greifer bis hin zu Kameras – sind vollständig mit 3D-Modell, Standardfunktionen, Schnittstelleninformationen und Dokumentation hinterlegt. So lassen sich unterschiedlichste Anwendungen schnell und mit hohem Qualitätsstandard umsetzen.

Schneller alles paletti

Eine schnellere Umsetzung von End-of-Line-Packaging und anderen Palettieraufgaben wird durch die weiterentwickelte Palettier-Wizard-Funktion ermöglicht. Mehrlagige Paletten können nun vollständig grafisch und ohne textuelle Programmierung erstellt werden, was die Komplexität in der Einrichtung deutlich reduziert.

Produktiver dank Auto-Start

Eine weitere SPS-Funktionalität bietet fortan die Start-up Routine, welche Anwendern einen vollautomatischen Systemstart ermöglicht: Nach dem Einschalten des Roboters werden Initialisierung, Programmaufruf und Programmstart automatisch ausgeführt. Somit kann sich der Bediener nach dem Einschalten des Roboters unmittelbar anderen Aufgaben widmen, während der Roboter selbstständig den Betrieb aufnimmt.

Auf dem Weg zu einem vernetzten Produktionsalltag ergänzt außerdem eine weitere wichtige neue IoT-Funktionalität horstOS: Sie informiert den Anwender bei Stillständen automatisch per E-Mail und ermöglicht so ein schnelles Eingreifen, um die Anlagenverfügbarkeit zu erhöhen.

Vorreiterrolle in KI-gestützter Automatisierung

Seit der ersten Integration von KI-Funktionen in den Produktivbetrieb vor zwei Jahren entwickelt fruitcore robotics seine KI-Kompetenz konsequent weiter. Mit dem neuen Release basiert der AI Copilot auf der neuesten ChatGPT-Technologie, liefert dadurch noch präzisere Antworten und ermöglicht zudem eine natürliche, dialogbasierte Interaktion.

Damit hält der AI Copilot mit der dynamischen Entwicklung der KI-Welt Schritt und unterstützt Anwender noch effizienter bei Einrichtung und Betrieb ihrer Roboter. Künftige Erweiterungen werden die Zusammenarbeit mit dem AI Copilot, beispielsweise über Spracheingabe, zunehmend weiter vereinfachen und die intuitive, KI-gestützte Programmierung gezielt vorantreiben.

Schülerinnen und Schüler trainieren ihre eigenen neuronalen Netze mit fischertechnik

fischertechnik setzt einen weiteren Meilenstein in der technischen Bildung. Mit dem neuen Lernkonzept STEM Coding Ultimate AI wird es erstmals möglich, ein neuronales Netzwerk selbst zu trainieren und dessen Funktionsweise von Grund auf zu verstehen. Damit vermittelt fischertechnik jungen Menschen die Programmier- und KI-Kompetenzen der Zukunft – direkt im Klassenzimmer und ohne Cloud-Anbindung.

Der Baukasten STEM Coding Ultimate AI richtet sich an weiterführende Schulen und vermittelt handlungsorientiert die Grundlagen von maschinellem Lernen und KI-gestützter Robotik. Anhand von zwölf vielseitigen, zum Teil erweiterbaren Modellen setzen sich Schülerinnen und Schüler der Sekundarstufe II mit zentralen Fragestellungen der Informationstechnik und der Künstlichen Intelligenz auseinander. Ausgehend von realitätsnahen Szenarien entwickeln sie eigenständig Lösungen für komplexe, problemorientierte Aufgabenstellungen. Ein leistungsstarker Controller, moderne Sensoren und Aktoren, eine benutzerfreundliche App sowie die bewährten fischertechnik Bausteine ermöglichen einen praxisnahen Zugang zu fortgeschrittenen Technologien.

Erste Trainingsschritte lassen sich unmittelbar grafisch darstellen, sodass Lernende den Fortschritt nachvollziehen können. Anschließend können die trainierten Daten per Bluetooth oder über einen WLAN- oder USB-Anschluss an Roboter übertragen werden, die das Gelernte in realen Anwendungen sichtbar machen – beispielsweise nach dem Prinzip eines autonomen Fahrzeugs. Damit wird abstraktes Wissen greifbar, und aus Theorie entsteht erlebbare Praxis.

Lehrkräfte erhalten über didaktisches Begleitmaterial einen leichten Einstieg ins Thema.

Besonders wertvoll ist dieser Ansatz, weil er die sogenannten Future Skills wie projektorientiertes Arbeiten und Teamfähigkeit fördert, die in einer zunehmend digitalisierten Arbeitswelt unverzichtbar sind. Der Umgang mit Künstlicher Intelligenz, das Verständnis neuronaler Netze und die Fähigkeit, Daten eigenständig zu erfassen, zu analysieren und nutzbar zu machen, gehören zu den Schlüsselkompetenzen der kommenden Generation. Schülerinnen und Schüler lernen nicht nur die technischen Grundlagen, sondern entwickeln auch ein tiefes Verständnis dafür, wie KI Entscheidungen trifft. Sie erwerben Grundkenntnisse der neuronalen Netze und KI-Programmierung – ein Wissen, das weit über den schulischen Kontext hinaus Bedeutung hat. Darüber hinaus bauen die Schülerinnen und Schüler ihre Kenntnisse in Informatik und Robotik aus und lernen, die Funktionsweise von Aktoren und Sensoren zu verstehen.

Die Integration von Robo Pro Coding und der fischertechnik STEM Suite ermöglicht einen sanften Einstieg mit Blockly-Programmierung und zugleich den direkten Einblick in professionelle Programmiersprachen wie Python. Der neue Baukasten arbeitet lokal auf dem TXT 4.0 Controller – ganz ohne Cloud. Damit steht Schulen ein zukunftssicheres Werkzeug zur Verfügung, das über Jahre hinweg eingesetzt werden kann.

„Gemäß unserem Motto: wo Neugier Wissen wird, schaffen wir mit unserem Lernkonzept STEM Coding Ultimate AI für Schülerinnen und Schüler die Möglichkeit, Künstliche Intelligenz nicht nur zu konsumieren, sondern aktiv zu gestalten und zu verstehen“, erklärt Martin Rogler, Geschäftsführer fischertechnik. „Denn wer frühzeitig die Grundlagen der KI erlernt, besitzt morgen einen entscheidenden Vorteil in Studium, Beruf und Gesellschaft.“

Das Jahr 2025 markiert zugleich ein besonderes Jubiläum: 60 Jahre fischertechnik. Seit sechs Jahrzehnten inspiriert das Unternehmen Generationen von Tüftlern, Ingenieurinnen und Forschern, Technik spielerisch zu entdecken und zu verstehen. Der neue STEM Coding Ultimate AI Baukasten knüpft als Nachfolger des TXT Base Sets an diese Tradition an und führt sie in die Zukunft – mit einer Innovation, die die Faszination klassischer Baukästen mit den Technologien von morgen verbindet. Im Sinne der Nachhaltigkeit ist STEM Coding Ultimate AI zudem weiterhin kompatibel mit allen verfügbaren TXT 4.0 Base Set Add-Ons für Omniwheels, Industrial Robots, AI, IoT, Competition und Autonomous Driving.

Mit diesem Schritt leistet fischertechnik einen entscheidenden Beitrag zur Förderung von Kreativität und Problemlösungskompetenz sowie für das Verständnis von Zukunftstechnologien. So entsteht ein Produkt, das nicht nur den aktuellen Bildungsbedarf deckt, sondern auch den Geist der Marke seit 60 Jahren weiterträgt: Technik zum Anfassen, Verstehen und Gestalten.

Vention präsentiert neue KI- und Entwicklerplattform-Funktionen für die intelligente Fertigung

MONTREAL, 29. Oktober 2025 /PRNewswire/ — Vention, Entwickler der weltweit einzigen KI-gestützten Full-Stack-Software- und Hardware-Automatisierungsplattform, kündigte heute die nächste Entwicklungsstufe der intelligenten Fertigung an, die Vention seiner Vision der Zero-Shot Automation™ näherbringt. Auf dem 6. jährlichen Demo Day stellte Vention neue Funktionen vor, mit denen Unternehmen automatisieren können, ohne auf herkömmliche Hardware-Integration oder komplexe Programmierung angewiesen zu sein. Die Neuerungen umfassen Werkzeuge, die die Plattform für eine globale Community von Entwicklern und Robotik-Experten weiter öffnen, sowie erweiterte Simulations- und KI-Funktionen, die Unternehmen helfen, die Phasen vom Design bis zur Inbetriebnahme schneller zu durchlaufen.

Seit dem ersten Demo Day im Jahr 2020 hat Vention seine Plattform in eine softwaredefinierte Automatisierungsumgebung verwandelt, die Hardware, Software und KI in einem einheitlichen Kundenerlebnis vereint. Heute wird die Vention-Plattform von mehr als 25.000 Maschinen in 4.000 Fabriken weltweit  genutzt – für individuelle Projekte und schlüsselfertige Automatisierungslösungen wie Palettieren, Schweißen und Maschinenbestückung. Das Ergebnis sind nachweisbare Leistung, schnellere Amortisierung und ein deutlich verkürzter Weg von der Idee zur Produktion.

„Unsere Mission war es von Anfang an, Automatisierung für alle zugänglich zu machen“, sagte Etienne Lacroix, Gründer und CEO von Vention, auf dem Demo Day 2025. „Mit Zero-Shot Automation bauen wir den Technologie-Stack der Zukunft für die Industrieautomation . Hardware und Software sind vollständig vereint und KI ist nahtlos von der Cloud bis zum Edge integriert. Das ist ein wichtiger Schritt hin zu einfacher, intelligenter und leistungsstarker Automatisierung.“

Vention führt AI Operator ein und stellt Schlüsselfunktionen der Plattform vor

Ein Highlight des diesjährigen Demo Day war die weltweite Einführung des AI Operator , der neuesten Automatisierungslösung von Vention, die fortschrittliche KI-Modelle direkt auf die Fertigungsebene bringt – für unstrukturierte Anwendungen wie Bin Picking, d.h. dem Greifen von Gegenständen unterschiedlicher Form und Größe. AI Operator ist nun auf der Vention-Plattform verfügbar; die Implementierungen in Fertigungsumgebungen werden bis Anfang 2026 weltweit ausgerollt.

Angetrieben vom MachineMotion AI Controller, der bereits auf dem Demo Day 2024 vorgestellt wurde, basiert AI Operator auf NVIDIA-Infrastruktur sowie den NVIDIA Isaac -Bibliotheken und KI-Modellen. Damit steht die Rechenleistung zur Verfügung, die für anspruchsvolle industrielle KI-Anwendungen erforderlich ist.

Auf dem Demo Day 2025 stellte Vention außerdem wichtige Weiterentwicklungen vor, die die Plattform für Hersteller, Entwickler und Robotik- Experten noch intuitiver und besser zugänglich machen:

  • Developer Toolkit öffnet die Plattform für Entwickler und Robotik-Experten
    Das neue Developer Toolkit von Vention bietet eine Command Line Interface (CLI), vorgefertigte Projektvorlagen sowie einsatzbereite Bibliotheken für Maschinen, Gerätekommunikation, Datenspeicherung und Bedienoberflächen. Entwickler und Robotik-Spezialisten können nun lokal oder in der Cloud arbeiten,  ihre bevorzugten Workflows nutzen und damit ihre Kreativität auf der Vention-Plattform weiter ausbauen.
  • Simulation Checker ermöglicht Tests vor dem ersten Code
    Eine neue Simulationsumgebung liefert realitätsgetreue Ergebnisse, noch bevor die erste Codezeile geschrieben wird. Schwerkraft, Kollisionen und Bewegungen verhalten sich exakt so, wie in der Produktionsumgebung. Hersteller können ihre Automatisierungsprojekte so von Beginn an mit höchster Sicherheit validieren.
  • RemoteView-Videoaufzeichnung für sicheren und transparenten Betrieb
    Zur Unterstützung der Anlagenüberwachung und Optimierung zeichnet Vention mit RemoteView einen vollständigen Betriebsverlauf auf, einschließlich Statusmeldungen und Warnungen. So können Teams Probleme wie Bedienfehler oder Kollisionen schneller nachverfolgen, Störungen beheben und kostspielige Ausfallzeiten vermeiden.
  • Vention Projects vereinfacht Planung und Zusammenarbeit in der Automatisierung
    Basierend auf der branchenweit größten Bibliothek von Maschinenspezifikationen bietet Vention Projects einen zentralisierten Workflow zur Definition von Automatisierungsumfang und -anforderungen. Das Tool reduziert manuelle Dokumentation und Kommunikationslücken, sodass Teams früh im Prozess aufeinander abgestimmt sind und Projekte präzise vom Konzept zur Freigabe gelangen.

NVIDIA erläutert die Rolle von KI in der agilen Fertigung; Kunden berichten über ihre Erfolge

Amit Goel, Head of Robotics & Edge Computing bei NVIDIA, nahm am Demo Day teil, um über die wachsende Bedeutung von KI in der agilen Fertigung und die technologischen Fortschritte zu sprechen, die den AI Operator von Vention antreiben. Er betonte, dass GPU-beschleunigtes Edge Computing sowie CUDA-beschleunigte Bibliotheken und KI-Modelle die Art und Weise neu definieren, wie Automatisierungssysteme in Echtzeit wahrnehmen, sich anpassen und agieren.

„Mit dem AI Operator von Vention ist es jetzt möglich, Robotik in Anwendungen einzusetzen, die kontinuierliche Aktualisierungen und höhere Flexibilität erfordern“, sagte Goel. „All diese Funktionen stehen nun direkt zur Verfügung.“

Führungskräfte von Cripps & Sons Woodworking, McAlpine & Co. Ltd. und Solestial, Inc. stellten auf dem Demo Day die Erfolge vor, die sie in Zusammenarbeit mit Vention erzielt haben:  von verkürzten Designzyklen bis hin zu vollständig implementierten Automatisierungssystemen, die zu messbaren Verbesserungen in der Produktion führen.

Der Demo Day 2025 ist ab 29. Oktober um 16:00 Uhr MEZ unter vention.io/demo-day online aufrufbar

RoboCup 2027: Nürnberg als Zentrum der Robotik bei den RoboCup-Weltmeisterschaften in Deutschland

Die RoboCup Weltmeisterschaft 2027 findet im Juni in Deutschland statt: Mit Nürnberg wurde zum Abschluss des RoboCup 2025 in Brasilien offiziell der Austragungsort für den weltweit renommiertesten Wettbewerb für intelligente Robotik bekanntgegeben. Damit holt Deutschland die internationale Robotik-Elite erstmals seit 2016 wieder ins eigene Land – und setzt ein starkes Zeichen für seine technologische Zukunftsfähigkeit.

Der RoboCup gilt als globaler Leuchtturm für Forschung und Entwicklung in Robotik und Künstlicher Intelligenz (KI). Jährlich messen sich hier die besten Teams aus Universitäten, Hochschulen für Angewandte Wissenschaften und Schulen in realitätsnahen Szenarien – von Fußball über Haushaltsrobotik bis zu Rettungs- und Industrieanwendungen. Deutschland gehört seit Jahren zur Weltspitze und ist nun wieder Gastgeber dieses einzigartigen Innovationswettbewerbs.

Strategische Bedeutung für den Standort Deutschland
„Zentral für den Erfolg der Vergabe des RoboCup 2027 nach Nürnberg war die Unterstützung des Bundesministeriums für Forschung, Technologie und Raumfahrt, des Freistaats Bayern, der Stadt Nürnberg, des Robotics Institute Germany, der NEURA Robotics, der AFAG Messen und Ausstellungen GmbH, der Hans und Ria Messer Stiftung und nicht zuletzt des deutschen RoboCup-Komitees. Mit der Vergabe wird Deutschlands Rolle als international sichtbarer Impulsgeber für KI-basierte Robotik gestärkt“, erklärt Prof. Dr. Oskar von Stryk, Technische Universität Darmstadt, Co-Chair des RoboCup 2027. „Gerade vor dem Hintergrund des Fachkräftemangels und der demografischen Entwicklung brauchen wir innovative Technologien, die körperlich fordernde Arbeit intelligent unterstützen und zugleich dazu beitragen, Menschen in jeder Lebenslage ein selbstbestimmtes und unabhängiges Leben zu ermöglichen.“, ergänzt Dr. Maike Paetzel-Prüsmann, Johannes Gutenberg-Universität Mainz, Co-Chair des RoboCup 2027.

KI-basierte Robotik – sogenannte verkörperte Künstliche Intelligenz – ist entscheidend, um auch künftig Wohlstand, Wettbewerbsfähigkeit und Versorgungssicherheit zu garantieren. Der RoboCup beschleunigt die Entwicklung solcher Systeme, indem er Forschenden und Nachwuchstalenten eine reale Test- und Vergleichsplattform bietet – und Begeisterung für Technik und Innovation weckt.

Nachwuchsförderung und Gründergeist
Die RoboCup-Weltmeisterschaft ist mehr als ein Technologiewettbewerb – sie ist Talentschmiede, Bildungsplattform und Sprungbrett für Start-ups. In den Junior-Ligen sammeln Schülerinnen und Schüler erste Erfahrungen mit Informatik und Mechatronik, in den Major-Ligen entwickeln Studierende und Promovierende komplexe autonome Systeme auf höchstem Niveau. Viele starten danach erfolgreiche Karrieren in Unternehmen oder gründen eigene technologiegetriebene Start-ups.

„Der RoboCup verbindet Hightech mit Bildung, Wissenschaft mit Praxis, internationalen Austausch mit regionaler Innovationskraft“, so Prof. Dr. Stefan May, Technische Hochschule Nürnberg Georg Simon Ohm, Local Chair des RoboCup 2027. „Nürnberg bietet dafür das ideale Umfeld – zentral gelegen, technologisch und wirtschaftlich stark vernetzt und mit einer lebendigen Wissenschafts- und Gründerszene.“

2027: Ein Meilenstein für Deutschland im Technologie-Wettlauf
Mit Blick auf den internationalen Wettlauf um technologische Souveränität setzt die RoboCup-Weltmeisterschaft 2027 ein wichtiges Signal. Deutschland braucht hochqualifizierte Köpfe und starke Innovationsökosysteme, um langfristig unabhängig und wettbewerbsfähig zu bleiben. Der RoboCup leistet dazu einen entscheidenden Beitrag.

Dorothee Bär, Bundesministerin für Forschung, Technologie und Raumfahrt: „In der Verbindung von KI und Robotik steckt ein riesiges Potential für Deutschland und Europa. Deshalb haben wir uns in der Bundesregierung die Förderung dieser Schlüsseltechnologien in der Hightech Agenda Deutschland zum Ziel gesetzt. Mit dem bereits vom Bundesforschungsministerium geförderten Robotics Institute Germany und dessen Verbindung zum RoboCup unterstützen wir gezielt Spitzenforschung und Talente für die KI-basierte Robotik. Bereits 2024 und 2025 haben wir die RoboCup German Open daher auch finanziell gefördert. Und wir haben auch die Bewerbung für die Weltmeisterschaft unterstützt. Ich freue mich sehr, dass wir den RoboCup 2027 in Deutschland willkommen heißen.“

Dr. Markus Söder, Ministerpräsident des Freistaates Bayern: „Bayern ist bei Kl und Robotik einer der führenden Standorte Europas. Mit unserer Hightech Agenda investieren wir insgesamt sechs Milliarden Euro in Wissenschaft und Forschung. Damit soll etwa im ganzen Land ein einzigartiges Ökosystem für Künstliche Intelligenz wachsen. Das „Munich Center for Machine Learning“ und das „Munich Institute of Robotics and Machine Intelligence“ stehen für Künstliche Intelligenz von Weltrang – und in Nürnberg gründen wir mit der Technischen Universität UTN die erste rein auf Kl spezialisierte Universität in Deutschland. Die Staatsregierung freut sich auf die Austragung der RoboCup-Weltmeisterschaft 2027 in Nürnberg. Wir spielen in der Hightech-Champions-League – daher ist Bayern der perfekte Ort für den RoboCup!“.

Dr. Fabian Mehring, Bayerischer Staatsminister für Digitales: „Nürnberg ist unser bayerischer Leuchtturm für Robotik und Künstliche Intelligenz – mit der ersten eigenständigen KI-Universität Deutschlands und zahlreichen innovativen Forschungseinrichtungen. Die Stadt verfügt über eine starke Infrastruktur für internationale Veranstaltungen und engagiert sich aktiv für den wissenschaftlichen Nachwuchs. Ziel ist es, junge Talente zu begeistern und globale Netzwerke in Robotik und KI zu stärken. Ich freue mich darauf, die Teilnehmenden in Nürnberg willkommen zu heißen – für eine innovative Zukunft, die wir proaktiv und gemeinsam gestalten wollen.“

Prof. Dr. Tamim Asfour, Karlsruhe Institut für Technologie, Sprecher des Robotics Institute Germany (RIG): „Das RIG hat die Bewerbung Deutschlands für den RoboCup 2027 mit großem Nachdruck unterstützt. Als bundesweite Plattform führender Robotik- und KI-Institutionen – gefördert vom Bundesministerium für Forschung, Technologie und Raumfahrt – verbindet RIG Spitzenforschung, Talente und Wirtschaft, um bahnbrechende Innovationen voranzutreiben. Wettbewerbe wie der RoboCup sind starke Impulsgeber für Fortschritt und internationale Zusammenarbeit. Nach dem erfolgreichen Auftakt der German Robotics Conference gemeinsam mit den RoboCup German Open 2025 freuen wir uns darauf, die globale Robotik-Community in Deutschland für das größte Robotik- und KI-Event Europas in 2027 willkommen zu heißen.“

Prof. Dr. Angela Schoellig, TU München, Koordinatorin des Robotics Instituts Germany: „RoboCup und das Robotics Institute Germany teilen eine inspirierende Vision: Gemeinsam treiben wir bahnbrechende Innovationen in Robotik und Künstlicher Intelligenz voran – für eine nachhaltige Zukunft in Deutschland und weltweit. Mit der RoboCup-Weltmeisterschaft 2027 holen wir die klügsten jungen Köpfe aus aller Welt nach Deutschland. Wir sind begeistert, dieses einzigartige Event als Robotics Institute Germany mitzugestalten und zu unterstützen!“

David Reger, CEO und Gründer NEURA Robotics: „Wir entwickeln kognitive Roboter, die sehen, hören, fühlen und ganz natürlich mit Menschen und ihrer Umgebung interagieren. Beim Besuch der RoboCup German Open 2025 hat mich beeindruckt, wie Menschen verschiedener Generationen gemeinsam Roboter intelligente Aufgaben lösen lassen. Als größte Volkswirtschaft Europas ist Deutschland führend in den Bereichen Robotik und Automatisierung – mit einer starken Forschungsbasis. Damit ist hier der richtige Ort, um den RoboCup 2027 auszurichten.“

Über den RoboCup und das deutsche RoboCup-Komitee
Der 1997 gegründete RoboCup ist mit Teams aus mehr als 50 Nationen der weltweit älteste und größte Wettbewerb für intelligente Robotersysteme. Ziel ist es, technologische Entwicklungen in Robotik und KI durch reale Anwendungsszenarien voranzutreiben. Die Teilnehmenden entwickeln intelligente kollaborative robotische Systeme, die komplexe Aufgaben eigenständig bewältigen – unter Wettbewerbsbedingungen, die Innovation, Kreativität und Teamarbeit fordern.

Deutsche Wissenschaftlerinnen und Wissenschaftler haben die Entwicklung des RoboCups wesentlich mitgeprägt. Die deutschen Teams sind im RoboCup-Komitee Deutschland organisiert und haben die Bewerbung mit großem Engagement unterstützt und werden auch bei der Ausrichtung der Weltmeisterschaft eine tragende Rolle spielen. Sämtliche Mitglieder übernehmen zentrale Aufgaben in der Organisation und bringen ihre Expertise aktiv ein. Die Vorfreude ist spürbar – nicht nur das deutsche RoboCup-Komitee, sondern der gesamte RoboCup Deutschland blickt mit großer Erwartung darauf, die internationale RoboCup-Gemeinschaft 2027 wieder in Deutschland begrüßen zu dürfen.

www.robocup.de

Wir vom Robots-Blog freuen uns auf dieses Event und werden versuchen vor Ort dabei zu sein!

Alexander Zorn vom Fraunhofer IAIS stellt KI gesteuerten Roboterarm im Robots-Blog Interview vor

Mehr Informationen unter: https://www.iais.fraunhofer.de/de/branchen-themen/themen/intelligente-prozessautomatisierung/gen-ai-robotersteuerung.html

Wo Ideen tanzen und Technik begeistert – Riesige Ballerina tanzt auf der Maker Faire Hannover

Hannover, 30. Juni 2025 – Technik, Kunst und gesellschaftliche Botschaft verschmelzen in einem außergewöhnlichen Projekt der spanischen Theatergruppe Antigua i Barbuda auf dem DIY-Event Maker Faire Hannover, das am 23. und 24. August im HCC stattfindet. Mit „La Danseuse“, einer über fünf Meter hohen mechanischen Ballerina, setzen die Künstlerinnen ein kraftvolles Zeichen für weibliches Empowerment – umgesetzt mit beeindruckender Ingenieurskunst.

Das größte Maker-Treffen im deutschsprachigen Raum verwandelt das Hannover Congress Centrum (HCC) bereits zum elften Mal in ein kreatives Ideenlabor. Eine der Hauptattraktionen in diesem Jahr: die faszinierende Performance von „La Danseuse“, die technische Feinheit und anmutige Bewegung auf eindrucksvolle Weise vereint.

„Diese einzigartige Theatererfahrung aus Objekten in Bewegung symbolisiert Freiheit und weibliche Stärke”, erklärt die Theatergruppe, die ihre monumentale Maschinenfrau erstmals in Deutschland präsentiert.

Sicher ist: „La Danseuse“ wird mit ihrer Präsenz und Ausdruckskraft für Staunen sorgen – und zeigen, wie Maschinen nicht nur funktionieren, sondern auch berühren können. „Passend zu unserem Show Act und der Projektvielfalt unserer Aussteller steht die diesjährige Maker Faire unter dem Motto ‚Wo Ideen tanzen und Technik begeistert‘, erklärt Daniel Rohlfing, Leiter Events & Sales Maker Faire Deutschland. „Das macht neugierig und trifft den Kern der Veranstaltung.“

Seit ihrer Premiere im Jahr 2013 hat die Maker Faire Hannover  über 140.000 Besucherinnen und Besucher begeistert. Mit interaktiven Stationen, Workshops und Präsentationen bietet sie den idealen Rahmen für ein Projekt wie „La Danseuse“. Neben der Maschinenperformance erwarten die Gäste an rund 230 Ständen zahlreiche weitere kreative Ideen von Makern, Erfinderinnen und Forschern, die zum Mitmachen und Staunen einladen.

Tickets für die Maker Faire Hannover sind im Onlineshop oder an der Tageskasse (bargeldlos) erhältlich. Der Eintritt für Erwachsene kostet 24 Euro, ermäßigt 19 Euro. Kinder unter 10 Jahren können kostenlos dabei sein. Die Veranstaltung öffnet am Samstag von 10 bis 18 Uhr und am Sonntag von 10 bis 17 Uhr. Weitere Infos unter: maker-faire.de

Über die Maker Faire Hannover:

Seit 2013 begeistert die Maker Faire Hannover als Plattform für Inspiration, Kreativität und Innovation Teilnehmer aller Altersgruppen. Die Veranstaltung bringt Technik, Handwerk und Kunst zusammen und hat sich zu einem festen Termin im Kalender der internationalen Maker-Szene etabliert.

KI-Gestenerkennung mit IDS NXT Kamera lässt igus ReBel Roboter Stein, Schere, Papier gegen Mensch spielen

Automatica 2025: Vention erweitert Angebot mit Robotiklösungen von Franka Robotics

MÜNCHEN, 17. Juni 2025 /PRNewswire/ — Vention, Anbieter der weltweit einzigen vollständig integrierten Software- und Hardware-Plattform für industrielle Automatisierung, erweitert sein Robotik-Portfolio um kollaborative Roboter der Franka Robotics GmbH, einer Tochtergesellschaft der in München ansässigen Agile Robots SE.

  • Vention hat sein Roboterangebot um kollaborative Roboter der Franka Robotics GmbH erweitert, einem in Deutschland ansässigen Hersteller von Präzisions-Cobots, die in der Forschung und Entwicklung beliebt sind.
  • Vention und Franka Robotics zeigen auf der Automatica PCB-Tests mit einem Franka Research 3 (FR3)-Roboter für die präzise und sichere Automatisierung empfindlicher Elektronik.
  • Darüber hinaus präsentiert Vention KI-gestütztes Bin-Picking und ein All-in-One-Steuerungssystem für Bewegung, Bildverarbeitung, Sensorik und KI.
  • MachineMotion™ AI, Ventions Steuerung der dritten Generation, feiert ihre Europapremiere mit einer KI-gestützten Bin-Picking-Demonstration auf einem ABB GoFa – inklusive intelligenter Teileerkennung und Greifpräzision im Submillimeterbereich.
  • Modulare Roboterzellen für Maschinenbestückung und Palettierung werden ebenfalls gezeigt – mit führenden Robotermarken wie Universal Robots und FANUC.
  • Besucher von Stand B4.307 erhalten kostenlosen Zugang zu MachineBuilder 101™, dem neuen Zertifikatskurs von Vention zur Planung, Simulation und Inbetriebnahme von Automatisierungslösungen auf der Vention-Plattform.

Franka Robotics hat sich mit seinem beliebten FR3-Roboterarm als führende Plattform in der akademischen Forschung etabliert und ist mittlerweile die bevorzugte Wahl für Doktoranden, KI-Forscher und Robotik-Labore. Mit der Aufnahme von Franka Robotics-Anwendungen in das eigene Portfolio erweitert Vention sein Angebot gezielt, um der starken Nachfrage von Hochschulen, Forschungseinrichtungen und innovationsgetriebenen Unternehmen gerecht zu werden, die bereits im Vention-Ökosystem arbeiten.

Vention präsentiert auf der Automatica 2025 (vom 24. bis 27. Juni) in München erstmalig eine Live-Demonstration mit einem FR3-Roboter von Franka Robotics (Stand B4.307).

„Wir sind stolz, Franka Robotics im Vention-Ökosystem begrüßen zu dürfen“, sagt Francois Giguere, Chief Technology Officer von Vention. „Der sehr gute Ruf von Franka  Robotics im akademischen Umfeld passt perfekt zu unserer Mission, die industrielle Automatisierung zugänglicher und intuitiver zu gestalten. Wir freuen uns über die Zusammenarbeit mit einer angesehenen deutschen Marke – Deutschland hat die Geschichte von Vention von Anfang an maßgeblich geprägt, und diese Partnerschaft markiert ein spannendes neues Kapitel auf unserem Weg.“

„Die Partnerschaft mit Vention ermöglicht es uns, die Reichweite unseres Roboters Franka Research 3 einem breiteren Anwenderkreis im akademischen Bereich und in innovativen Anwendungen zugänglich zu machen“, erklärt Henrik Hermann, Vertriebsleiter bei Franka Robotics. „Gemeinsam setzen wir uns dafür ein, innovative, benutzerfreundliche Automatisierungslösungen zu liefern, die unseren Kunden neue Möglichkeiten in der Robotik und KI eröffnen.“

Der FR3 ist ein benutzerfreundlicher, kompakter und leichter (18 kg) Roboterarm mit sieben Freiheitsgraden. Er ist sicher, hochflexibel und damit ideal für Laborumgebungen mit begrenztem Platzangebot. Dank seiner drehmomentgeregelten Gelenke verfügt er über eine Echtzeit-Kraftsensorik, mit der er Kräfte wahrnehmen und darauf reagieren kann. Dies ist entscheidend für die Forschung zur Mensch-Roboter-Interaktion, das Lernen durch Demonstration sowie die Durchführung kontaktintensiver Aufgaben mit empfindlichen Komponenten.

Vention auf der Automatica 2025

Vention zeigt auf der Automatica insgesamt vier Live-Demonstrationen, die die vollständig integrierte Automatisierungsplattform des Unternehmens in der Praxis erlebbar machen – durch die Kombination aus intuitiver Software, modularer Hardware und den KI-gestützten Funktionen von MachineMotion™ AI.

MachineMotion™ KI & NVIDIA-Technologie – Leistungsstarke Bewegungssteuerung

Nach der NVIDIA GTC 2025 und der Automate in den USA stellt Vention seine KI-gestützten Bin-Picking-Demonstration mit einem ABB GoFa CRB 15000 erstmals auf einer europäischen Messe vor. Auf Basis von MachineMotion™ AI, NVIDIA Jetson Computing sowie CUDA-beschleunigten Isaac-Bibliotheken und -Modellen von NVIDIA deckt die Live-Demonstration von Vention fortschrittliche Robotik, KI-basierte Bewegungssteuerung und skalierbare Schulungsszenarien ab – und zeigt, welchen konkreten Mehrwert KI bei der praktischen Implementierung robotergestützter Lösungen in der Fertigung bietet. Die Anwendung erreicht eine Greifgenauigkeit im Submillimeterbereich bei ungeordneten Fertigungsteilen – ideal für High-Mix-/Low-Volume-Produktionsumgebungen.

Modulare Demos für praxisnahe Anwendungen

Im Rahmen Automatica wird Vention den FR3-Arm von Franka Robotics bei Leiterplattentests auf einer Vention-Workstation vorführen und die Präzision und schonende Handhabung für empfindliche Elektronik und feinmotorische Aufgaben demonstrieren.

Darüber hinaus erleben Besucher vollständig integrierte, anpassbare Roboterzellen für:

  • 7th Axis Range Extender – für mehr Reichweite und Flexibilität bei Anwendungen wie Maschinenbestückung, Montage und Verpackung.
  • Rapid Series Palletizer – aufgebaut auf einer Teleskopsäule und optimiert mit der neuesten Version 4.5 der MachineApp-Software von Vention.

Die Live-Demonstrationen finden in Halle B4, Stand 307 statt.

Weitere Informationen auf Vention.com.

Enhancing Drone Navigation with AI and IDS uEye Camera Technology

AI-driven drone from University of Klagenfurt uses IDS uEye camera for real-time, object-relative navigation—enabling safer, more efficient, and precise inspections.

High-voltage power lines. Electricity distribution station. high voltage electric transmission tower. Distribution electric substation with power lines and transformers.

The inspection of critical infrastructures such as energy plants, bridges or industrial complexes is essential to ensure their safety, reliability and long-term functionality. Traditional inspection methods always require the use of people in areas that are difficult to access or risky. Autonomous mobile robots offer great potential for making inspections more efficient, safer and more accurate. Uncrewed aerial vehicles (UAVs) such as drones in particular have become established as promising platforms, as they can be used flexibly and can even reach areas that are difficult to access from the air. One of the biggest challenges here is to navigate the drone precisely relative to the objects to be inspected in order to reliably capture high-resolution image data or other sensor data.

A research group at the University of Klagenfurt has designed a real-time capable drone based on object-relative navigation using artificial intelligence. Also on board: a USB3 Vision industrial camera from the uEye LE family from IDS Imaging Development Systems GmbH.

As part of the research project, which was funded by the Austrian Federal Ministry for Climate Action, Environment, Energy, Mobility, Innovation and Technology (BMK), the drone must autonomously recognise what is a power pole and what is an insulator on the power pole. It will fly around the insulator at a distance of three meters and take pictures. „Precise localisation is important such that the camera recordings can also be compared across multiple inspection flights,“ explains Thomas Georg Jantos, PhD student and member of the Control of Networked Systems research group at the University of Klagenfurt. The prerequisite for this is that object-relative navigation must be able to extract so-called semantic information about the objects in question from the raw sensory data captured by the camera. Semantic information makes raw data, in this case the camera images, „understandable“ and makes it possible not only to capture the environment, but also to correctly identify and localise relevant objects.

In this case, this means that an image pixel is not only understood as an independent colour value (e.g. RGB value), but as part of an object, e.g. an isolator. In contrast to classic GNNS (Global Navigation Satellite System), this approach not only provides a position in space, but also a precise relative position and orientation with respect to the object to be inspected (e.g. „Drone is located 1.5m to the left of the upper insulator“).

The key requirement is that image processing and data interpretation must be latency-free so that the drone can adapt its navigation and interaction to the specific conditions and requirements of the inspection task in real time.

Thomas Jantos with the inspection drone – Photo: aau/Müller

Semantic information through intelligent image processing
Object recognition, object classification and object pose estimation are performed using artificial intelligence in image processing. „In contrast to GNSS-based inspection approaches using drones, our AI with its semantic information enables the inspection of the infrastructure to be inspected from certain reproducible viewpoints,“ explains Thomas Jantos. „In addition, the chosen approach does not suffer from the usual GNSS problems such as multi-pathing and shadowing caused by large infrastructures or valleys, which can lead to signal degradation and thus to safety risks.“

A USB3 uEye LE serves as the quadcopter’s navigation camera

How much AI fits into a small quadcopter?
The hardware setup consists of a TWINs Science Copter platform equipped with a Pixhawk PX4 autopilot, an NVIDIA Jetson Orin AGX 64GB DevKit as on-board computer and a USB3 Vision industrial camera from IDS. „The challenge is to get the artificial intelligence onto the small helicopters.

The computers on the drone are still too slow compared to the computers used to train the AI. With the first successful tests, this is still the subject of current research,“ says Thomas Jantos, describing the problem of further optimising the high-performance AI model for use on the on-board computer.

The camera, on the other hand, delivers perfect basic data straight away, as the tests in the university’s own drone hall show. When selecting a suitable camera model, it was not just a question of meeting the requirements in terms of speed, size, protection class and, last but not least, price. „The camera’s capabilities are essential for the inspection system’s innovative AI-based navigation algorithm,“ says Thomas Jantos. He opted for the U3-3276LE C-HQ model, a space-saving and cost-effective project camera from the uEye LE family. The integrated Sony Pregius IMX265 sensor is probably the best CMOS image sensor in the 3 MP class and enables a resolution of 3.19 megapixels (2064 x 1544 px) with a frame rate of up to 58.0 fps. The integrated 1/1.8″ global shutter, which does not produce any ‚distorted‘ images at these short exposure times compared to a rolling shutter, is decisive for the performance of the sensor. „To ensure a safe and robust inspection flight, high image quality and frame rates are essential,“ Thomas Jantos emphasises. As a navigation camera, the uEye LE provides the embedded AI with the comprehensive image data that the on-board computer needs to calculate the relative position and orientation with respect to the object to be inspected. Based on this information, the drone is able to correct its pose in real time.

The IDS camera is connected to the on-board computer via a USB3 interface. „With the help of the IDS peak SDK, we can integrate the camera and its functionalities very easily into the ROS (Robot Operating System) and thus into our drone,“ explains Thomas Jantos. IDS peak also enables efficient raw image processing and simple adjustment of recording parameters such as auto exposure, auto white Balancing, auto gain and image downsampling.

To ensure a high level of autonomy, control, mission management, safety monitoring and data recording, the researchers use the source-available CNS Flight Stack on the on-board computer. The CNS Flight Stack includes software modules for navigation, sensor fusion and control algorithms and enables the autonomous execution of reproducible and customisable missions. „The modularity of the CNS Flight Stack and the ROS interfaces enable us to seamlessly integrate our sensors and the AI-based ’state estimator‘ for position detection into the entire stack and thus realise autonomous UAV flights. The functionality of our approach is being analysed and developed using the example of an inspection flight around a power pole in the drone hall at the University of Klagenfurt,“ explains Thomas Jantos.

Visualisation of the flight path of an inspection flight around an electricity pole model with three insulators in the research laboratory at the University of Klagenfurt

Precise, autonomous alignment through sensor fusion
The high-frequency control signals for the drone are generated by the IMU (Inertial Measurement Unit). Sensor fusion with camera data, LIDAR or GNSS (Global Navigation Satellite System) enables real-time navigation and stabilisation of the drone – for example for position corrections or precise alignment with inspection objects. For the Klagenfurt drone, the IMU of the PX4 is used as a dynamic model in an EKF (Extended Kalman Filter). The EKF estimates where the drone should be now based on the last known position, speed and attitude. New data (e.g. from IMU, GNSS or camera) is then recorded at up to 200 Hz and incorprated into the state estimation process.

The camera captures raw images at 50 fps and an image size of 1280 x 960px. „This is the maximum frame rate that we can achieve with our AI model on the drone’s onboard computer,“ explains Thomas Jantos. When the camera is started, an automatic white balance and gain adjustment are carried out once, while the automatic exposure control remains switched off. The EKF compares the prediction and measurement and corrects the estimate accordingly. This ensures that the drone remains stable and can maintain its position autonomously with high precision.

Electricity pole with insulators in the drone hall at the University of Klagenfurt is used for test flights

Outlook
„With regard to research in the field of mobile robots, industrial cameras are necessary for a variety of applications and algorithms. It is important that these cameras are robust, compact, lightweight, fast and have a high resolution. On-device pre-processing (e.g. binning) is also very important, as it saves valuable computing time and resources on the mobile robot,“ emphasises Thomas Jantos.

With corresponding features, IDS cameras are helping to set a new standard in the autonomous inspection of critical infrastructures in this promising research approach, which significantly increases safety, efficiency and data quality.

The Control of Networked Systems (CNS) research group is part of the Institute for Intelligent System Technologies. It is involved in teaching in the English-language Bachelor’s and Master’s programs „Robotics and AI“ and „Information and Communications Engineering (ICE)“ at the University of Klagenfurt. The group’s research focuses on control engineering, state estimation, path and motion planning, modeling of dynamic systems, numerical simulations and the automation of mobile robots in a swarm: More information

uEye LE – the cost-effective, space-saving project camera
Model used:USB3 Vision Industriekamera U3-3276LE Rev.1.2
Camera family: uEye LE

Image rights: Alpen-Adria-Universität (aau) Klagenfurt
© 2025 IDS Imaging Development Systems GmbH