Potenziale KI-gestützter Robotik für die Industrie

Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie und birgt enormes wirtschaftliches Potenzial. Doch ein Blick in deutsche Produktionshallen zeigt noch ein anderes Bild: Lediglich 6,8 Prozent der Unternehmen aus den Bereichen Maschinenbau und Elektrotechnik setzen KI-Technologien ein (Stand 2019). Dabei birgt KI gerade für das produzierende Gewerbe zahlreiche Potenziale.

Künstliche Intelligenz ist ein Überbegriff, der den Ansatz beschreibt, mit Maschinen Probleme zu lösen und menschliche Intelligenz zu imitieren. Dabei spielt insbesondere ein Teilbereich, das Machine Learning (Maschinelles Lernen), in Unternehmen und Produktionen eine entscheidende Rolle. Machine Learning bedeutet, dass ein System aus Beispielen lernt und diese nach der Lernphase verallgemeinern kann.

In der Produktion kommt Machine Learning beispielsweise im Bereich Predictive Analytics zum Einsatz. Dort wird KI als Teil von Vorhersagemodellen zur Überwachung und Wartung von Produktionsanlagen eingesetzt, um frühzeitig auf kritische Zustände reagieren zu können.

Auch das Wissensmanagement greift für die Auswertung von internen Informationen und Daten auf Machine Learning zurück. Daten von Fertigungslinien, Lieferketten, aber auch von einzelnen Produkten werden für Unternehmensprozesse, die Produktentwicklung und neue Geschäftsmodelle ausgewertet. Ohne den Einsatz von KI wäre eine Analyse aufgrund der schieren Datenmenge nicht möglich.

Mit KI und Robotik Handarbeitsplätze automatisieren

Machine Learning, häufig in Kombination mit Machine Vision, kommt auch in den Bereichen Robotik und Automatisierung, Sensorik und bei fahrerlosen Transportsystemen zum Einsatz. Für die Fertigung ist dabei das Zusammenspiel von KI und Robotik ein wichtiger Schlüssel für die Zukunft.

KI-Produkte, wie beispielsweise Robotersteuerungen, ermöglichen es unter anderem, Handarbeitsplätze zu automatisieren. Ein nicht zu vernachlässigender Vorteil, denn Arbeitskräfte sind rar und der Mangel verschärft sich in den Jahren weiter, wie der Deutsche Industrie- und Handelskammertag (DIHK) prognostiziert. Übernehmen Roboter auch Aufgaben, für die es bisher die Flexibilität eines Menschen brauchte, sorgt das für die Entlastung der Stammbelegschaft, eine Auslastung der Maschinen und sichert auf lange Sicht die Wettbewerbsfähigkeit.

Robuster Umgang mit Varianzen

KI-Steuerungen wie MIRAI von Micropsi Industries ergänzen die native Steuerung eines Roboters. Der Roboter erhält dank einer Kamera und einem neuronalen Netzwerk die Auge-Hand-Koordination und eine vergleichbare Flexibilität wie ein Mensch. Ein solches intelligentes Robotersystem lernt bei neuen Aufgaben, bei anders geformten oder positionierten Werkteilen oder bei vergleichbaren Varianzen schnell, was es zu tun hat und passt bei Bedarf seine Bewegungen in Echtzeit eigenständig an. Ob es sich um das Picken einzelner Teile, Zustellbewegungen oder Fügen und Verfolgen handelt: Zahlreiche Tätigkeiten sind mit einer einzigen kleinen Kamera am Roboter-Handgelenk umsetzbar.

Diese Fähigkeiten lassen sich mit MIRAI durch menschliche Demonstration trainieren. Weder KI- noch Programmierkenntnisse sind erforderlich. Das Know-how bleibt selbst ohne KI-Fachkräfte im Unternehmen. Dem Roboter muss dafür das Ziel einige Male in typisch vorkommenden Varianzen mit der Kamera gezeigt werden. Die KI verallgemeinert im Anschluss die gezeigten Daten. Ein solches System kann in wenigen Stunden trainiert und sogar neu trainiert werden. Selbst eine Fertigung im High Mix-/Low-Volume lässt sich so rentabel automatisieren. Was intelligente Robotiklösungen bereits in der Praxis leisten, zeigen die folgenden Beispiele.

Intelligentes Handling-System bei ZF

Der Technologiekonzern ZF stand vor der Herausforderung, die Werkstückzufuhr einer großvolumigen Frässtation, in der Zahnräder produziert werden, zu automatisieren. Im Werkprozess werden Metallringe aus einer Kiste entnommen und auf ein Förderband gelegt, um später in die Produktion der Zahnräder einzufließen. Die Schwierigkeit: Der Produktionsschritt ist sehr variantenreich, da sich die Ringe in der angelieferten Gitterbox verschieben und dadurch zufällig angeordnet sind. Auch Platzierung und Form der Box variieren. Wechselnde Lichtverhältnisse stellen eine zusätzliche Herausforderung dar. Außerdem ist die Oberfläche der Ringe metallisch glänzend, teilweise ölverschmiert oder korrodiert, was eine klassische Automatisierung unmöglich machte.

Heute ist die KI-Steuerung MIRAI und ein Cobot vom Modell UR10e bei ZF in einer automatisierten Werkstückaufnahme im Einsatz. Mit seiner eigenen Steuerung bringt der Cobot sich über den Ringen in der Kiste in Position. Nun übernimmt das MIRAI-System die Kontrolle: Es bewegt den Roboter selbstständig zum nächsten Ring und bringt den Greifer in die korrekte dreidimensionale Greifposition. Danach übernimmt der UR10e wieder, nimmt den Ring auf und bewegt ihn zum Ablegen auf das Förderband. Das komplette Einrichten des Roboters dauerte lediglich wenige Tage – MIRAI löste in kürzester Zeit ein lang bestehendes Problem.

BSH sucht mit KI nach Kältemittellecks

An ihrem spanischen Standort stellt die BSH Hausgeräte GmbH Kühl- und Gefrierschränke her. Im Herstellungsprozess muss das Unternehmen die Kupferrohrleitungen der Kühlschränke auf Leckagen testen. Für die sogenannte Dichtheitsprüfung wird eine Schnüffelsonde entlang der Kupferrohrleitungen und Kompressoren geführt, um Lötstellen auf austretendes Gas und Kältemittel zu prüfen. Das Besondere: Jede Rückseite der hergestellten Kühlschränke ist einzigartig, was Position, Farbe und Form der Lötpunkte angeht. Für einen herkömmlichen Roboter sind solche Varianzen ein unüberwindbares Hindernis. Der monotone Prüfprozess blieb dem Menschen vorbehalten – bis jetzt.

Den Prüfprozess übernimmt bei BSH nun eine Robotik-Komplettlösung den Prüfprozess. Dank der integrierten Robotersteuerung MIRAI ist es dem Roboter möglich, alle zu prüfenden Lötstellen verlässlich zu identifizieren und die Schnüffelsonde millimetergenau heranzuführen – unabhängig von Position, Form oder Farbe. Das System reagiert in Echtzeit auf seine Umwelt und handhabt selbst unvorhergesehene Abweichungen präzise. Die Roboterfähigkeiten wurden von Mitarbeitenden bei BSH durch menschliche Demonstration in nur wenigen Stunden trainiert. Weder Programmier- noch KI-Kenntnisse waren erforderlich. BSH konnte mit der Automatisierungslösung die laufenden Betriebskosten senken und Wartungen und Fehlerbehebungen reduzieren.

Neue Technologien als Wettbewerbsvorteil

Die Beispiele zeigen, dass Unternehmen mit KI sehr viel bewirken können: KI ermöglicht mehr Flexibilität, Unabhängigkeit, Effizienz und nicht zuletzt Resilienz. Nicht unwichtig in Zeiten wie diesen. Neue Technologien sollte dabei als Türöffner zu mehr Automatisierung verstanden werden. Leistungen, die bislang von Menschen oder Maschinen erbracht wurden, können nun von einer Software geliefert werden. Das ist nicht nur vorteilhaft beim drastisch zunehmenden Arbeitskräftemangel. Es erhöht auch die Flexibilität, Nachvollziehbarkeit und Zuverlässigkeit von Produktionsprozessen und verschafft einen dauerhaften Wettbewerbsvorsprung.

Weitere Informationen unter: https://bit.ly/MicropsiIndustries

In Celebration of National Robotics Week, iRobot® Launches the Create® 3 Educational Robot

Robot’s Smartest Developer Platform, Now with ROS 2 and Python Support

BEDFORD, Mass., April 5, 2022 /PRNewswire/ — iRobot Corp. (NASDAQ: IRBT), a leader in consumer robots, today is expanding its educational product lineup with the launch of the Create® 3 educational robot – the company’s most capable developer platform to date. Based on the Roomba® i3 Series robot vacuum platform, Create 3 provides educators and advanced makers with a reliable, out of the box alternative to costly and labor-intensive robotics kits that require assembly and testing. Instead of cleaning people’s homes,1 the robot is designed to promote higher-level exploration for those seeking to advance their education or career in robotics.

In Celebration of National Robotics Week, iRobot launched the Create® 3 Educational Robot – the company’s most capable developer platform to date. Now with ROS 2 and Python Support, Create 3 provides educators and advanced makers with a reliable, out of the box alternative to costly and labor-intensive robotics kits that require assembly and testing. Create 3 is designed to promote higher-level exploration for those seeking to advance their education or career in robotics.

The launch of Create 3 coincides with National Robotics Week, which began April 2 and runs through April 10, 2022. National Robotics Week, founded and organized by iRobot, is a time to inspire students about robotics and STEM-related fields, and to share the excitement of robotics with audiences of all ages through a range of in-person and virtual events.

„iRobot is committed to delivering STEM tools to all levels of the educational community, empowering the next generation of engineers, scientists and enthusiasts to do more,“ said Colin Angle, chairman and CEO of iRobot. „The advanced capabilities we’ve made available on Create 3 enable higher-level students, educators and developers to be in the driver’s seat of robotics exploration, allowing them to one day discover new ways for robots to benefit society.“

With ROS 2 support, forget about building the platform, and focus on your application: 
The next generation of iRobot’s affordable and trusted all-in-one mobile robot development platform, Create 3 brings a variety of new functionalities to users, including compatibility with ROS 2, an industry-standard software for roboticists worldwide. Robots require many different components, such as actuators, sensors and control systems, to communicate with each other in order to work. ROS 2 enables this communication, allowing students to speed up the development of their project by focusing more on their core application rather than the platform itself. Learning ROS 2 also gives students valuable experience that many companies are seeking from robotics developers.

Expand your coding skills even further with Python support:
iRobot also released a Python Web Playground for its iRobot Root® and Create 3 educational robots, providing a bridge for beginners to begin learning more advanced programming skills outside of the iRobot Coding App. Python, a commonly used coding language, enables users to broaden the complexity of projects that they work on. The iRobot Education Python Web Playground allows advanced learners and educators to program the iRobot Root and Create 3 educational robots with a common library written in Python. This provides users with a pathway to learn a new coding language, opening the door to further innovation and career development.

With more smarts, Create 3 lets you do more:
As a connected robot, Create 3 comes equipped with Wi-Fi, Ethernet-over-USB host, and Bluetooth. Create 3 is also equipped with a suite of intelligent technology, including an inertial measurement unit (IMU), optical floor tracking sensor, wheel encoders, and infrared sensors for autonomous localization, navigation, and telepresence applications. Additionally, the robot includes cliff, bump and slip detection, along with LED lights and a speaker.

A 3D simulation of Create 3 is also available using Ignition Gazebo for increased access to robotics education and research.

Create 3 Pricing and Availability
Create 3 is available immediately in the US and Canada for $299 USD and $399 CAD. It will be available in EMEA through authorized distributors in the coming months. Additional details can be found at https://edu.irobot.com/what-we-offer/create3.

iRobot Education Python Web Playground Availability
The iRobot Education Python Web Playground can be accessed in-browser at python.irobot.com.

Further development of IDS NXT ocean: focus on user-friendliness and AI transparency

All-in-one embedded vision platform with new tools and functions

(PresseBox) (ObersulmAt IDS, image processing with artificial intelligence does not just mean that AI runs directly on cameras and users also have enormous design options through vision apps. Rather, with the IDS NXT ocean embedded vision platform, customers receive all the necessary, coordinated tools and workflows to realise their own AI vision applications without prior knowledge and to run them directly on the IDS NXT industrial cameras. Now follows the next free software update for the AI package. In addition to the topic of user-friendliness, the focus is also on making artificial intelligence clear and comprehensible for the user.

An all-in-one system such as IDS NXT ocean, which has integrated computing power and artificial intelligence thanks to the „deep ocean core“ developed by IDS, is ideally suited for entry into AI Vision. It requires no prior knowledge of deep learning or camera programming. The current software update makes setting up, deploying and controlling the intelligent cameras in the IDS NXT cockpit even easier. For this purpose, among other things, an ROI editor is integrated with which users can freely draw the image areas to be evaluated and configure, save and reuse them as custom grids with many parameters. In addition, the new tools Attention Maps and Confusion Matrix illustrate how the AI works in the cameras and what decisions it makes. This helps to clarify the process and enables the user to evaluate the quality of a trained neural network and to improve it through targeted retraining. Data security also plays an important role in the industrial use of artificial intelligence. As of the current update, communication between IDS NXT cameras and system components can therefore be encrypted via HTTPS.

Just get started with the IDS NXT ocean Creative Kit

Anyone who wants to test the industrial-grade embedded vision platform IDS NXT ocean and evaluate its potential for their own applications should take a look at the IDS NXT ocean Creative Kit. It provides customers with all the components they need to create, train and run a neural network. In addition to an IDS NXT industrial camera with 1.6 MP Sony sensor, lens, cable and tripod adapter, the package includes six months‘ access to the AI training software IDS NXT lighthouse. Currently, IDS is offering the set in a special promotion at particularly favourable conditions. Promotion page: https://en.ids-imaging.com/ids-nxt-ocean-creative-kit.html.

Learn more: www.ids-nxt.com

LattePanda 3 Delta- the User-friendly and Cost-effective hackable Computer for your Mega Creativity

The LattePanda team launched its new generation of LattePanda 3 Delta on Kickstarter on November the 2nd 2021. The crowd funding campaign has already blasted past its required pledge goal raising over $200,989 thanks to over 731 backers with still 3 days remaining. Building on the company’s previous mini PC systems, the new LattePanda 3 Delta computer is powered by the latest Intel 11th generation N5105 mobile quad-core processor offering up to 2.9GHz burst frequency. The ultra-thin design measures just 16 mm in thickness, enabling you to use the small form factor mini PC for a wealth of different projects.

Hardware and Spec

The LattePanda 3 Delta is a 125 mm x 78 mm x 16mm Single Board Computer with CPU, memory, storage and Arduino components on the one side while up to 42 expandable interfaces for peripherals and GPIOs sit on the other. The added bonus of having a Gigabit Ethernet port onboard guarantees the device can connect to the Internet at extremely high speed.

Key Specification:

Processor: Intel N5105

            CPU: 4-Core, 4-Thread, 4MB L3 Cache, 2.00~2.90 GHz

            GPU: Intel UHD Graphics, 24 EUs, 450~800 MHz

Memory: 8GB LPDDR4 2933MHz RAM

Storage: 64GB eMMC

External Storage:

            M.2 M Key: PCIe3.0 x2, Support NVME SSD;

            M.2 B Key: SATA3, Support SATA SSD;

            TF Slot: Support TF Card

Connectivity:

            WiFi6(802.11ax): Intel AX201, up to 2.4Gbps

            Bluetooth 5.2;

            Gigabit Ethernet: Intel I211-AT, up to 1.0Gbps

Exteral Connectivity: M.2 B Key

            USB2.0 lane: Support 4G Module; 

            USB3.0 lane: Support 5G Module

Video Output:

            HDMI 2.0b;

            DP 1.4 (via USB Type C);

            eDP(with touch)

Audio I/O:

            3.5mm Audio Jack(with Mic);

            2.54mm Female Header

USB Port:

            1x USB 3.2 gen2 x1;

            2x USB 3.2 gen1 x1;

            1x USB Type C

OS Support:

             Windows 10;

             Windows 11;

             Linux Ubuntu

Co-processor: Atmel ATmega32U4

Power Input:  

            USB Type C PD;

            12V DC

GPIO Female Header:

       2x 50pin GPIOs: including Audio Output, USB2.0, RS232, RTC, Power Management, Status Indication, Arduino Pinout, 5V&3.3V Power Output, etc.

In Use

LattePanda 3 Delta has an Intel Celeron N5105, a Windows 10 processor that replaces the Celeron N4100. The Celeron N5105 features improved UHD Graphics and higher performance than the Celeron N4100. LattePanda 3 Delta offers 2x better processing performance and 3x faster graphics performance. With such excellent performance, you can use it to watch 4K HDR videos smoothly and even play some heavy games. 

LattePanda 3 Delta contains up to 8 GB of LPDDR4 RAM and 64 GB of eMMC 5.1 flash storage, which ensures that you can load a large number of web pages in Chrome, or run multiple virtual machines fastly and smoothly.

LattePanda 3 Delta uses Wi-Fi 6 whose transfer speed is 2.7 times faster than Wi-Fi 5. Besides, LattePanda 3 Delta has a Gigabit Ethernet port onboard. You can connect to the Internet at extremely high speed.

LattePanda 3 Delta is compatible with both Windows 10 and Linux OS. Windows 11 can also be run on LattePanda 3 Delta. You can select various OS freely based on your project. No matter what operating system you use, the blue screen or crash is inevitable. LattePanda 3 Delta designs a “Watchdog Timer”. When some problems occur, LattePanda 3 Delta will restart automatically and go back to work normally.

For those applications relying on battery, independent control of the power of all the USB ports and other power connectors are essential. LattePanda 3 Delta has made it possible. You can control the USB power and 5V power ON or OFF based on your project.

Being a hackable computer, the LattePanda 3 Delta is a perfect solution for home automation projects, robotics, in car entertainment systems, education and smart industrial systems. Below is a quick overview of all the available Kickstarter packages, components, operating systems, and pricing.

Pledges are still available from £169 or roughly $229 or CAD $284 and shipping is expected to take place during March 2022. Options are available to receive the computer with Windows 10 Pro operating system license for a little extra as well as being available with a UPS HAT for £206 or $279 or CAD $346 with shipping expected to be a month later during April 2022.For more information, full specifications and purchasing options jump over to the official Kickstarter crowdfunding campaign page by following the link below.

KI ist mehr als nur ein Modell: Vier Schritte zum vollständigen Workflow-Erfolg

Ingenieur*innen sind zunehmend bestrebt, KI erfolgreich in Projekte und Anwendungen zu integrieren, während sie versuchen, ihre eigene KI-Lernkurve zu meistern. Allerdings werden viele KI-Projekte nach wenig vielversprechenden Ergebnissen wieder verworfen. Woran liegt das? Johanna Pingel, Product Marketing Manager bei MathWorks, erläutert, warum es für Ingenieur*innen wichtig ist, sich auf den gesamten KI-Workflow zu konzentrieren und nicht nur auf die Modellentwicklung:

Ingenieur*innen, die Machine Learning und Deep Learning einsetzen, erwarten oft, dass sie einen großen Teil ihrer Zeit mit der Entwicklung und Feinabstimmung von KI-Modellen verbringen. Die Modellierung ist zwar ein wichtiger Schritt im Workflow, aber das Modell ist nicht alleiniges Ziel. Das Schlüsselelement für den Erfolg bei der praktischen KI-Implementierung ist das frühzeitige Aufdecken von Problemen. Außerdem ist es wichtig zu wissen, auf welche Aspekte des Workflows man Zeit und Ressourcen konzentrieren sollte, um die besten Ergebnisse zu erzielen. Das sind nicht immer die offensichtlichsten Schritte.

Der KI-gesteuerte Workflow

Es lassen sich vier Schritte in einem KI-gesteuerten Workflow differenzieren, wobei jeder Schritt seine eigene Rolle bei der erfolgreichen Implementierung von KI in einem Projekt spielt.
 

Schritt 1: Datenaufbereitung

Die Datenaufbereitung ist wohl der wichtigste Schritt im KI-Workflow: Ohne robuste und genaue Daten zum Trainieren eines Modells sind Projekte rasch zum Scheitern verurteilt. Wenn Ingenieur*innen das Modell mit „schlechten“ Daten füttern, werden sie keine aufschlussreichen Ergebnisse erhalten – und wahrscheinlich viele Stunden damit verbringen, herauszufinden, warum das Modell nicht funktioniert.

Um ein Modell zu trainieren, sollten Ingenieur*innen mit sauberen, gelabelten Daten beginnen, und zwar mit so vielen wie möglich. Dies kann einer der zeitaufwendigsten Schritte des Workflows sein. Wenn Deep Learning-Modelle nicht wie erwartet funktionieren, konzentrieren sich viele darauf, wie man das Modell verbessern kann – durch das Optimieren von Parametern, die Feinabstimmung des Modells und mehrere Trainingsiterationen. Doch noch viel wichtiger ist die Aufbereitung und das korrekte Labeln der Eingabedaten. Das darf nicht vernachlässigt werden, um sicherzustellen, dass Daten korrekt vom Modell verstanden werden können.
 

Schritt 2: KI-Modellierung

Sobald die Daten sauber und richtig gelabelt sind, kann zur Modellierungsphase des Workflows übergegangen werden. Hierbei werden die Daten als Input verwendet und das Modell lernt aus diesen Daten. Das Ziel einer erfolgreichen Modellierungsphase ist die Erstellung eines robusten, genauen Modells, das intelligente Entscheidungen auf Basis der Daten treffen kann. Dies ist auch der Punkt, an dem Deep Learning, Machine Learning oder eine Kombination davon in den Arbeitsablauf einfließt. Hier entscheiden die Ingenieur*innen, welche Methoden das präziseste und robusteste Ergebnis hervorbringt.

Die KI-Modellierung ist ein iterativer Schritt innerhalb des gesamten Workflows, und Ingenieur*innen müssen die Änderungen, die sie während dieses Schrittes am Modell vornehmen, nachverfolgen können. Die Nachverfolgung von Änderungen und die Aufzeichnung von Trainingsiterationen mit Tools wie dem Experiment Manager von MathWorks sind entscheidend, da sie helfen die Parameter zu erklären, die zum genauesten Modell führen und reproduzierbare Ergebnisse liefern.
 

Schritt 3: Simulation und Tests

Ingenieur*innen müssen beachten, dass KI-Elemente meistens nur ein kleiner Teil eines größeren Systems sind. Sie müssen in allen Szenarien im Zusammenspiel mit anderen Teilen des Endprodukts korrekt funktionieren, einschließlich anderer Sensoren und Algorithmen wie Steuerung, Signalverarbeitung und Sensorfusion. Ein Beispiel ist hier ein Szenario für automatisiertes Fahren: Dabei handelt es sich nicht nur um ein System zur Erkennung von Objekten (Fußgänger*innen, Autos, Stoppschilder), sondern dieses System muss mit anderen Systemen zur Lokalisierung, Wegplanung, Steuerung und weiteren integriert werden. Simulationen und Genauigkeitstests sind der Schlüssel, um sicherzustellen, dass das KI-Modell richtig funktioniert und alles gut mit anderen Systemen harmoniert, bevor ein Modell in der realen Welt eingesetzt wird.

Um diesen Grad an Genauigkeit und Robustheit vor dem Einsatz zu erreichen, müssen Ingenieur*innen validieren, dass das Modell in jeder Situation so reagiert, wie es soll. Sie sollten sich auch mit den Fragen befassen, wie exakt das Modell insgesamt ist und ob alle Randfälle abgedeckt sind. Durch den Einsatz von Werkzeugen wie Simulink können Ingenieur*innen überprüfen, ob das Modell für alle erwarteten Anwendungsfälle wie gewünscht funktioniert, und so kosten- und zeitintensive Überarbeitungen vermeiden.
 

Schritt 4: Einsatz

Ist das Modell reif für die Bereitstellung, folgt als nächster Schritt der Einsatz auf der Zielhardware – mit anderen Worten, die Bereitstellung des Modells in der endgültigen Sprache, in der es implementiert werden soll. Das erfordert in der Regel, dass die Entwicklungsingenieur*innen ein implementierungsbereites Modell nutzen, um es in die vorgesehene Hardwareumgebung einzupassen.

Die vorgesehene Hardwareumgebung kann vom Desktop über die Cloud bis hin zu FPGAs reichen. Mithilfe von flexiblen Werkzeugen wie MATLAB kann der endgültige Code für alle Szenarien generiert werden. Das bietet Ingenieur*innen den Spielraum, ihr Modell in einer Vielzahl von Umgebungen einzusetzen, ohne den ursprünglichen Code neu schreiben zu müssen. Das Deployment eines Modells direkt auf einer GPU kann hier als Beispiel dienen: Die automatische Codegenerierung eliminiert Codierungsfehler, die durch eine manuelle Übersetzung entstehen könnten, und liefert hochoptimierten CUDA-Code, der effizient auf der GPU läuft.

Gemeinsam stärker

Ingenieur*innen müssen keine Datenwissenschaftler*innen oder gar KI-Expert*innen werden, um mit KI erfolgreich zu sein. Mit Werkzeugen für die Datenaufbereitung, Anwendungen zur Integration von KI in ihre Arbeitsabläufe und mit verfügbaren Expert*innen, die Fragen zur KI-Integration beantworten, können sie KI-Modelle auf Erfolgskurs bringen. In jedem dieser Schritte im Workflow haben Ingenieur*innen die Möglichkeit, flexibel ihr eigenes Domänenwissen einzubringen. Dies ist eine wichtige Basis, auf der sie mit den richtigen Ressourcen aufbauen und die sie durch KI ergänzen können.

Über MathWorks

MathWorks ist der führende Entwickler von Software für mathematische Berechnungen. MATLAB, die Programmiersprache für Ingenieurwesen und Wissenschaft, ist eine Programmierumgebung für die Algorithmen-Entwicklung, Analyse und Visualisierung von Daten sowie für numerische Berechnungen. Simulink ist eine Blockdiagramm-basierte Entwicklungsumgebung für die Simulation und das Model-Based Design von technischen Mehrdomänen-Systemen und Embedded Systemen. Ingenieure und Wissenschaftler weltweit setzen diese Produktfamilien ein, um die Forschung sowie Innovationen und Entwicklungen in der Automobilindustrie, der Luft- und Raumfahrt, der Elektronik, dem Finanzwesen, der Biotechnologie und weiteren Industriezweigen zu beschleunigen. MATLAB und Simulink sind zudem an Universitäten und Forschungsinstituten weltweit wichtige Lehr- und Forschungswerkzeuge. MathWorks wurde 1984 gegründet und beschäftigt mehr als 5000 Mitarbeiter in 16 Ländern. Der Hauptsitz des Unternehmens ist Natick, Massachusetts, in den USA. Lokale Niederlassungen in der D-A-CH-Region befinden sich in Aachen, München, Paderborn, Stuttgart und Bern. Weitere Informationen finden Sie unter mathworks.com.

Fraunhofer IAIS und Dr. Hans Riegel-Stiftung realisieren erste 3D-Simulation zu Roboter-Programmierungen im Open Roberta Lab

Seit rund vier Jahren arbeiten das Fraunhofer-Institut für Intelligente Analyse- und Informations-systeme IAIS und die Dr. Hans Riegel-Stiftung im Rahmen ihrer Projekte »Open Roberta®« und »TouchTomorrow« zusammen, um junge Menschen für Coding & Co. zu begeistern. Das jüngste Ergebnis der Zusammenarbeit ist die erste 3D-Simulation des humanoiden Roboters NAO für die Open-Source-Plattform »Open Roberta Lab«. NAO ist mit Anschaffungskosten von mehreren tausend Euro im Vergleich zu anderen Mikrocontrollern und Hardware-Systemen wie Calliope mini oder LEGO Mindstorms sehr teuer und deshalb in Privathaushalten oder auch in Schulen kaum vertreten. Ab sofort haben Open-Roberta-Fans die Möglichkeit, die anschaulichen Programmiermöglichkeiten des NAO in einer 3D-Simulation auszuprobieren und zu erlernen. Schon jetzt ist das Open Roberta Lab in mehr als 20 Sprachen verfügbar und wird in über 100 Ländern von ca. 500 000 Personen pro Monat genutzt – mit dem 3D-Roboter steigt die Attraktivität der Programmierplattform um ein weiteres Highlight.

Das »Open Roberta Lab« ist eine frei verfügbare grafische Programmierplattform, die das Programmieren lernen leicht macht. Auf der Open-Source-Plattform der Initiative »Roberta® – Lernen mit Robotern« des Fraunhofer IAIS erstellen selbst Neulinge im Handumdrehen erste Programme per »drag and drop«. Die Besonderheit: Im Open Roberta Lab erwachen reale Roboter und Mikrocontroller zum Leben. »Hands-on« erlernen Nachwuchs-Programmiererinnen und -Programmierer die Grundlagen des Codens und entdecken spielerisch die unzähligen Möglichkeiten, die die Welt der Technik und Naturwissenschaften für sie bereithält.

Unter den aktuell 14 Roboter- und Hardware-Systemen, die im Open Roberta Lab programmiert werden können, ist der humanoide Roboter NAO mit seinen 25 Bewegungsgraden, umfangreicher Sensorik und einem Kaufpreis von mehr als 5000 Euro die komplexeste und teuerste Variante. Gleichzeitig ist es natürlich besonders spannend, einen humanoiden Roboter programmieren zu können. Aus diesem Grund haben das Fraunhofer IAIS und Dr. Hans Riegel-Stiftung nun eine erste 3D-Simulation für die Plattform integriert, so dass sich die Nutzer*innen auch ohne teure Hardware die Resultate ihrer Programmierungen in einer detaillierten Simulation anschauen können. Dies soll u. a. zusätzliche Erfolgserlebnisse ermöglichen und damit die Motivation steigern.

Das erste Tutorial mit 3D-Simulation steht ab sofort auf https://lab.open-roberta.org/ zur Verfügung.

Weitere Kooperationen von Fraunhofer IAIS und Dr. Hans Riegel-Stiftung

Begonnen hat die Zusammenarbeit im Rahmen der Entwicklung des »TouchTomorrow-Trucks« der Dr. Hans Riegel-Stiftung, der bundesweit an Schulen fährt, um Schülerinnen und Schüler durch das Erleben und Ausprobieren von Zukunftstechnologien für Bildungs- und Berufswege im MINT-Bereich (Mathematik, Informatik, Naturwissenschaft, Technik) zu begeistern. Eine von acht Themenstationen im Truck befasst sich mit humanoiden Robotern. Schülerinnen und Schüler können dort dank mehrerer vom Fraunhofer IAIS entwickelter Tutorials einen echten NAO-Roboter programmieren. Neben dem Truck sind in den vergangenen Jahren weitere Angebote entstanden: u. a. »TouchTomorrow-Teaching« mit Unterrichtsmaterial und Fortbildungen für Lehrkräfte, »TouchTomorrow-Stream« als Livestream-Dialogformat für Distanz-Lehranlässe wie Covid-19 und das »TouchTomorrow-Lab« im Deutschen Museum Bonn.

Das Deutsche Museum Bonn ist einer von fünf »Open Roberta Coding Hubs« in NRW. Dies sind außerschulische Lernorte, die mit Hardware wie Robotern und Laptops ausgestattet und deren Personal vom Roberta-Team des Fraunhofer IAIS vor Ort zu Roberta-Teachern ausgebildet werden. Das TouchTomorrow-Lab im Deutschen Museum Bonn bietet eine ideale Kulisse für die diversen Workshops in diesem Kontext.

Beate Jost, Technische Leiterin der Roberta-Initiative und Wissenschaftlerin am Fraunhofer IAIS: »Wir freuen uns, dass unsere langjährige Kooperation mit der Dr. Hans Riegel-Stiftung nun in eine neue Phase geht. Mit der neuen NAO-Simulation haben Programmier-Fans und vor allem Schulen ab sofort die Gelegenheit, spannende Experimente mit humanoiden Robotern auszuprobieren, ohne dafür gleich tief in die Geldbörse greifen zu müssen.«

UDOO KEY hits the $10,000 Kickstarter goal in 90 minutes

UDOO KEY, the world’s most flexible AI platform, is a brand-new AI-first solution based on Raspberry Pi RP2040 and ESP32. It enables machine learning applications in the most popular programming languages and libraries, including TinyML, TensorFlow Lite, MicroPython, C, C++ etc. The board, designed for Edge AI projects, marks the fifth crowdfunding campaign by UDOO, which already raised more than 2 million dollars in previous Kickstarter campaigns.

Link to the campaign: key.udoo.org

UDOO KEY combines Raspberry Pi RP2040 and a fully programmable ESP32 into a single powerful piece of hardware. The board comes in two versions: UDOO KEY and UDOO KEY PRO. Both feature Wi-Fi, Bluetooth and BLE; UDOO KEY PRO also features a 9-axis IMU and a digital microphone. The board is fully compatible, both hardware and software-wise, with Raspberry Pi Pico and ESP32.

UDOO KEY also grants access to Clea, the upcoming AI as a service platform by SECO Mind, SECO’s daughter company. Clea is an extensible AI & IoT platform for professional developers, startups, R&D departments and hobbyists. . It allows users to quickly build, monitor and deploy Artificial Intelligence models and apps over a fleet of remote-controlled devices. It comes with a set of pre-built AI models and apps called Clea Apps, all developed by SECO. Last but not least, it’s natively compatible with UDOO KEY, Raspberry Pi as well as Arm and x86 processors. 

Maurizio Caporali, Co-CEO of SECO Mind, said, „Today, AI is very misunderstood. Many AI use cases don’t require a powerful processing unit, and that’s where UDOO KEY comes in. For the first time ever in the world of Edge AI, the user has the option to build an AI project on their terms, using either Raspberry Pi RP2040, ESP32, or both. Several companies we are in touch with find it difficult to take advantage of the AI revolution. UDOO KEY and Clea make this as easy as it gets.”

Shipping will start in January 2022. The Early Bird UDOO KEY is available at $4, while the Early Bird UDOO KEY PRO is available at $9. Both are limited to 1,000 units. 

UDOO has also made available two special kits, built in collaboration with two equally special companies: Arducam and Seeed Studio. 

The first kit, in collaboration with Arducam, is named „Early Bird UDOO KEY PRO Cam Kit + Clea “ and includes 1x UDOO KEY PRO, a 2MB SPI Camera and access to Clea.

The second kit, in collaboration with SeeedStudio, is named “Early Bird UDOO KEY PRO Grove Kit + Clea” and includes 1x UDOO KEY PRO, access to Clea and 14 handpicked Grove Modules, including 5 sensors/ 5 actuators/ 2LED/ 1 LCD display/ 1 Grove shield.

More details on UDOO KEY

The Raspberry Pi Pico-compatible part of UDOO KEY is built upon a Raspberry PI RP2040 dual Arm Cortex-M0, featuring a QSPI 8MB flash memory, 133 MHZ clock, and 264KB of on-chip SRAM.  The ESP32 is based on a dual-core Xtensa 32-bit LX6, with 16 MB flash memory, 8MB PSRAM, Wi-Fi, Bluetooth and Bluetooth Low Energy. The two microcontrollers can talk to each other via serial port and SWD.

The user can program the two microcontrollers in an easy way via a USB-C connector and decide whether to talk with RP2040 or ESP32 via jumper. The UDOO KEY provides many more interfaces: three fully programmable LEDs, and the same pinout of Raspberry Pi Pico, making it 100% compatible with it, both hardware and software-wise. Last but not least, the UEXT connector is accessible from the ESP32, which exposes the I2C, UART and SPI interfaces.

The UDOO KEY also mounts two powerful sensors: a 9-axis IMU and a digital microphone, plus a standard UEXT connector to easily add sensors and other interfaces. Thanks to the on-board ESP32 microcontroller, the UDOO KEY features full Wi-Fi 802.11b/g/n connectivity, Bluetooth and BLE v4.2.  

Link to the Campaign: key.udoo.org

Robotics-Pakete für den Unterricht

fischertechnik bietet verschiedene Robotics-Sets

Mit dem ROBOTICS TXT 4.0 Base Set von fischertechnik lassen sich komplexe Technologien aus dem Alltag im Unterricht spielerisch erlernen. Vier Ergänzungssets ermöglichen darüber hinaus das Eintauchen in die Welt des autonomen Fahrens, in Roboterprogrammierung und in Internet of Things. Mit dem Set „Competition“ lassen sich zudem spannende Aufgaben bei Robotics-Wettbewerben oder -Projekten umsetzen.

Das fischertechnik ROBOTICS TXT 4.0 Base Set ist der perfekte Start, um zu programmieren wie die Profis. Der umfangreiche Baukasten enthält neben der Kamera mit Bildverarbeitung einen Ultraschallsensor, zwei Encodermotoren, einen Spursensor, einen Fototransistor sowie zwei Taster und drei LEDs. Die Modelle können mit der Programmiersoftware ROBO Pro Coding und dem ROBOTICS TXT 4.0 Controller programmiert und gesteuert werden. Einsteiger können auf fertige Beispielprogramme zurückgreifen und in der Blockly-Programmierumgebung ROBO Pro Coding grafisch programmieren, Fortgeschrittene und Profis können darüber hinaus direkt in Python loslegen. Mit der zusätzlichen App fischertechnik Voice Control (Android/ iOS) kann der TXT 4.0 Controller auch über Spracherkennung gesteuert werden. Enthalten sind zwölf spannende Modelle, die von der Fußgängerampel über eine Schranke, einen Barcodescanner bis hin zu mobilen Fahrrobotern mit Encodermotoren, Kamera, Spur- und Abstandssensor reichen. Das umfangreiche Lehrmaterial beinhaltet neben Einführungs- und Basisinformationen 25 Experimente mit Lösungen.



Das fischertechnik ROBOTICS TXT 4.0 Base Set stellt die Basis für den Einsatz im Regelunterricht dar: Controller, Software, Stromversorgung, Aktoren und Sensoren und viele Grundbausteine sind hier enthalten. Das Set wird in einer stabilen Box geliefert, die sich für Einsatz im Regelunterricht sowie auch für Projektarbeiten bestens eignet. Die separat erhältlichen vier Add On Sets erweitern das TXT 4.0 Base Set um ihren jeweiligen Schwerpunkt und können übersichtlich in der unteren, dafür vorgesehenen Wanne integriert werden.

Die Add On-Erweiterungssets umfassen spezifische Hightech-Themen wie autonomes Fahren, Omniwheels und IoT (Internet of Things) sowie Robotics-Wettbewerbe. Damit können attraktive Modelle wie ein autonom fahrendes Auto, ein Fußballroboter oder eine Sensorstation mit beweglicher Kamera zur Messung von Temperatur, Luftfeuchtigkeit, Luftdruck, Luftqualität und Helligkeit konstruiert werden. 

Mit dem ROBOTICS Add On Autonomous Driving lässt sich das Auto der Zukunft selbst bauen und programmieren. Es bietet die Möglichkeit, zusammen mit dem ROBOTICS TXT 4.0 Base Set viele spannende Techniken zu entdecken: Von der Lichtautomatik über einen Spurhalteassistenten, vom Tempomat bis zur Einparkautomatik – das Modell garantiert begeisterte Augen im Unterricht. Der Baukasten enthält neben einem Differenzialgetriebe zwei zusätzliche Räder, LEDs sowie einen Servo-Motor für die Lenkung. Das Add On Autonomous Driving wird durch das Lehrmaterial, das Aufgaben und Experimente mit zugehörigen Lösungen enthält, abgerundet.

Das Add On Omniwheels ermöglicht zusammen mit dem ROBOTICS TXT 4.0 Base Set das Konstruieren verschiedener Modelle mit Allseitenantrieb: Fahrroboter mit verschiedenen Aufgabenstellungen, zum Beispiel ein Fußballroboter, ein Ballwurfroboter, der Zielscheiben erkennt und präzise trifft und ein Malroboter mit Stift, der abgesenkt und angehoben werden kann. Das Highlight des Baukastens sind die Omniwheels, die von vier Encodermotoren angetrieben werden und so eine Bewegung in verschiedene Richtungen ermöglichen. Die im TXT 4.0 Base Set enthaltene Kamera ermöglicht Bildverarbeitung, durch die beispielsweise der Fußballroboter einen Ball erkennen, ihm folgen und Tore schießen kann.

Einen professionellen Einstieg in die Messwerterfassung bietet das Ergänzungsset ROBOTICS Add On IoT. Zusammen mit den Robotics TXT 4.0 Base Set ermöglicht die Sensorstation die Messung von Temperatur, Luftfeuchtigkeit, Luftdruck, Luftqualität und Helligkeit. Die Sensorstation kann mit der Programmiersoftware ROBO Pro Coding und dem ROBOTICS TXT 4.0 Controller programmiert und gesteuert werden und ist ideal, um Themen wie Messwerterfassung und -übertragung sowie das Steuern und Regeln von Aktoren und Sensoren zu vermitteln. Die Messwerterfassung erfolgt über die Verbindung des TXT 4.0 Controllers mit der fischertechnik-Cloud, in der die Sensordaten gespeichert, gesammelt und grafisch dargestellt werden. Über die Bedienoberfläche, dem sogenannten Dashboard, werden die verschiedenen Sensordaten permanent (in Echtzeit) erfasst und die in zwei Achsen schwenkbare Kamera ferngesteuert. Das Lehrmaterial des Add On IoT enthält sechs Experimente mit dazugehörigen Lösungen.



Das ROBOTICS Add On Competition wurde für Schulen, Universitäten und alle Bildungseinrichtungen entwickelt, die ihre Modelle für Robotics-Wettbewerbe für ihre Schüler und Studenten weiterentwickeln oder verbessern möchten. Mit diesem Set lassen sich Modelle tunen und um neue Features erweitern, was diesen Baukasten zur perfekten Ergänzung für Wettbewerbe auf der ganzen Welt macht. Das Set enthält den neuen RGB-Gestensensor, einen Kombisensor (Gyroskop, Beschleunigung und Kompass), einen Ultraschallsensor, zwei stärkere Encodermotoren sowie Kettenglieder und Rastraupenbeläge für das Fahrgestell eines Raupenroboters – ideal für den Bau wettbewerbsfähiger Fahrroboter.

European Startup Launches STEM-based Autonomous Batmobile™

After three successful and delivered Kickstarter Campaigns, CircuitMess Launches Kickstarter  to Encourage Fans Age 7 and up to Create their own Autonomous Batmobile

Zagreb, Croatia – October 5, 2021 – Today, CircuitMess announced its licensing deal with Warner Brothers and its Kickstarter campaign for the CircuitMess Batmobile™, designed to teach children seven and up about engineering and autonomous driving.

“CircuitMess is truly inspiring,” says Francois Simonetta, Vice President at Warner Bros. Consumer Products EMEA Agents. “Turning toys into elaborate STEM kits that teach both electronics and coding is a great way to encourage kids to learn STEM by doing what is most natural to them: playing. We are excited that the CircuitMess Batmobile is their next and greatest STEM kit so far.”

In their efforts to become the world’s most inspiring STEM toys brand, CircuitMess has developed numerous educational products that encourage kids and adults to create rather than just consume. This includes MAKERbuino – a DIY game console, MAKERphone – a DIY mobile phone, and STEM Box – a STEM projects subscription.

 “We love the kits that we’ve been able to create for the crowdfunding community and want to continue to offer it to them first,” says Alber Gajšak, CEO of CircuitMess. “With three successful Kickstarters that have raised more than $850k in total, we have been able to get proven interest and traction for our special kits and deliver exciting projects to people all over the world.”

No previous experience or knowledge should be needed to become a true STEM Superhero. The kit is designed for anyone 7 and older with complete instructions.

The tasks include: learning how autonomous vehicles work, how to code a microcomputer, how computers track objects, and developing your own computer vision algorithm.

Since its start in 2017, CircuitMess has delivered more than 50.000 devices to customers all around the globe. Over the past 4 years in creating STEM kits, CircuitMess has put a focus on introducing these technologies in a fun, simple, easy-to-understand, and most importantly, hands-on way.

The CircuitMess Batmobile Kickstarter is available for pre-order now and will have a starting price of US $99. You can visit the Kickstarter page here. and the CircuitMess website to see all their other kits here.