fischertechnik Design Studio allows you to build models on the web

The groundbreaking fischertechnik Design Studio now offers the opportunity to create models online with fischertechnik building blocks. All components from the current range are available in the new ft Design Studio in 3D format. The result is impressive virtual buildings that can be viewed from all sides, just like in a real design office.

The cool fischertechnik Design Studio brings fun and games into the children’s room, trains spatial thinking and stimulates creativity. The children are immersed in a digital world where they can combine building blocks and create fascinating 3D models. The buildings created can be effortlessly rotated and viewed from different angles. Photo modes can be used to capture the constructions and compare them with other buildings. Once logged in, you have the opportunity to exchange ideas with other creative members of the fischertechnik design community.

After the virtual design on the screen, the models can be rebuilt using the fischertechnik building blocks. If required, the required building blocks can be obtained via the platform www.santjohanser.com to ensure the seamless implementation of the ideas.

Young designers can use it not only to design their creations virtually, but also to take them in their hands and assemble them in the physical world. „Our goal at fischertechnik is to combine virtual functional principles with haptics in a modern and cool way. 

With the new fischertechnik Design Studio, we have achieved a milestone in this regard,“ says Marc Schrag, fischertechnik Sales Manager Germany, Austria and Switzerland. The Design Studio can be downloaded free of charge from the fischertechnik website. Learning tutorials are available to get to know the platform.

Further information:

ft Design Studio (fischertechnik-cloud.com)

ABB is the first manufacturer to provide intuitive, block-based no-code programming for all cobots and six-axis industrial robots

  • First-time users can program their collaborative robots and industrial robots for free within minutes
  • System integrators and experienced users can develop, share, and customize sophisticated programs for application-specific features

ABB Robotics has expanded the scope of its free Wizard Easy Programming software for collaborative robots to include all six-axis industrial robots running on an ABB OmniCore™ controller. This makes ABB the first robot manufacturer to offer an easy-to-use no-code programming tool for cobots and six-axis industrial robots. This lowers the barriers to automation for early adopters and provides ecosystem partners and integrators with an efficient tool to support their customers.

„If we want to promote and advance the use of robotic automation on a global scale, we need to address the challenges and opportunities of the industry,“ says Marc Segura, head of the robotics division at ABB. „By adding our six-axis industrial robots to Wizard Easy Programming, ABB Robotics is responding to the skills shortage and increasing demand from manufacturing companies for simple and easy-to-use programming software for their robot fleets.“

Create robot applications without prior training

Wizard Easy Programming uses a graphic, drag-and-drop, no-code programming approach designed to simplify the development of robotic applications. The software allows both first-time and experienced robot users to create applications in minutes – a task that typically requires a week of training and another week of development work. Since its launch in 2020, Wizard Easy Programming has been used in a wide range of applications in conjunction with ABB’s YuMi, SWIFTI™ and GoFa™ collaborative robots.

Wizard Easy Programming, previously available for ABB’s collaborative robots, is now available for all of the company’s six-axis industrial robots. (Image: ABB)

The software offers users the opportunity to create complete programs for applications such as arc welding or machine tending without prior training. An intuitive graphical user interface allows you to customize existing programs and pre-programmed blocks to control various actions – from robot movements to signal instructions and force control – for added flexibility.

Efficiently generate specific codes for specific applications

Wizard Easy Programming also includes Skill Creator, a tool that helps system integrators and experts create custom, application-specific wizard blocks for their customers. Skill Creator simplifies the creation of new blocks for highly specific tasks such as machine tending and welding, but also for difficult applications such as medical tests. Ecosystem partners who develop accessories such as grippers, feeding systems and cameras will have access to a digital tool that allows them to share product-specific functionalities regardless of the type of robot to be used.

Wizard Easy Programming is pre-installed on all cobots and new six-axis industrial robots running ABB’s OmniCore controller. The leading robot controllers of the OmniCore family are characterized by an energy saving potential of 20 percent on average and a high degree of future-proofing – thanks to integrated digital connectivity and over 1,000 scalable functions.

More information about Wizard Easy Programming is available here.

fischertechnik Smart Robots Pro  – Robotik-Paket für angehende Entwicklerinnen und Entwickler

Mit der Produktneuheit Smart Robots Pro bietet fischertechnik ein spannendes Komplettpaket, das nicht nur kreatives Bauen fördert, sondern auch Programmierkenntnisse vermittelt. Das Set wurde für Kinder ab acht Jahren entwickelt und ist seit September im Handel erhältlich. 

Das fischertechnik Set Smart Robots Pro enthält alles, was  junge Technikbegeisterte brauchen, um zwölf faszinierende Modelle zu bauen, zu programmieren und zu steuern. Egal, ob es sich um den Fahrroboter mit Hinderniserkennung, das Karussell mit Blinklichtern, die Temperaturregelung mit Ventilator  oder die Alarmanlage handelt – mit dem fischertechnik Smart Robots Pro können Programmierkenntnisse auf- und ausgebaut  werden.  

Ein Highlight des Konstruktionsbausets ist der BT Smart Controller. Dieser Controller verfügt unter anderem über vier Eingänge für digitale oder analoge Sensoren sowie zwei Ausgänge  für Motoren oder Lampen.  

Um die Programmierung der Modelle anschaulich und leicht  verständlich zu gestalten, kann Smart Robots Pro mit der ROBO PRO Coding Software verwendet werden, die kostenlos zum Download in den jeweiligen App Stores bereitsteht. Diese Software ermöglicht es den jungen Entwicklerinnen und Entwicklern, ihre Modelle mühelos grafisch zu programmieren und  zu steuern. Das didaktische Begleitmaterial, das über die E Learning-Plattform verfügbar ist, unterstützt den Lernprozess der Kinder und erklärt auf leicht verständliche Weise die Grund lagen der Programmierung.  

Das Set ist nicht nur ein Spielzeug, sondern ein Bildungswerkzeug, das Spaß und Lernen miteinander verbindet. Es fördert  die Kreativität, das Problemlösungsdenken und die technische Kompetenz junger Menschen. Gleichzeitig bietet es eine unterhaltsame Möglichkeit, die Programmierkenntnisse zu erlernen.  

„Wir freuen uns, mit Smart Robots Pro ein innovatives Produkt auf den Markt zu bringen, das die nächste Generation von Technikenthusiasten inspirieren wird“, sagt Marc Schrag, fischertechnik Vertriebsleiter für Deutschland, Österreich und die  Schweiz.  

Smart Robots Pro ist seit September erhältlich (199,99 Euro,  UVP) und verspricht  stundenlangen Spielspaß und Lernen zugleich. Weitere Informationen und Produktbilder sind auf der fischertechnik Website  zu finden unter www.fischertechnik.de.  

Free update makes third deep learning method available for IDS NXT

Update for the AI system IDS NXT: cameras can now also detect anomalies

In quality assurance, it is often necessary to reliably detect deviations from the norm. Industrial cameras have a key role in this, capturing images of products and analysing them for defects. If the error cases are not known in advance or are too diverse, however, rule-based image processing reaches its limits. By contrast, this challenge can be reliably solved with the AI method Anomaly Detection. The new, free IDS NXT 3.0 software update from IDS Imaging Development Systems makes the method available to all users of the AI vision system with immediate effect.

The intelligent IDS NXT cameras are now able to detect anomalies independently and thereby optimise quality assurance processes. For this purpose, users train a neural network that is then executed on the programmable cameras. To achieve this, IDS offers the AI Vision Studio IDS NXT lighthouse, which is characterised by easy-to-use workflows and seamless integration into the IDS NXT ecosystem. Customers can even use only „GOOD“ images for training. This means that relatively little training data is required compared to the other AI methods Object Detection and Classification. This simplifies the development of an AI vision application and is well suited for evaluating the potential of AI-based image processing for projects in the company.

Another highlight of the release is the code reading function in the block-based editor. This enables IDS NXT cameras to locate, identify and read out different types of code and the required parameters. Attention maps in IDS NXT lighthouse also provide more transparency in the training process. They illustrate which areas in the image have an impact on classification results. In this way, users can identify and eliminate training errors before a neural network is deployed in the cameras.

IDS NXT is a comprehensive AI-based vision system consisting of intelligent cameras plus software environment that covers the entire process from the creation to the execution of AI vision applications. The software tools make AI-based vision usable for different target groups – even without prior knowledge of artificial intelligence or application programming. In addition, expert tools enable open-platform programming, making IDS NXT cameras highly customisable and suitable for a wide range of applications.

More information: www.ids-nxt.com

modl.ai closes €8.5m Funding for AI Engine to Unleash Bots and Transform Game Development

COPENHAGEN, Denmark—November 2022—modl.ai, which seeks to remove the shackles of game development with a transformative AI engine, announced today it has closed Series A funding of €8.5m with lead investor Griffin Gaming Partners and M12 – Microsoft’s Venture Fund. The company received additional participation from Rendered.vc, PreSeed Ventures, and Transistormedia.

The modl.ai AI engine is redefining game development by equipping developers with an essentially unlimited army of bots that can adapt to various playing styles, employ dynamic moves and tactics. This gives developers power to enhance automation and remove the redundancies and manual efforts that often stymie and delay the release of new games and updates by months or even years.

Pierre-Edouard Planche, Partner at Griffin Gaming Partners, said: „Gaming is one of the trickiest user experiences for which to automate testing, and it therefore requires an utmost degree of technical talent and research combined with direct experience working in games. This is why we are very excited to be backing Christoffer, Lars, Benedikte, and the modl.ai team to help streamline a growing pain and multi-billion-dollar industry expense that is top of mind for many game developers.“

Carli Stein of M12 added: “At M12, we’re excited about the impact modl.ai will have on the gaming industry, allowing game developers to focus on the parts of development they love, while automating the costly, time-consuming, and manual processes they don’t,” said Carli Stein, an investor at M12. “When we met Christoffer and the modl.ai team, we knew they had the right combination of highly technical domain expertise, coupled with a product suite that has the potential to revolutionize game development as we know it.”

modl.ai was founded by a talented team of game developers, engineers and AI experts led by CEO Christoffer Holmgård, who saw the opportunity to use AI to automate and improve multiple aspects of the game development process. Between them, the company founders have developed and launched more than 30 games for PC, Mac, Playstation, Xbox, Switch, Apple Arcade and further platforms.

“We started modl.ai to build the tools and technology we always wished we had as game developers,” said Christoffer Holmgård, CEO and Co-Founder. “In 2018, we decided that the timing was right, both for technology and the market. The founders had worked together in games and AI for more than a decade, always discussing how we could bring advanced AI to game developers broadly, offering something completely new to the industry that we love. All games are unique, creative works, but they share production needs and technological characteristics. That’s why the games industry is becoming increasingly modular and standardized. This is a good thing, and we want to be the de facto AI Engine for as many games as possible.”

With the new funding, the company will expand its reach to make the AI Engine available to developers worldwide. With simple setup, developers will get access to AI players – to not just test and balance their games but also have access to customizable bots who will play their game with or against their player base. modl.ai’s AI Engine works with the major publicly available game engines such as Unity and Unreal Engine and can be extended to support any modern game engine.

modl.ai’s AI Engine drives bots for games, enabling AI players that test, evaluate, and even play games in the place of human players. The market for testing and quality assurance in games alone is several billion dollars, and the need for bot players has become crucial in a multiplayer focused $200Bn+ industry.

The games industry is on the cutting edge of technology and innovation; however much of the game development process is highly manual. This means significant creative potential with highly skilled developers, as well as precious speed to market, is lost to rote work and monotonous daily routine. modl.ai is on a mission to change this, building an AI Engine that frees developers to focus on creating, by automating the parts of the game development process that are repetitive and time consuming through AI players.

„Game testing is an endemic, universal, yet overlooked pain point in the industry that has material impact on studio operations, profitability, and title performance. Automation solutions have not emerged due to the complex nature of games and unique design. We strongly believe that modl.ai is the breakthrough team to tackle this moonshot opportunity and, in doing so, is positioned to build a powerful AI platform developed for 3D environments that can grow beyond games,“ stated Jiten Dajee, Rendered VC.

“At PreSeed Ventures, we know it’s all about a few individuals with a rare set of traits and the right mentality to move the needle and modl.ai’s CEO, Christoffer Holmgård is one of those people,” said Mads Klarskov Petersen, COO of PreSeed Ventures. “modl.ai has not only attracted top talent within the space, 12 PhDs from applied AI in games, but has proven the growing importance that AI plays across different aspects of modern game development. Moreover, Christoffer is one of our favorite examples of how a Danish startup can attract international talent and investors, by building a unique technology and sticking to its purpose: helping developers to enhance and increase player engagement no matter the market direction.”

ABOUT modl.ai

Headquartered in Denmark, modl.ai is a four-year-old company that is transforming the game development market with its state-of-the-art AI Engine and machine learning models. Staffed by many of the industry’s best and brightest, modl.ai currently ranks second in the world among private companies for the number of technical game publications its team has collectively authored. With modl.ai’s engine and game-playing bots, testing, evaluation, overall game development and speed to market will never be the same. „If anyone can bring games AI research to the industry and succeed, this is the team“ – Ken Stanley, OpenAI alum.“ For more please visit modl.ai.

Gebündelte Innovationskraft: igus erwirbt Mehrheit an Commonplace Robotics

motion plastics von igus mit intuitiver Software von Commonplace Robotics für einfache Lösungen in der Automatisierung

Köln, 29. September 2022 – Der motion plastics Spezialist igus investiert in den Ausbau seiner Aktivitäten in der Low Cost Automatisierung und hat jetzt die mehrheitlichen Anteile an Commonplace Robotics mit Sitz in Bissendorf bei Osnabrück erworben. Commonplace Robotics ist als Integrator spezialisiert auf intuitiv bedienbare Steuerung und Software sowie Leistungselektronik für die Robotik, sowohl im Industrie- als auch im Bildungsbereich. Beide Unternehmen arbeiten bereits seit sechs Jahren intensiv zusammen und haben unter anderem gemeinsam die igus Robot Control entwickelt, welche die Low Cost Kinematiken von igus aus Hochleistungskunststoffen ergänzt.

Vor 11 Jahren gründete Dr. Christian Meyer, bis dahin im Fraunhofer-Institut für Produktionstechnik und Automatisierung tätig, die Firma Commonplace Robotics. Der Name war Programm: Die Integration und Bedienung von Robotern so günstig und einfach machen, dass sie “commonplace” werden – also überall einsetzbar sind. Die ersten Produkte mit Steuerung und eigener Leistungselektronik waren Roboter für die Didaktik. 2016 trat Christian Meyer an igus heran, denn er stellte fest, dass die Roboter-Kinematiken von igus zu seiner Vision von “commonplace” passten: günstig, einfach, tauglich für die Industrie. Inzwischen haben die beiden Unternehmen gemeinsam Produkte wie die iRC igus Robot Control und den ReBeL Cobot sowie einen Aktuator entwickelt. Durch die hohe Fertigungstiefe von Commonplace Robotics – von Firmware und Software über Schaltschrankbau bis hin zur Platinenbestückung – können Neuentwicklungen schnell umgesetzt werden.

Mit gestärkter Innovationskraft die Low Cost Automation vorantreiben

„Viele Kunden sind überrascht, dass sie ohne Programmierkenntnisse einfache Roboteraufgaben schon in 30 Minuten realisieren können”, sagt Frank Blase, Geschäftsführer der igus GmbH. „Wir freuen uns sehr, dass nach der intensiven Zusammenarbeit der letzten sechs Jahre jetzt ein noch fokussierteres Vorgehen bei der Low Cost Automatisierung möglich ist.” Mit der Akquisition bündeln Commonplace Robotics und igus ihre Innovationskraft. Dr. Christian Meyer sagt: „Wir freuen uns auf spannende technologische Projekte mit igus. Gerade über die von igus betriebene Plattform RBTX für Low Cost Robotik kommen täglich neue Anforderungen von Kunden aus allen Bereichen der Industrie in unsere Labore. Vieles davon ist schnell umsetzbar, zumal wir mit der Investition expandieren werden.” Neuestes Produkt der Kooperation ist der ReBeL Cobot für 4.970 Euro inklusive Steuerung. Der Aktuator, auch als Einzelkomponente erhältlich, kombiniert das Kunststoff-Knowhow von igus im Getriebe mit der Leistungselektronik und Software von Commonplace Robotics. Der ReBeL kann mit sechs Achsen bis zu zwei Kilogramm Traglast bei einer Reichweite von 664 Millimetern handhaben – und das bei einem Eigengewicht von nur 8,2 Kilogramm. Anfragen und Bestellungen kommen einerseits aus klassischen Anwendungsgebieten wie der Qualitätskontrolle und Pick and Place- Anwendungen im Maschinenbau, und andererseits aus neuen Anwendungsgebieten wie der Restaurant-Automatisierung oder dem Urban Farming.

Auf der Motek in Stuttgart (Halle 7, Stand 7320 und 7321) und der SPS Messe in Nürnberg (Halle 4, Stand 310) können sich Interessierte live einen Eindruck der gemeinsam entwickelten Innovationen verschaffen.

Potenziale KI-gestützter Robotik für die Industrie

Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie und birgt enormes wirtschaftliches Potenzial. Doch ein Blick in deutsche Produktionshallen zeigt noch ein anderes Bild: Lediglich 6,8 Prozent der Unternehmen aus den Bereichen Maschinenbau und Elektrotechnik setzen KI-Technologien ein (Stand 2019). Dabei birgt KI gerade für das produzierende Gewerbe zahlreiche Potenziale.

Künstliche Intelligenz ist ein Überbegriff, der den Ansatz beschreibt, mit Maschinen Probleme zu lösen und menschliche Intelligenz zu imitieren. Dabei spielt insbesondere ein Teilbereich, das Machine Learning (Maschinelles Lernen), in Unternehmen und Produktionen eine entscheidende Rolle. Machine Learning bedeutet, dass ein System aus Beispielen lernt und diese nach der Lernphase verallgemeinern kann.

In der Produktion kommt Machine Learning beispielsweise im Bereich Predictive Analytics zum Einsatz. Dort wird KI als Teil von Vorhersagemodellen zur Überwachung und Wartung von Produktionsanlagen eingesetzt, um frühzeitig auf kritische Zustände reagieren zu können.

Auch das Wissensmanagement greift für die Auswertung von internen Informationen und Daten auf Machine Learning zurück. Daten von Fertigungslinien, Lieferketten, aber auch von einzelnen Produkten werden für Unternehmensprozesse, die Produktentwicklung und neue Geschäftsmodelle ausgewertet. Ohne den Einsatz von KI wäre eine Analyse aufgrund der schieren Datenmenge nicht möglich.

Mit KI und Robotik Handarbeitsplätze automatisieren

Machine Learning, häufig in Kombination mit Machine Vision, kommt auch in den Bereichen Robotik und Automatisierung, Sensorik und bei fahrerlosen Transportsystemen zum Einsatz. Für die Fertigung ist dabei das Zusammenspiel von KI und Robotik ein wichtiger Schlüssel für die Zukunft.

KI-Produkte, wie beispielsweise Robotersteuerungen, ermöglichen es unter anderem, Handarbeitsplätze zu automatisieren. Ein nicht zu vernachlässigender Vorteil, denn Arbeitskräfte sind rar und der Mangel verschärft sich in den Jahren weiter, wie der Deutsche Industrie- und Handelskammertag (DIHK) prognostiziert. Übernehmen Roboter auch Aufgaben, für die es bisher die Flexibilität eines Menschen brauchte, sorgt das für die Entlastung der Stammbelegschaft, eine Auslastung der Maschinen und sichert auf lange Sicht die Wettbewerbsfähigkeit.

Robuster Umgang mit Varianzen

KI-Steuerungen wie MIRAI von Micropsi Industries ergänzen die native Steuerung eines Roboters. Der Roboter erhält dank einer Kamera und einem neuronalen Netzwerk die Auge-Hand-Koordination und eine vergleichbare Flexibilität wie ein Mensch. Ein solches intelligentes Robotersystem lernt bei neuen Aufgaben, bei anders geformten oder positionierten Werkteilen oder bei vergleichbaren Varianzen schnell, was es zu tun hat und passt bei Bedarf seine Bewegungen in Echtzeit eigenständig an. Ob es sich um das Picken einzelner Teile, Zustellbewegungen oder Fügen und Verfolgen handelt: Zahlreiche Tätigkeiten sind mit einer einzigen kleinen Kamera am Roboter-Handgelenk umsetzbar.

Diese Fähigkeiten lassen sich mit MIRAI durch menschliche Demonstration trainieren. Weder KI- noch Programmierkenntnisse sind erforderlich. Das Know-how bleibt selbst ohne KI-Fachkräfte im Unternehmen. Dem Roboter muss dafür das Ziel einige Male in typisch vorkommenden Varianzen mit der Kamera gezeigt werden. Die KI verallgemeinert im Anschluss die gezeigten Daten. Ein solches System kann in wenigen Stunden trainiert und sogar neu trainiert werden. Selbst eine Fertigung im High Mix-/Low-Volume lässt sich so rentabel automatisieren. Was intelligente Robotiklösungen bereits in der Praxis leisten, zeigen die folgenden Beispiele.

Intelligentes Handling-System bei ZF

Der Technologiekonzern ZF stand vor der Herausforderung, die Werkstückzufuhr einer großvolumigen Frässtation, in der Zahnräder produziert werden, zu automatisieren. Im Werkprozess werden Metallringe aus einer Kiste entnommen und auf ein Förderband gelegt, um später in die Produktion der Zahnräder einzufließen. Die Schwierigkeit: Der Produktionsschritt ist sehr variantenreich, da sich die Ringe in der angelieferten Gitterbox verschieben und dadurch zufällig angeordnet sind. Auch Platzierung und Form der Box variieren. Wechselnde Lichtverhältnisse stellen eine zusätzliche Herausforderung dar. Außerdem ist die Oberfläche der Ringe metallisch glänzend, teilweise ölverschmiert oder korrodiert, was eine klassische Automatisierung unmöglich machte.

Heute ist die KI-Steuerung MIRAI und ein Cobot vom Modell UR10e bei ZF in einer automatisierten Werkstückaufnahme im Einsatz. Mit seiner eigenen Steuerung bringt der Cobot sich über den Ringen in der Kiste in Position. Nun übernimmt das MIRAI-System die Kontrolle: Es bewegt den Roboter selbstständig zum nächsten Ring und bringt den Greifer in die korrekte dreidimensionale Greifposition. Danach übernimmt der UR10e wieder, nimmt den Ring auf und bewegt ihn zum Ablegen auf das Förderband. Das komplette Einrichten des Roboters dauerte lediglich wenige Tage – MIRAI löste in kürzester Zeit ein lang bestehendes Problem.

BSH sucht mit KI nach Kältemittellecks

An ihrem spanischen Standort stellt die BSH Hausgeräte GmbH Kühl- und Gefrierschränke her. Im Herstellungsprozess muss das Unternehmen die Kupferrohrleitungen der Kühlschränke auf Leckagen testen. Für die sogenannte Dichtheitsprüfung wird eine Schnüffelsonde entlang der Kupferrohrleitungen und Kompressoren geführt, um Lötstellen auf austretendes Gas und Kältemittel zu prüfen. Das Besondere: Jede Rückseite der hergestellten Kühlschränke ist einzigartig, was Position, Farbe und Form der Lötpunkte angeht. Für einen herkömmlichen Roboter sind solche Varianzen ein unüberwindbares Hindernis. Der monotone Prüfprozess blieb dem Menschen vorbehalten – bis jetzt.

Den Prüfprozess übernimmt bei BSH nun eine Robotik-Komplettlösung den Prüfprozess. Dank der integrierten Robotersteuerung MIRAI ist es dem Roboter möglich, alle zu prüfenden Lötstellen verlässlich zu identifizieren und die Schnüffelsonde millimetergenau heranzuführen – unabhängig von Position, Form oder Farbe. Das System reagiert in Echtzeit auf seine Umwelt und handhabt selbst unvorhergesehene Abweichungen präzise. Die Roboterfähigkeiten wurden von Mitarbeitenden bei BSH durch menschliche Demonstration in nur wenigen Stunden trainiert. Weder Programmier- noch KI-Kenntnisse waren erforderlich. BSH konnte mit der Automatisierungslösung die laufenden Betriebskosten senken und Wartungen und Fehlerbehebungen reduzieren.

Neue Technologien als Wettbewerbsvorteil

Die Beispiele zeigen, dass Unternehmen mit KI sehr viel bewirken können: KI ermöglicht mehr Flexibilität, Unabhängigkeit, Effizienz und nicht zuletzt Resilienz. Nicht unwichtig in Zeiten wie diesen. Neue Technologien sollte dabei als Türöffner zu mehr Automatisierung verstanden werden. Leistungen, die bislang von Menschen oder Maschinen erbracht wurden, können nun von einer Software geliefert werden. Das ist nicht nur vorteilhaft beim drastisch zunehmenden Arbeitskräftemangel. Es erhöht auch die Flexibilität, Nachvollziehbarkeit und Zuverlässigkeit von Produktionsprozessen und verschafft einen dauerhaften Wettbewerbsvorsprung.

Weitere Informationen unter: https://bit.ly/MicropsiIndustries

KI ist mehr als nur ein Modell: Vier Schritte zum vollständigen Workflow-Erfolg

Ingenieur*innen sind zunehmend bestrebt, KI erfolgreich in Projekte und Anwendungen zu integrieren, während sie versuchen, ihre eigene KI-Lernkurve zu meistern. Allerdings werden viele KI-Projekte nach wenig vielversprechenden Ergebnissen wieder verworfen. Woran liegt das? Johanna Pingel, Product Marketing Manager bei MathWorks, erläutert, warum es für Ingenieur*innen wichtig ist, sich auf den gesamten KI-Workflow zu konzentrieren und nicht nur auf die Modellentwicklung:

Ingenieur*innen, die Machine Learning und Deep Learning einsetzen, erwarten oft, dass sie einen großen Teil ihrer Zeit mit der Entwicklung und Feinabstimmung von KI-Modellen verbringen. Die Modellierung ist zwar ein wichtiger Schritt im Workflow, aber das Modell ist nicht alleiniges Ziel. Das Schlüsselelement für den Erfolg bei der praktischen KI-Implementierung ist das frühzeitige Aufdecken von Problemen. Außerdem ist es wichtig zu wissen, auf welche Aspekte des Workflows man Zeit und Ressourcen konzentrieren sollte, um die besten Ergebnisse zu erzielen. Das sind nicht immer die offensichtlichsten Schritte.

Der KI-gesteuerte Workflow

Es lassen sich vier Schritte in einem KI-gesteuerten Workflow differenzieren, wobei jeder Schritt seine eigene Rolle bei der erfolgreichen Implementierung von KI in einem Projekt spielt.
 

Schritt 1: Datenaufbereitung

Die Datenaufbereitung ist wohl der wichtigste Schritt im KI-Workflow: Ohne robuste und genaue Daten zum Trainieren eines Modells sind Projekte rasch zum Scheitern verurteilt. Wenn Ingenieur*innen das Modell mit „schlechten“ Daten füttern, werden sie keine aufschlussreichen Ergebnisse erhalten – und wahrscheinlich viele Stunden damit verbringen, herauszufinden, warum das Modell nicht funktioniert.

Um ein Modell zu trainieren, sollten Ingenieur*innen mit sauberen, gelabelten Daten beginnen, und zwar mit so vielen wie möglich. Dies kann einer der zeitaufwendigsten Schritte des Workflows sein. Wenn Deep Learning-Modelle nicht wie erwartet funktionieren, konzentrieren sich viele darauf, wie man das Modell verbessern kann – durch das Optimieren von Parametern, die Feinabstimmung des Modells und mehrere Trainingsiterationen. Doch noch viel wichtiger ist die Aufbereitung und das korrekte Labeln der Eingabedaten. Das darf nicht vernachlässigt werden, um sicherzustellen, dass Daten korrekt vom Modell verstanden werden können.
 

Schritt 2: KI-Modellierung

Sobald die Daten sauber und richtig gelabelt sind, kann zur Modellierungsphase des Workflows übergegangen werden. Hierbei werden die Daten als Input verwendet und das Modell lernt aus diesen Daten. Das Ziel einer erfolgreichen Modellierungsphase ist die Erstellung eines robusten, genauen Modells, das intelligente Entscheidungen auf Basis der Daten treffen kann. Dies ist auch der Punkt, an dem Deep Learning, Machine Learning oder eine Kombination davon in den Arbeitsablauf einfließt. Hier entscheiden die Ingenieur*innen, welche Methoden das präziseste und robusteste Ergebnis hervorbringt.

Die KI-Modellierung ist ein iterativer Schritt innerhalb des gesamten Workflows, und Ingenieur*innen müssen die Änderungen, die sie während dieses Schrittes am Modell vornehmen, nachverfolgen können. Die Nachverfolgung von Änderungen und die Aufzeichnung von Trainingsiterationen mit Tools wie dem Experiment Manager von MathWorks sind entscheidend, da sie helfen die Parameter zu erklären, die zum genauesten Modell führen und reproduzierbare Ergebnisse liefern.
 

Schritt 3: Simulation und Tests

Ingenieur*innen müssen beachten, dass KI-Elemente meistens nur ein kleiner Teil eines größeren Systems sind. Sie müssen in allen Szenarien im Zusammenspiel mit anderen Teilen des Endprodukts korrekt funktionieren, einschließlich anderer Sensoren und Algorithmen wie Steuerung, Signalverarbeitung und Sensorfusion. Ein Beispiel ist hier ein Szenario für automatisiertes Fahren: Dabei handelt es sich nicht nur um ein System zur Erkennung von Objekten (Fußgänger*innen, Autos, Stoppschilder), sondern dieses System muss mit anderen Systemen zur Lokalisierung, Wegplanung, Steuerung und weiteren integriert werden. Simulationen und Genauigkeitstests sind der Schlüssel, um sicherzustellen, dass das KI-Modell richtig funktioniert und alles gut mit anderen Systemen harmoniert, bevor ein Modell in der realen Welt eingesetzt wird.

Um diesen Grad an Genauigkeit und Robustheit vor dem Einsatz zu erreichen, müssen Ingenieur*innen validieren, dass das Modell in jeder Situation so reagiert, wie es soll. Sie sollten sich auch mit den Fragen befassen, wie exakt das Modell insgesamt ist und ob alle Randfälle abgedeckt sind. Durch den Einsatz von Werkzeugen wie Simulink können Ingenieur*innen überprüfen, ob das Modell für alle erwarteten Anwendungsfälle wie gewünscht funktioniert, und so kosten- und zeitintensive Überarbeitungen vermeiden.
 

Schritt 4: Einsatz

Ist das Modell reif für die Bereitstellung, folgt als nächster Schritt der Einsatz auf der Zielhardware – mit anderen Worten, die Bereitstellung des Modells in der endgültigen Sprache, in der es implementiert werden soll. Das erfordert in der Regel, dass die Entwicklungsingenieur*innen ein implementierungsbereites Modell nutzen, um es in die vorgesehene Hardwareumgebung einzupassen.

Die vorgesehene Hardwareumgebung kann vom Desktop über die Cloud bis hin zu FPGAs reichen. Mithilfe von flexiblen Werkzeugen wie MATLAB kann der endgültige Code für alle Szenarien generiert werden. Das bietet Ingenieur*innen den Spielraum, ihr Modell in einer Vielzahl von Umgebungen einzusetzen, ohne den ursprünglichen Code neu schreiben zu müssen. Das Deployment eines Modells direkt auf einer GPU kann hier als Beispiel dienen: Die automatische Codegenerierung eliminiert Codierungsfehler, die durch eine manuelle Übersetzung entstehen könnten, und liefert hochoptimierten CUDA-Code, der effizient auf der GPU läuft.

Gemeinsam stärker

Ingenieur*innen müssen keine Datenwissenschaftler*innen oder gar KI-Expert*innen werden, um mit KI erfolgreich zu sein. Mit Werkzeugen für die Datenaufbereitung, Anwendungen zur Integration von KI in ihre Arbeitsabläufe und mit verfügbaren Expert*innen, die Fragen zur KI-Integration beantworten, können sie KI-Modelle auf Erfolgskurs bringen. In jedem dieser Schritte im Workflow haben Ingenieur*innen die Möglichkeit, flexibel ihr eigenes Domänenwissen einzubringen. Dies ist eine wichtige Basis, auf der sie mit den richtigen Ressourcen aufbauen und die sie durch KI ergänzen können.

Über MathWorks

MathWorks ist der führende Entwickler von Software für mathematische Berechnungen. MATLAB, die Programmiersprache für Ingenieurwesen und Wissenschaft, ist eine Programmierumgebung für die Algorithmen-Entwicklung, Analyse und Visualisierung von Daten sowie für numerische Berechnungen. Simulink ist eine Blockdiagramm-basierte Entwicklungsumgebung für die Simulation und das Model-Based Design von technischen Mehrdomänen-Systemen und Embedded Systemen. Ingenieure und Wissenschaftler weltweit setzen diese Produktfamilien ein, um die Forschung sowie Innovationen und Entwicklungen in der Automobilindustrie, der Luft- und Raumfahrt, der Elektronik, dem Finanzwesen, der Biotechnologie und weiteren Industriezweigen zu beschleunigen. MATLAB und Simulink sind zudem an Universitäten und Forschungsinstituten weltweit wichtige Lehr- und Forschungswerkzeuge. MathWorks wurde 1984 gegründet und beschäftigt mehr als 5000 Mitarbeiter in 16 Ländern. Der Hauptsitz des Unternehmens ist Natick, Massachusetts, in den USA. Lokale Niederlassungen in der D-A-CH-Region befinden sich in Aachen, München, Paderborn, Stuttgart und Bern. Weitere Informationen finden Sie unter mathworks.com.

SourceRabbit released a commercial GCode Sender for GRBL CNC Machines

GRBL is quite popular with the CNC hobby community, open source firmware that turns an Arduino into a CNC controller. It was released in 2015 and in recent years has gained many friends, among them SourceRabbit, a Greek CNC machine tool manufacturer, which aspires to transform GRBL from a hobby tool to an industry standard by offering the first commercial CNC control software for GRBL-compatible CNC machines.

Their new commercial software, GCode Sender 4-Axis, released in April 2021, replaced their old 3-axis software which has been available since 2015. It is compatible with the classic 3-Axis GRBL for AVR processors and the new multi axis Grbl for the Esp32.

We managed to obtain a statement from Nikos Siatras, CEO of SourceRabbit, who told us “From 2015 until the beginning of 2021, many GCode Sender applications were developed to control GRBL CNC machine tools. All of them were open source, free of charge, without any support and often with several bugs that tire even the most patient user. While GRBL is an incredibly good and flexible CNC control firmware, the GCode Senders that existed until today gave the impression that GRBL is purely for hobbyists. Through the development of our own software we are going to change that and we will try to make GRBL a CNC industry standard.”

SourceRabbit plans to implement many new tools and features to the GCode Sender 4-Axis. The software retails for €50.00 + VAT and with the purchase of each license you have free access to all subsequent versions of the software.

Certification as a professional in image processing by Eye Vision Technology


Image processing is a complex and very extensive topic. In order to be able to use the multitude of different application possibilities and functions optimally, EVT has been offering training courses on various topics of image processing for several years. The participants will learn how to use it correctly, as well as the numerous functions and possible uses of the innovative EyeVision software.

EVT now also offers the first free certification program in addition to free knowledge sharing. The webinar participants can participate and benefit from the advantages. After successfully completing a test that is independent of time and location, the participants receive a certificate and are allowed to bear the title “certified Eye Vision Technology professional in image processing”. The certification comes with numerous advantages, such as saving 10 percent with every order via EVT, the permission to use prioritized support via an exclusive acceptance point and an entry as a certified professional in image processing on the highly frequented Eye Vision homepage.

Certification not only benefits companies, but also customers. Because the certificate enables transparency about the knowledge of the person responsible in the field of image processing and the use of image processing software.

You can find out more about the criteria and registration for the free certification program at www.evt-web.com.