Update for the AI system IDS NXT: cameras can now also detect anomalies
In quality assurance, it is often necessary to reliably detect deviations from the norm. Industrial cameras have a key role in this, capturing images of products and analysing them for defects. If the error cases are not known in advance or are too diverse, however, rule-based image processing reaches its limits. By contrast, this challenge can be reliably solved with the AI method Anomaly Detection. The new, free IDS NXT 3.0 software update from IDS Imaging Development Systems makes the method available to all users of the AI vision system with immediate effect.
The intelligent IDS NXT cameras are now able to detect anomalies independently and thereby optimise quality assurance processes. For this purpose, users train a neural network that is then executed on the programmable cameras. To achieve this, IDS offers the AI Vision Studio IDS NXT lighthouse, which is characterised by easy-to-use workflows and seamless integration into the IDS NXT ecosystem. Customers can even use only „GOOD“ images for training. This means that relatively little training data is required compared to the other AI methods Object Detection and Classification. This simplifies the development of an AI vision application and is well suited for evaluating the potential of AI-based image processing for projects in the company.
Another highlight of the release is the code reading function in the block-based editor. This enables IDS NXT cameras to locate, identify and read out different types of code and the required parameters. Attention maps in IDS NXT lighthouse also provide more transparency in the training process. They illustrate which areas in the image have an impact on classification results. In this way, users can identify and eliminate training errors before a neural network is deployed in the cameras.
IDS NXT is a comprehensive AI-based vision system consisting of intelligent cameras plus software environment that covers the entire process from the creation to the execution of AI vision applications. The software tools make AI-based vision usable for different target groups – even without prior knowledge of artificial intelligence or application programming. In addition, expert tools enable open-platform programming, making IDS NXT cameras highly customisable and suitable for a wide range of applications.
COPENHAGEN, Denmark—November 2022—modl.ai, which seeks to remove the shackles of game development with a transformative AI engine, announced today it has closed Series A funding of €8.5m with lead investor Griffin Gaming Partners and M12 – Microsoft’s Venture Fund. The company received additional participation from Rendered.vc, PreSeed Ventures, and Transistormedia.
The modl.ai AI engine is redefining game development by equipping developers with an essentially unlimited army of bots that can adapt to various playing styles, employ dynamic moves and tactics. This gives developers power to enhance automation and remove the redundancies and manual efforts that often stymie and delay the release of new games and updates by months or even years.
Pierre-Edouard Planche, Partner at Griffin Gaming Partners, said: „Gaming is one of the trickiest user experiences for which to automate testing, and it therefore requires an utmost degree of technical talent and research combined with direct experience working in games. This is why we are very excited to be backing Christoffer, Lars, Benedikte, and the modl.ai team to help streamline a growing pain and multi-billion-dollar industry expense that is top of mind for many game developers.“
Carli Stein of M12 added: “At M12, we’re excited about the impact modl.ai will have on the gaming industry, allowing game developers to focus on the parts of development they love, while automating the costly, time-consuming, and manual processes they don’t,” said Carli Stein, an investor at M12. “When we met Christoffer and the modl.ai team, we knew they had the right combination of highly technical domain expertise, coupled with a product suite that has the potential to revolutionize game development as we know it.”
modl.ai was founded by a talented team of game developers, engineers and AI experts led by CEO Christoffer Holmgård, who saw the opportunity to use AI to automate and improve multiple aspects of the game development process. Between them, the company founders have developed and launched more than 30 games for PC, Mac, Playstation, Xbox, Switch, Apple Arcade and further platforms.
“We started modl.ai to build the tools and technology we always wished we had as game developers,” said Christoffer Holmgård, CEO and Co-Founder. “In 2018, we decided that the timing was right, both for technology and the market. The founders had worked together in games and AI for more than a decade, always discussing how we could bring advanced AI to game developers broadly, offering something completely new to the industry that we love. All games are unique, creative works, but they share production needs and technological characteristics. That’s why the games industry is becoming increasingly modular and standardized. This is a good thing, and we want to be the de facto AI Engine for as many games as possible.”
With the new funding, the company will expand its reach to make the AI Engine available to developers worldwide. With simple setup, developers will get access to AI players – to not just test and balance their games but also have access to customizable bots who will play their game with or against their player base. modl.ai’s AI Engine works with the major publicly available game engines such as Unity and Unreal Engine and can be extended to support any modern game engine.
modl.ai’s AI Engine drives bots for games, enabling AI players that test, evaluate, and even play games in the place of human players. The market for testing and quality assurance in games alone is several billion dollars, and the need for bot players has become crucial in a multiplayer focused $200Bn+ industry.
The games industry is on the cutting edge of technology and innovation; however much of the game development process is highly manual. This means significant creative potential with highly skilled developers, as well as precious speed to market, is lost to rote work and monotonous daily routine. modl.ai is on a mission to change this, building an AI Engine that frees developers to focus on creating, by automating the parts of the game development process that are repetitive and time consuming through AI players.
„Game testing is an endemic, universal, yet overlooked pain point in the industry that has material impact on studio operations, profitability, and title performance. Automation solutions have not emerged due to the complex nature of games and unique design. We strongly believe that modl.ai is the breakthrough team to tackle this moonshot opportunity and, in doing so, is positioned to build a powerful AI platform developed for 3D environments that can grow beyond games,“ stated Jiten Dajee, Rendered VC.
“At PreSeed Ventures, we know it’s all about a few individuals with a rare set of traits and the right mentality to move the needle and modl.ai’s CEO, Christoffer Holmgård is one of those people,” said Mads Klarskov Petersen, COO of PreSeed Ventures. “modl.ai has not only attracted top talent within the space, 12 PhDs from applied AI in games, but has proven the growing importance that AI plays across different aspects of modern game development. Moreover, Christoffer is one of our favorite examples of how a Danish startup can attract international talent and investors, by building a unique technology and sticking to its purpose: helping developers to enhance and increase player engagement no matter the market direction.”
ABOUT modl.ai
Headquartered in Denmark, modl.ai is a four-year-old company that is transforming the game development market with its state-of-the-art AI Engine and machine learning models. Staffed by many of the industry’s best and brightest, modl.ai currently ranks second in the world among private companies for the number of technical game publications its team has collectively authored. With modl.ai’s engine and game-playing bots, testing, evaluation, overall game development and speed to market will never be the same. „If anyone can bring games AI research to the industry and succeed, this is the team“ – Ken Stanley, OpenAI alum.“ For more please visit modl.ai.
motion plastics von igus mit intuitiver Software von Commonplace Robotics für einfache Lösungen in der Automatisierung
Köln, 29. September 2022 – Der motion plastics Spezialist igus investiert in den Ausbau seiner Aktivitäten in der Low Cost Automatisierung und hat jetzt die mehrheitlichen Anteile an Commonplace Robotics mit Sitz in Bissendorf bei Osnabrück erworben. Commonplace Robotics ist als Integrator spezialisiert auf intuitiv bedienbare Steuerung und Software sowie Leistungselektronik für die Robotik, sowohl im Industrie- als auch im Bildungsbereich. Beide Unternehmen arbeiten bereits seit sechs Jahren intensiv zusammen und haben unter anderem gemeinsam die igus Robot Control entwickelt, welche die Low Cost Kinematiken von igus aus Hochleistungskunststoffen ergänzt.
Vor 11 Jahren gründete Dr. Christian Meyer, bis dahin im Fraunhofer-Institut für Produktionstechnik und Automatisierung tätig, die Firma Commonplace Robotics. Der Name war Programm: Die Integration und Bedienung von Robotern so günstig und einfach machen, dass sie “commonplace” werden – also überall einsetzbar sind. Die ersten Produkte mit Steuerung und eigener Leistungselektronik waren Roboter für die Didaktik. 2016 trat Christian Meyer an igus heran, denn er stellte fest, dass die Roboter-Kinematiken von igus zu seiner Vision von “commonplace” passten: günstig, einfach, tauglich für die Industrie. Inzwischen haben die beiden Unternehmen gemeinsam Produkte wie die iRC igus Robot Control und den ReBeL Cobot sowie einen Aktuator entwickelt. Durch die hohe Fertigungstiefe von Commonplace Robotics – von Firmware und Software über Schaltschrankbau bis hin zur Platinenbestückung – können Neuentwicklungen schnell umgesetzt werden.
Mit gestärkter Innovationskraft die Low Cost Automation vorantreiben
„Viele Kunden sind überrascht, dass sie ohne Programmierkenntnisse einfache Roboteraufgaben schon in 30 Minuten realisieren können”, sagt Frank Blase, Geschäftsführer der igus GmbH. „Wir freuen uns sehr, dass nach der intensiven Zusammenarbeit der letzten sechs Jahre jetzt ein noch fokussierteres Vorgehen bei der Low Cost Automatisierung möglich ist.” Mit der Akquisition bündeln Commonplace Robotics und igus ihre Innovationskraft. Dr. Christian Meyer sagt: „Wir freuen uns auf spannende technologische Projekte mit igus. Gerade über die von igus betriebene Plattform RBTX für Low Cost Robotik kommen täglich neue Anforderungen von Kunden aus allen Bereichen der Industrie in unsere Labore. Vieles davon ist schnell umsetzbar, zumal wir mit der Investition expandieren werden.” Neuestes Produkt der Kooperation ist der ReBeL Cobot für 4.970 Euro inklusive Steuerung. Der Aktuator, auch als Einzelkomponente erhältlich, kombiniert das Kunststoff-Knowhow von igus im Getriebe mit der Leistungselektronik und Software von Commonplace Robotics. Der ReBeL kann mit sechs Achsen bis zu zwei Kilogramm Traglast bei einer Reichweite von 664 Millimetern handhaben – und das bei einem Eigengewicht von nur 8,2 Kilogramm. Anfragen und Bestellungen kommen einerseits aus klassischen Anwendungsgebieten wie der Qualitätskontrolle und Pick and Place- Anwendungen im Maschinenbau, und andererseits aus neuen Anwendungsgebieten wie der Restaurant-Automatisierung oder dem Urban Farming.
Auf der Motek in Stuttgart (Halle 7, Stand 7320 und 7321) und der SPS Messe in Nürnberg (Halle 4, Stand 310) können sich Interessierte live einen Eindruck der gemeinsam entwickelten Innovationen verschaffen.
Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie und birgt enormes wirtschaftliches Potenzial. Doch ein Blick in deutsche Produktionshallen zeigt noch ein anderes Bild: Lediglich 6,8 Prozent der Unternehmen aus den Bereichen Maschinenbau und Elektrotechnik setzen KI-Technologien ein (Stand 2019). Dabei birgt KI gerade für das produzierende Gewerbe zahlreiche Potenziale.
Künstliche Intelligenz ist ein Überbegriff, der den Ansatz beschreibt, mit Maschinen Probleme zu lösen und menschliche Intelligenz zu imitieren. Dabei spielt insbesondere ein Teilbereich, das Machine Learning (Maschinelles Lernen), in Unternehmen und Produktionen eine entscheidende Rolle. Machine Learning bedeutet, dass ein System aus Beispielen lernt und diese nach der Lernphase verallgemeinern kann.
In der Produktion kommt Machine Learning beispielsweise im Bereich Predictive Analytics zum Einsatz. Dort wird KI als Teil von Vorhersagemodellen zur Überwachung und Wartung von Produktionsanlagen eingesetzt, um frühzeitig auf kritische Zustände reagieren zu können.
Auch das Wissensmanagement greift für die Auswertung von internen Informationen und Daten auf Machine Learning zurück. Daten von Fertigungslinien, Lieferketten, aber auch von einzelnen Produkten werden für Unternehmensprozesse, die Produktentwicklung und neue Geschäftsmodelle ausgewertet. Ohne den Einsatz von KI wäre eine Analyse aufgrund der schieren Datenmenge nicht möglich.
Mit KI und Robotik Handarbeitsplätze automatisieren
Machine Learning, häufig in Kombination mit Machine Vision, kommt auch in den Bereichen Robotik und Automatisierung, Sensorik und bei fahrerlosen Transportsystemen zum Einsatz. Für die Fertigung ist dabei das Zusammenspiel von KI und Robotik ein wichtiger Schlüssel für die Zukunft.
KI-Produkte, wie beispielsweise Robotersteuerungen, ermöglichen es unter anderem, Handarbeitsplätze zu automatisieren. Ein nicht zu vernachlässigender Vorteil, denn Arbeitskräfte sind rar und der Mangel verschärft sich in den Jahren weiter, wie der Deutsche Industrie- und Handelskammertag (DIHK) prognostiziert. Übernehmen Roboter auch Aufgaben, für die es bisher die Flexibilität eines Menschen brauchte, sorgt das für die Entlastung der Stammbelegschaft, eine Auslastung der Maschinen und sichert auf lange Sicht die Wettbewerbsfähigkeit.
Robuster Umgang mit Varianzen
KI-Steuerungen wie MIRAI von Micropsi Industries ergänzen die native Steuerung eines Roboters. Der Roboter erhält dank einer Kamera und einem neuronalen Netzwerk die Auge-Hand-Koordination und eine vergleichbare Flexibilität wie ein Mensch. Ein solches intelligentes Robotersystem lernt bei neuen Aufgaben, bei anders geformten oder positionierten Werkteilen oder bei vergleichbaren Varianzen schnell, was es zu tun hat und passt bei Bedarf seine Bewegungen in Echtzeit eigenständig an. Ob es sich um das Picken einzelner Teile, Zustellbewegungen oder Fügen und Verfolgen handelt: Zahlreiche Tätigkeiten sind mit einer einzigen kleinen Kamera am Roboter-Handgelenk umsetzbar.
Diese Fähigkeiten lassen sich mit MIRAI durch menschliche Demonstration trainieren. Weder KI- noch Programmierkenntnisse sind erforderlich. Das Know-how bleibt selbst ohne KI-Fachkräfte im Unternehmen. Dem Roboter muss dafür das Ziel einige Male in typisch vorkommenden Varianzen mit der Kamera gezeigt werden. Die KI verallgemeinert im Anschluss die gezeigten Daten. Ein solches System kann in wenigen Stunden trainiert und sogar neu trainiert werden. Selbst eine Fertigung im High Mix-/Low-Volume lässt sich so rentabel automatisieren. Was intelligente Robotiklösungen bereits in der Praxis leisten, zeigen die folgenden Beispiele.
Intelligentes Handling-System bei ZF
Der Technologiekonzern ZF stand vor der Herausforderung, die Werkstückzufuhr einer großvolumigen Frässtation, in der Zahnräder produziert werden, zu automatisieren. Im Werkprozess werden Metallringe aus einer Kiste entnommen und auf ein Förderband gelegt, um später in die Produktion der Zahnräder einzufließen. Die Schwierigkeit: Der Produktionsschritt ist sehr variantenreich, da sich die Ringe in der angelieferten Gitterbox verschieben und dadurch zufällig angeordnet sind. Auch Platzierung und Form der Box variieren. Wechselnde Lichtverhältnisse stellen eine zusätzliche Herausforderung dar. Außerdem ist die Oberfläche der Ringe metallisch glänzend, teilweise ölverschmiert oder korrodiert, was eine klassische Automatisierung unmöglich machte.
Heute ist die KI-Steuerung MIRAI und ein Cobot vom Modell UR10e bei ZF in einer automatisierten Werkstückaufnahme im Einsatz. Mit seiner eigenen Steuerung bringt der Cobot sich über den Ringen in der Kiste in Position. Nun übernimmt das MIRAI-System die Kontrolle: Es bewegt den Roboter selbstständig zum nächsten Ring und bringt den Greifer in die korrekte dreidimensionale Greifposition. Danach übernimmt der UR10e wieder, nimmt den Ring auf und bewegt ihn zum Ablegen auf das Förderband. Das komplette Einrichten des Roboters dauerte lediglich wenige Tage – MIRAI löste in kürzester Zeit ein lang bestehendes Problem.
BSH sucht mit KI nach Kältemittellecks
An ihrem spanischen Standort stellt die BSH Hausgeräte GmbH Kühl- und Gefrierschränke her. Im Herstellungsprozess muss das Unternehmen die Kupferrohrleitungen der Kühlschränke auf Leckagen testen. Für die sogenannte Dichtheitsprüfung wird eine Schnüffelsonde entlang der Kupferrohrleitungen und Kompressoren geführt, um Lötstellen auf austretendes Gas und Kältemittel zu prüfen. Das Besondere: Jede Rückseite der hergestellten Kühlschränke ist einzigartig, was Position, Farbe und Form der Lötpunkte angeht. Für einen herkömmlichen Roboter sind solche Varianzen ein unüberwindbares Hindernis. Der monotone Prüfprozess blieb dem Menschen vorbehalten – bis jetzt.
Den Prüfprozess übernimmt bei BSH nun eine Robotik-Komplettlösung den Prüfprozess. Dank der integrierten Robotersteuerung MIRAI ist es dem Roboter möglich, alle zu prüfenden Lötstellen verlässlich zu identifizieren und die Schnüffelsonde millimetergenau heranzuführen – unabhängig von Position, Form oder Farbe. Das System reagiert in Echtzeit auf seine Umwelt und handhabt selbst unvorhergesehene Abweichungen präzise. Die Roboterfähigkeiten wurden von Mitarbeitenden bei BSH durch menschliche Demonstration in nur wenigen Stunden trainiert. Weder Programmier- noch KI-Kenntnisse waren erforderlich. BSH konnte mit der Automatisierungslösung die laufenden Betriebskosten senken und Wartungen und Fehlerbehebungen reduzieren.
Neue Technologien als Wettbewerbsvorteil
Die Beispiele zeigen, dass Unternehmen mit KI sehr viel bewirken können: KI ermöglicht mehr Flexibilität, Unabhängigkeit, Effizienz und nicht zuletzt Resilienz. Nicht unwichtig in Zeiten wie diesen. Neue Technologien sollte dabei als Türöffner zu mehr Automatisierung verstanden werden. Leistungen, die bislang von Menschen oder Maschinen erbracht wurden, können nun von einer Software geliefert werden. Das ist nicht nur vorteilhaft beim drastisch zunehmenden Arbeitskräftemangel. Es erhöht auch die Flexibilität, Nachvollziehbarkeit und Zuverlässigkeit von Produktionsprozessen und verschafft einen dauerhaften Wettbewerbsvorsprung.
ngenieur*innen sind zunehmend bestrebt, KI erfolgreich in Projekte und Anwendungen zu integrieren, während sie versuchen, ihre eigene KI-Lernkurve zu meistern. Allerdings werden viele KI-Projekte nach wenig vielversprechenden Ergebnissen wieder verworfen. Woran liegt das? Johanna Pingel, Product Marketing Manager bei MathWorks, erläutert, warum es für Ingenieur*innen wichtig ist, sich auf den gesamten KI-Workflow zu konzentrieren und nicht nur auf die Modellentwicklung:
Ingenieur*innen, die Machine Learning und Deep Learning einsetzen, erwarten oft, dass sie einen großen Teil ihrer Zeit mit der Entwicklung und Feinabstimmung von KI-Modellen verbringen. Die Modellierung ist zwar ein wichtiger Schritt im Workflow, aber das Modell ist nicht alleiniges Ziel. Das Schlüsselelement für den Erfolg bei der praktischen KI-Implementierung ist das frühzeitige Aufdecken von Problemen. Außerdem ist es wichtig zu wissen, auf welche Aspekte des Workflows man Zeit und Ressourcen konzentrieren sollte, um die besten Ergebnisse zu erzielen. Das sind nicht immer die offensichtlichsten Schritte.
Der KI-gesteuerte Workflow
Es lassen sich vier Schritte in einem KI-gesteuerten Workflow differenzieren, wobei jeder Schritt seine eigene Rolle bei der erfolgreichen Implementierung von KI in einem Projekt spielt.
Schritt 1: Datenaufbereitung
Die Datenaufbereitung ist wohl der wichtigste Schritt im KI-Workflow: Ohne robuste und genaue Daten zum Trainieren eines Modells sind Projekte rasch zum Scheitern verurteilt. Wenn Ingenieur*innen das Modell mit „schlechten“ Daten füttern, werden sie keine aufschlussreichen Ergebnisse erhalten – und wahrscheinlich viele Stunden damit verbringen, herauszufinden, warum das Modell nicht funktioniert.
Um ein Modell zu trainieren, sollten Ingenieur*innen mit sauberen, gelabelten Daten beginnen, und zwar mit so vielen wie möglich. Dies kann einer der zeitaufwendigsten Schritte des Workflows sein. Wenn Deep Learning-Modelle nicht wie erwartet funktionieren, konzentrieren sich viele darauf, wie man das Modell verbessern kann – durch das Optimieren von Parametern, die Feinabstimmung des Modells und mehrere Trainingsiterationen. Doch noch viel wichtiger ist die Aufbereitung und das korrekte Labeln der Eingabedaten. Das darf nicht vernachlässigt werden, um sicherzustellen, dass Daten korrekt vom Modell verstanden werden können.
Schritt 2: KI-Modellierung
Sobald die Daten sauber und richtig gelabelt sind, kann zur Modellierungsphase des Workflows übergegangen werden. Hierbei werden die Daten als Input verwendet und das Modell lernt aus diesen Daten. Das Ziel einer erfolgreichen Modellierungsphase ist die Erstellung eines robusten, genauen Modells, das intelligente Entscheidungen auf Basis der Daten treffen kann. Dies ist auch der Punkt, an dem Deep Learning, Machine Learning oder eine Kombination davon in den Arbeitsablauf einfließt. Hier entscheiden die Ingenieur*innen, welche Methoden das präziseste und robusteste Ergebnis hervorbringt.
Die KI-Modellierung ist ein iterativer Schritt innerhalb des gesamten Workflows, und Ingenieur*innen müssen die Änderungen, die sie während dieses Schrittes am Modell vornehmen, nachverfolgen können. Die Nachverfolgung von Änderungen und die Aufzeichnung von Trainingsiterationen mit Tools wie dem Experiment Manager von MathWorks sind entscheidend, da sie helfen die Parameter zu erklären, die zum genauesten Modell führen und reproduzierbare Ergebnisse liefern.
Schritt 3: Simulation und Tests
Ingenieur*innen müssen beachten, dass KI-Elemente meistens nur ein kleiner Teil eines größeren Systems sind. Sie müssen in allen Szenarien im Zusammenspiel mit anderen Teilen des Endprodukts korrekt funktionieren, einschließlich anderer Sensoren und Algorithmen wie Steuerung, Signalverarbeitung und Sensorfusion. Ein Beispiel ist hier ein Szenario für automatisiertes Fahren: Dabei handelt es sich nicht nur um ein System zur Erkennung von Objekten (Fußgänger*innen, Autos, Stoppschilder), sondern dieses System muss mit anderen Systemen zur Lokalisierung, Wegplanung, Steuerung und weiteren integriert werden. Simulationen und Genauigkeitstests sind der Schlüssel, um sicherzustellen, dass das KI-Modell richtig funktioniert und alles gut mit anderen Systemen harmoniert, bevor ein Modell in der realen Welt eingesetzt wird.
Um diesen Grad an Genauigkeit und Robustheit vor dem Einsatz zu erreichen, müssen Ingenieur*innen validieren, dass das Modell in jeder Situation so reagiert, wie es soll. Sie sollten sich auch mit den Fragen befassen, wie exakt das Modell insgesamt ist und ob alle Randfälle abgedeckt sind. Durch den Einsatz von Werkzeugen wie Simulink können Ingenieur*innen überprüfen, ob das Modell für alle erwarteten Anwendungsfälle wie gewünscht funktioniert, und so kosten- und zeitintensive Überarbeitungen vermeiden.
Schritt 4: Einsatz
Ist das Modell reif für die Bereitstellung, folgt als nächster Schritt der Einsatz auf der Zielhardware – mit anderen Worten, die Bereitstellung des Modells in der endgültigen Sprache, in der es implementiert werden soll. Das erfordert in der Regel, dass die Entwicklungsingenieur*innen ein implementierungsbereites Modell nutzen, um es in die vorgesehene Hardwareumgebung einzupassen.
Die vorgesehene Hardwareumgebung kann vom Desktop über die Cloud bis hin zu FPGAs reichen. Mithilfe von flexiblen Werkzeugen wie MATLAB kann der endgültige Code für alle Szenarien generiert werden. Das bietet Ingenieur*innen den Spielraum, ihr Modell in einer Vielzahl von Umgebungen einzusetzen, ohne den ursprünglichen Code neu schreiben zu müssen. Das Deployment eines Modells direkt auf einer GPU kann hier als Beispiel dienen: Die automatische Codegenerierung eliminiert Codierungsfehler, die durch eine manuelle Übersetzung entstehen könnten, und liefert hochoptimierten CUDA-Code, der effizient auf der GPU läuft.
Gemeinsam stärker
Ingenieur*innen müssen keine Datenwissenschaftler*innen oder gar KI-Expert*innen werden, um mit KI erfolgreich zu sein. Mit Werkzeugen für die Datenaufbereitung, Anwendungen zur Integration von KI in ihre Arbeitsabläufe und mit verfügbaren Expert*innen, die Fragen zur KI-Integration beantworten, können sie KI-Modelle auf Erfolgskurs bringen. In jedem dieser Schritte im Workflow haben Ingenieur*innen die Möglichkeit, flexibel ihr eigenes Domänenwissen einzubringen. Dies ist eine wichtige Basis, auf der sie mit den richtigen Ressourcen aufbauen und die sie durch KI ergänzen können.
Über MathWorks
MathWorks ist der führende Entwickler von Software für mathematische Berechnungen. MATLAB, die Programmiersprache für Ingenieurwesen und Wissenschaft, ist eine Programmierumgebung für die Algorithmen-Entwicklung, Analyse und Visualisierung von Daten sowie für numerische Berechnungen. Simulink ist eine Blockdiagramm-basierte Entwicklungsumgebung für die Simulation und das Model-Based Design von technischen Mehrdomänen-Systemen und Embedded Systemen. Ingenieure und Wissenschaftler weltweit setzen diese Produktfamilien ein, um die Forschung sowie Innovationen und Entwicklungen in der Automobilindustrie, der Luft- und Raumfahrt, der Elektronik, dem Finanzwesen, der Biotechnologie und weiteren Industriezweigen zu beschleunigen. MATLAB und Simulink sind zudem an Universitäten und Forschungsinstituten weltweit wichtige Lehr- und Forschungswerkzeuge. MathWorks wurde 1984 gegründet und beschäftigt mehr als 5000 Mitarbeiter in 16 Ländern. Der Hauptsitz des Unternehmens ist Natick, Massachusetts, in den USA. Lokale Niederlassungen in der D-A-CH-Region befinden sich in Aachen, München, Paderborn, Stuttgart und Bern. Weitere Informationen finden Sie unter mathworks.com.
GRBL is quite popular with the CNC hobby community, open source firmware that turns an Arduino into a CNC controller. It was released in 2015 and in recent years has gained many friends, among them SourceRabbit, a Greek CNC machine tool manufacturer, which aspires to transform GRBL from a hobby tool to an industry standard by offering the first commercial CNC control software for GRBL-compatible CNC machines.
Their new commercial software, GCode Sender 4-Axis, released in April 2021, replaced their old 3-axis software which has been available since 2015. It is compatible with the classic 3-Axis GRBL for AVR processors and the new multi axis Grbl for the Esp32.
We managed to obtain a statement from Nikos Siatras, CEO of SourceRabbit, who told us “From 2015 until the beginning of 2021, many GCode Sender applications were developed to control GRBL CNC machine tools. All of them were open source, free of charge, without any support and often with several bugs that tire even the most patient user. While GRBL is an incredibly good and flexible CNC control firmware, the GCode Senders that existed until today gave the impression that GRBL is purely for hobbyists. Through the development of our own software we are going to change that and we will try to make GRBL a CNC industry standard.”
SourceRabbit plans to implement many new tools and features to the GCode Sender 4-Axis. The software retails for €50.00 + VAT and with the purchase of each license you have free access to all subsequent versions of the software.
Image processing is a complex and very extensive topic. In order to be able to use the multitude of different application possibilities and functions optimally, EVT has been offering training courses on various topics of image processing for several years. The participants will learn how to use it correctly, as well as the numerous functions and possible uses of the innovative EyeVision software.
EVT now also offers the first free certification program in addition to free knowledge sharing. The webinar participants can participate and benefit from the advantages. After successfully completing a test that is independent of time and location, the participants receive a certificate and are allowed to bear the title “certified Eye Vision Technology professional in image processing”. The certification comes with numerous advantages, such as saving 10 percent with every order via EVT, the permission to use prioritized support via an exclusive acceptance point and an entry as a certified professional in image processing on the highly frequented Eye Vision homepage.
Certification not only benefits companies, but also customers. Because the certificate enables transparency about the knowledge of the person responsible in the field of image processing and the use of image processing software.
You can find out more about the criteria and registration for the free certification program at www.evt-web.com.
Ludo AI, available now in open beta, gives developers access to the world’s first AI platform for games concept creation – accelerating and democratizing games creation
Seattle, USA. AI (Artificial Intelligence) games creativity platform Ludo has announced its open beta, following a deeply successful closed beta and attracted participation from independent studios across the globe. Games creators tasked with delivering the next hit game to emulate the success of the likes of Call of Duty, Among Us, Fortnite and Fall Guys, now have the answer in Ludo – the world’s first AI games ideation tool.
Ludo, Latin for ‘I Play’, uses machine learning and natural language processing to develop game concepts 24 hours a day. The platform is constantly learning and evolving. Ludo is built on a database of close to a million games and is agile and supremely intelligent. When asked to find a new game idea, based on intuitive keyword searches, Ludo returns almost immediately with multiple written game concepts, artwork and images that developers can rapidly work on to take the next stage (concept presentation, MVP or accelerated soft launch).
AI has never before been used at the start of the games creation process: In a 159.3 billion* dollar industry, the pressure to release new hit games is relentless: And coming up with new exciting and sticky games is the Holy Grail. Ludo is set to revolutionize game creation enabling developers by arming them with unique games concepts within minutes of their request being processed. Furthermore, as Ludo’s powerful capabilities are within the reach of any size of studio, the creation process has been democratized.
Games publishers and developers must deliver hit new games at a pace: The industry landscape is changing as it grows in value: Large, acquisitive publishers are constantly on the lookout for growing independents, with great new games and creative ideas, to absorb as they, in turn, need to deliver value to their stakeholders.
“Creativity is the new currency in the games industry,” said Tom Pigott, CEO of JetPlay, Ludo’s creator. “The next hit game could be worth millions and you never know where it will spring up from. With Ludo anyone can come up with a great new game idea without having to waste hours on the process and then invest even more time in researching what is already out there and how successful any similar games have been. Ludo does it all for you: Ludo brings the playfulness back into the game creation process, increases the probability of coming up with a great new game, and saves time and money.”
Since the global pandemic the games industry has seen exponential growth and it is estimated to be worth $200 Billion by 2023. Every developer is under pressure to create a viable pipeline and now with so many ways of testing games quickly ( a large percentage being rejected before they get through the gates) the appetite is at an all time high for new games ideas and concepts.
Ludo has been created by a small outstanding global team of AI Ph.D.’s and the brainchild of seasoned entrepreneur Tom Pigott, CEO of Jet Play, the developer of Ludo. The new open beta follows a highly successful closed program that saw a select group of studios harness the creative power of AI. Now, with an open beta, games developers can try the platform free of charge for a trial period.
„We’ve been extremely pleased by the feedback and the usage of our platform by the game makers that were part of the closed beta,“ said Pigott. „AI, when used as part of the creative process, delivers great results. It is easy to use, working intuitively with keyword searches, and those involved in our closed beta have already proved that amazing things can be done, and all without detracting from their development or marketing time. Very soon Ludo will become an integral part of every studio’s games ideation process.”
The Ludo open beta program offers an opportunity to enjoy all the benefits of early adoption, giving a head start on a mobile game creation approach that works. Due to the tremendous interest there is a waitlist: those interested in joining the Ludo open beta can apply or find out more here.
The Quantum platform gives electronic enthusiasts, educators and developers total control of their IoT network. Built for novices and experts alike, anyone can control anything from a remote temperature sensor to an automated home and even robots with ease.
SANTA BARBARA, Calif., July 28, 2020 (Newswire.com) – Quantum Integration is announcing the launch of its Kickstarter campaign for the Quantum platform, beginning Tuesday, July 28, 2020.
Built from the ground up with a complete set of hardware and software, the Quantum platform allows anyone to build custom plug-and-play IoT devices that easily communicate with each other any way the user desires. With a graphical user interface for creating custom firmware for IoT devices and the applications that control them, programming is not required.
“We’re incredibly excited to open up this kind of technology to the mainstream,” says Michael Barnick, CEO and founder of Quantum Integration. “Hobby electronics and the IoT space in general can be intimidating for some, and platforms require a degree of programming knowledge. Our platform’s features like the drag-and-drop App Builder and automated Firmware Generator make developing complex projects simple, and users easily create and take on their own projects in record time.”
With a goal of $25,000, the Kickstarter campaign will run from July 28, 2020, to Aug. 31, 2020. Products will be ready to ship in September 2020.
Backers can choose from a variety of pledges, which are:
The Q-Server Central Core – The heart and power of the IoT platform which provides complete control of the entire IoT network.
Q-Client Builder Base – The easiest way for users to build their own custom IoT devices; can add virtually any sensor or device to the network.
Starter Kit – A wide variety of electronic components ready for immediate use on the Quantum IoT platform.
Limited quantities at an incredible discount are available for early backers. For more information and to become a backer, visit the Quantum Kickstarter campaign.
About Quantum Integration Inc.
The Quantum IoT platform enables electronics hobbyists to create wireless devices from a simple button to complete home automation and robots, and control it with custom apps and firmware without coding, all through a central server. The power of making!
CoderZ has launched CoderZ Adventure, a new coding and robotics course for elementary school students in grades two through five. The course contains activities and assignments, including more than 50 gamified “missions” with easy-to-follow walkthroughs and tips. It is designed to empower even teachers who are coding novices so that they can include a more comprehensive STEM foundation in their students’ early knowledge base.
CoderZ Adventure introduces students to the world of STEM and robotics through an exciting journey of adventures in the CoderZ world. Students will learn how to program their virtual robot to navigate in CoderZ Frozen Island, the Lost City, Candy Town and other stimulating locations while practicing basic math, geometry and more. Students work their way through seven adventures covering multiple topics:
1. Adventure Peak introduces basic navigation such as driving and turning using Drive and Turn blocks. 2. Frozen Island practices basic arithmetic practice: addition, subtraction and division. 3. The Lost City covers how to use the program’s Explore Mode feature to measure distances, the Wait block and Repeat Loops 4. Crystal Crater covers basic geometry exercises: angles and parallel lines. Students also practice Repeat Loops. 5. Candy Town delves into more geometry: the concept of the radius of a circle. Students also continue practicing Repeat Loops. 6. Sketch It is a practice exercise during which students draw on a virtual sketchpad using all the skills learned previously. 7. The Milky Way uses the Explore Mode feature to measure angles and radii. Students plan the optimal route to complete a mission as quickly and efficiently as possible, given a time limit.
Each session contains a series of related missions that enable students to learn to code with the virtual robot, apply their math skills and practice problem solving.
CoderZ Adventure is already proving popular with teachers and their students. One of the program’s fans is Christy Gonzales who teaches a robotics class at Pinecrest Glades Academy in Florida. “They’re loving the game!” she said. She challenges each student to try to find the solution first. “I incentivize them to resolve the challenge as efficiently as possible,” she explained. “Kids LOVE a race.”
“It’s great to see the CoderZ Team bookend the well-known middle school Cyber Robotics 101 and 102 packages expanding to a complete pedagogical solution with CoderZ Adventure as an incredible elementary school solution and text-based Python Gym for secondary school students,” said Trevor Pope, CoderZ Success Manager at CoderZ. “Programming virtual robots with CoderZ has an educational, engaging, competitive, fun and positive impact for all students in grades 2-12.”
About CoderZ CoderZ is an innovative and engaging online learning environment. Developed for students in grades 2 and above, the gamified STEM solution allows student to work at their own pace, easily programming real and virtual robots from anywhere in the world. The platform enables students to acquire computational thinking, problem solving and creativity skills, together with coding and STEM learning, all via a flexible and scalable virtual solution. For more information go to http://www.gocoderz.com.