modl.ai closes €8.5m Funding for AI Engine to Unleash Bots and Transform Game Development

COPENHAGEN, Denmark—November 2022—modl.ai, which seeks to remove the shackles of game development with a transformative AI engine, announced today it has closed Series A funding of €8.5m with lead investor Griffin Gaming Partners and M12 – Microsoft’s Venture Fund. The company received additional participation from Rendered.vc, PreSeed Ventures, and Transistormedia.

The modl.ai AI engine is redefining game development by equipping developers with an essentially unlimited army of bots that can adapt to various playing styles, employ dynamic moves and tactics. This gives developers power to enhance automation and remove the redundancies and manual efforts that often stymie and delay the release of new games and updates by months or even years.

Pierre-Edouard Planche, Partner at Griffin Gaming Partners, said: „Gaming is one of the trickiest user experiences for which to automate testing, and it therefore requires an utmost degree of technical talent and research combined with direct experience working in games. This is why we are very excited to be backing Christoffer, Lars, Benedikte, and the modl.ai team to help streamline a growing pain and multi-billion-dollar industry expense that is top of mind for many game developers.“

Carli Stein of M12 added: “At M12, we’re excited about the impact modl.ai will have on the gaming industry, allowing game developers to focus on the parts of development they love, while automating the costly, time-consuming, and manual processes they don’t,” said Carli Stein, an investor at M12. “When we met Christoffer and the modl.ai team, we knew they had the right combination of highly technical domain expertise, coupled with a product suite that has the potential to revolutionize game development as we know it.”

modl.ai was founded by a talented team of game developers, engineers and AI experts led by CEO Christoffer Holmgård, who saw the opportunity to use AI to automate and improve multiple aspects of the game development process. Between them, the company founders have developed and launched more than 30 games for PC, Mac, Playstation, Xbox, Switch, Apple Arcade and further platforms.

“We started modl.ai to build the tools and technology we always wished we had as game developers,” said Christoffer Holmgård, CEO and Co-Founder. “In 2018, we decided that the timing was right, both for technology and the market. The founders had worked together in games and AI for more than a decade, always discussing how we could bring advanced AI to game developers broadly, offering something completely new to the industry that we love. All games are unique, creative works, but they share production needs and technological characteristics. That’s why the games industry is becoming increasingly modular and standardized. This is a good thing, and we want to be the de facto AI Engine for as many games as possible.”

With the new funding, the company will expand its reach to make the AI Engine available to developers worldwide. With simple setup, developers will get access to AI players – to not just test and balance their games but also have access to customizable bots who will play their game with or against their player base. modl.ai’s AI Engine works with the major publicly available game engines such as Unity and Unreal Engine and can be extended to support any modern game engine.

modl.ai’s AI Engine drives bots for games, enabling AI players that test, evaluate, and even play games in the place of human players. The market for testing and quality assurance in games alone is several billion dollars, and the need for bot players has become crucial in a multiplayer focused $200Bn+ industry.

The games industry is on the cutting edge of technology and innovation; however much of the game development process is highly manual. This means significant creative potential with highly skilled developers, as well as precious speed to market, is lost to rote work and monotonous daily routine. modl.ai is on a mission to change this, building an AI Engine that frees developers to focus on creating, by automating the parts of the game development process that are repetitive and time consuming through AI players.

„Game testing is an endemic, universal, yet overlooked pain point in the industry that has material impact on studio operations, profitability, and title performance. Automation solutions have not emerged due to the complex nature of games and unique design. We strongly believe that modl.ai is the breakthrough team to tackle this moonshot opportunity and, in doing so, is positioned to build a powerful AI platform developed for 3D environments that can grow beyond games,“ stated Jiten Dajee, Rendered VC.

“At PreSeed Ventures, we know it’s all about a few individuals with a rare set of traits and the right mentality to move the needle and modl.ai’s CEO, Christoffer Holmgård is one of those people,” said Mads Klarskov Petersen, COO of PreSeed Ventures. “modl.ai has not only attracted top talent within the space, 12 PhDs from applied AI in games, but has proven the growing importance that AI plays across different aspects of modern game development. Moreover, Christoffer is one of our favorite examples of how a Danish startup can attract international talent and investors, by building a unique technology and sticking to its purpose: helping developers to enhance and increase player engagement no matter the market direction.”

ABOUT modl.ai

Headquartered in Denmark, modl.ai is a four-year-old company that is transforming the game development market with its state-of-the-art AI Engine and machine learning models. Staffed by many of the industry’s best and brightest, modl.ai currently ranks second in the world among private companies for the number of technical game publications its team has collectively authored. With modl.ai’s engine and game-playing bots, testing, evaluation, overall game development and speed to market will never be the same. „If anyone can bring games AI research to the industry and succeed, this is the team“ – Ken Stanley, OpenAI alum.“ For more please visit modl.ai.

Würden Sie abbeißen? KI analysierte mehr als eine Million Verlangen, um die zukunftssichere Milchschokolade für alle Geschmäcker zu kreieren

Wussten Sie, dass es tatsächlich eine Milchschokolade gibt, in der die Verlangen aller vereint sind? Die köstlichsten Wünsche von mehr als einer Million Schokoladenliebhabern wurden mithilfe von künstlicher Intelligenz ausgewertet, um eine Schokolade zu kreieren, die allen schmeckt. Zur Erfüllung der Bedürfnisse und in Reaktion auf steigende Gesundheitsprobleme wurde die Milchschokolade der Zukunft mittels einer einzigartigen Milchpulverlösung kreiert. „The Bar“ ist ein Milchschokoladenkonzept, das die sich ändernden Vorlieben der Schokoladenliebhaber vereint und dabei 30 % weniger Zucker enthält.

Da Milch die Hauptzutat von Schokolade ist, hat sich das finnische Molkerei- und Lebensmittelunternehmen Valio bei der Präsentation des Geschmacks der Zukunft künstliche Intelligenz zunutze gemacht. Die Rezeptur einer neuen von Menschen kreierten Milchschokolade mit dem Namen „The Bar“ basiert auf der KI-Analyse der Gedanken, Verlangen und Geschmacksvorlieben von Milchschokoladenliebhabern auf der ganzen Welt. Valio entwickelte das Zukunftskonzept gemeinsam mit den lokalen Chocolatiers des Unternehmens Kultasuklaa, das heißt auch, dass Valio nicht auf die Herstellung von Schokolade umgestellt hat. „The Bar“ ist ein Nachweis dessen, was die Milchpulverlösung eines Molkereiunternehmens erzielen kann und wie die Zukunft der Milchschokolade aussehen könnte.

„Die Bedürfnisse und Vorlieben der Milchschokoladenliebhaber weltweit befinden sich im Wandel. Ein zunehmendes Bewusstsein für Gesundheitsprobleme wirkt sich auf die Süßwarenindustrie aus und Regierungen weltweit regulieren bereits die Verwendung und den Konsum von Zucker. Dank unserer Valio Bettersweet-Lösung bleibt der Geschmack gleich, trotz reduzierten Zuckeranteil,” sagt Valios Senior Vice President Timo Pajari.

Die Pionierarbeit in der Milchindustrie erfordert kontinuierliches Lernen, wie Technologie in der Produktentwicklung von Milchbestandteilen genutzt werden kann. Vergangenes Frühjahr hat das Unternehmen mithilfe von künstlicher Intelligenz mehr als 1,5 Millionen öffentliche Diskussionen über Milchschokolade in den sozialen Medien aus der ganzen Welt analysiert und hunderte von Menschen zu Ihren Vorlieben bezüglich Schokolade befragt. Die KI wurde von dem finnischen Unternehmen Aiwo Digital in Zusammenarbeit mit dem Consumer Insight-Team von Valio entwickelt.

„Wir wollten die köstlichsten und verborgensten Verlangen von Milchschokoladenliebhabern aufdecken. Durch die Kombination von KI-Fähigkeiten, menschlichem Handwerk und unserem Know-how im Bereich Milchpulver konnten wir die Schokolade der Zukunft kreieren. Die Beobachtungen und Auswertungen von Unterhaltungen auf sozialen Medien haben es uns ermöglicht, Rückschlüsse auf authentische Verbrauchervorlieben zu ziehen”, sagt Pajari.
 

Fünf unterschiedliche Schichten für unterschiedliche Verbraucherverlangen

Die Ergebnisse zeigten leise Signale und aufkommende Milchschokoladen-Trends mit zwei wichtigen Schlussfolgerungen. Erstens gibt es keine einzige Lieblingsschokolade bezüglich Geschmack, Füllung oder Größe, da Verbraucher unterschiedliche Milchschokoladen in unterschiedlichen Situationen genießen möchten. Zweitens möchten Verbraucher sich Milchschokolade mit gutem Gewissen gönnen. Der Geschmack und die Süße sind sehr wichtige Faktoren, allerdings wünschen Verbraucher gleichzeitig eine gesündere Milchschokolade, die auf natürliche Weise weniger Zucker enthält.

Die Rezeptur für eine gesündere Traumschokolade basiert auf den Ergebnissen der KI: fünf unterschiedliche Schokoladensorten mit weniger Zucker. Jede Schokolade unterscheidet sich in Geschmack und Textur, um den unterschiedlichen Verbraucherverlangen zu entsprechen: Hunger, Verlangen, Entspannung oder Freude. Von Biss zu Biss werden neue Empfindungen aufgedeckt und bauen schrittweise aufeinander auf. Das von professionellen Designern entworfene topografische Design der Tafel ermöglicht es, dass die Schichten leicht voneinander getrennt werden können, um sie dann zum richtigen Zeitpunkt genießen zu können.

„Die Schokoladensorten bilden eine neue Alternative zu den herkömmlichen Pralinenschachteln, in der unterschiedliche Schokoladensorten kombiniert werden, anstatt diese voneinander getrennt zu halten. Jede Milchschokoladenschicht ist für unterschiedliche Situationen im Leben gedacht. Neben dem einfachen Milchschokoladengeschmack sind die anderen Schichten mit Nüssen, Kokosnuss und Keks-Crunch versehen“, erklärt Pajari.
 

Die Milchschokolade der Zukunft hat 30 % weniger Zucker bei gleichem Geschmack

Um dem wachsenden Bedürfnis für gesündere und natürliche Milchschokolade gerecht zu werden, enthält „The Bar“ 30 % weniger Zucker als herkömmliche Schokolade und ist zudem laktosefrei. Erzielt wird dies durch die Verwendung von der Valio Bettersweet™-Lösung, die weder den süßen Geschmack noch die Textur der Milchschokolade verändert.

Die Milchpulver-Lösung Valio Bettersweet™ ermöglicht eine natürliche Zuckerreduzierung in jedem Milchschokoladenprodukt, indem sie die Proteine der Milch nutzt und dadurch den Bedarf an zugesetztem Zucker reduziert. Die 30-prozentige Zuckerreduzierung ist nur der Anfang, Valio arbeitet bereits an Lösungen, die das Zusetzen von Zucker vollständig überflüssig machen.

„Wir sehen, dass die Milchschokolade der Zukunft weniger Zucker und nur natürliche Bestandteile enthält, ohne dabei dem bekannten Geschmack zu schaden. Das Konzept „The Bar“ demonstriert, wie unsere Bettersweet-Milchpulverlösung genau das erzielt; wir können jedoch auch KI nutzen, um noch bessere Produkte für die sich ändernden Bedürfnisse und Wünsche der Verbraucher zu schaffen. Wo auch immer sich die Zukunft der Schokolade abspielen wird, mit Valio Bettersweet werden immer bessere Ergebnisse erzielt”, so Pajari.

Erfahren Sie auf Valios Webseite mehr über „The Bar“, das natürliche Rezept, den großartigen Geschmack sowie über das funktionelle futuristische Konzept.

2D, 3D and AI: IDS presents numerous new products and camera developments at VISION

Today, cameras are often more than just suppliers of images – they can recognise objects, generate results or trigger follow-up processes. Visitors to VISION Stuttgart, Germany, can find out about the possibilities offered by state-of-the-art camera technology at IDS booth 8C60. There, they will discover the next level of the all-in-one AI system IDS NXT. The company is not only expanding the machine learning methods to include anomaly detection, but is also developing a significantly faster hardware platform. IDS is also unveiling the next stage of development for its new uEye Warp10 cameras. By combining a fast 10GigE interface and TFL mount, large-format sensors with up to 45 MP can be integrated, opening up completely new applications. The trade fair innovations also include prototypes of the smallest IDS board-level camera and a new 3D camera model in the Ensenso product line.

IDS NXT: More than artificial intelligence
IDS NXT is a holistic system with a variety of workflows and tools for realising custom AI vision applications. The intelligent IDS NXT cameras can process tasks „on device” and deliver image processing results themselves. They can also trigger subsequent processes directly. The range of tasks is determined by apps that run on the cameras. Their functionality can therefore be changed at any time. This is supported by a cloud-based AI Vision Studio, with which users can not only train neural networks, but now also create vision apps. The system offers both beginners and professionals enormous scope for designing AI vision apps. At VISION, the company shows how artificial intelligence is redefining the performance spectrum of industrial cameras and gives an outlook on further developments in the hardware and software sector.

uEye Warp10: High speed for applications
With 10 times the transmission bandwidth of 1GigE cameras and about twice the speed of cameras with USB 3.0 interfaces, the recently launched uEye Warp10 camera family with 10GigE interface is the fastest in the IDS range. At VISION, the company is demonstrating that these models will not only set standards in terms of speed, but also resolution. Thanks to the TFL mount, it becomes possible to integrate much higher resolution sensors than before. This means that even detailed inspections with high clock rates and large amounts of data will be feasible over long cable distances. The industrial lens mount allows the cameras to fully utilise the potential of large format (larger than 1.1″) and high resolution sensors (up to 45 MP).

uEye XLS: Smallest board-level camera with cost-optimised design
IDS is presenting prototypes of an additional member of its low-cost portfolio at the fair. The name uEye XLS indicates that it is a small variant of the popular uEye XLE series. The models will be the smallest IDS board-level cameras in the range. They are aimed at users who, e.g. for embedded applications, require particularly low-cost, extremely compact cameras with and without lens holders in large quantities. They can look forward to Vision Standard-compliant project cameras with various global shutter sensors and trigger options.

Ensenso C: Powerful 3D camera for large-volume applications
3D camera technology is an indispensable component in many automation projects. Ensenso C is a new variant in the Ensenso 3D product line that scores with a long baseline and high resolution, while at the same time offering a cost-optimised design. Customers receive a fully integrated, pre-configured 3D camera system for large-volume applications that is quickly ready for use and provides even better 3D data thanks to RGB colour information. A prototype will be available le at the fair.

Learn more: https://en.ids-imaging.com/ueye-warp10.html

Bitcoin-Roboter und KI: Wie werden Roboter beim Handel mit Kryptowährungen eingesetzt?

Wer etwa plant, in Kryptowährungen zu investieren, der wird sich vermutlich schnell überfordert fühlen: Es gibt mehr als 4000 Kryptowährungen am Markt – in welche digitale Währungen sollte man also investieren? Ist es ratsam, in noch eher neue und unbekanntere Kryptowährungen zu investieren oder sollte nur Geld in die bekannten Klassiker – Bitcoin, Ether oder auch Litecoin – gepumpt werden?

Man kann aber nicht nur langfristig in verschiedene Kryptowährungen investieren, sondern auch mit der weiteren Preisentwicklung spekulieren und darauf setzen, ob die Preise der einen oder anderen Kryptowährung nach oben oder nach unten gehen. Da der Kryptomarkt sehr volatil ist, kann man hier auch mit geringeren Summen hohe Gewinne erzielen.

Aber die Volatilität ist Fluch und Segen zugleich. Und wer sich schon mit dem Kryptomarkt befasst hat, der weiß, Vorhersagen müssen nicht immer zutreffen.

Trading Bots als Unterstützung: Kann das überhaupt funktionieren?

Dass das Trading mit Kryptowährungen enorm zeitaufwendig ist, mag kein Geheimnis sein. Denn letztlich muss man den Markt und seine Entwicklungen beobachten, analysieren und dann die entsprechenden Positionen eröffnen und wieder schließen. Und da der Markt 24 Stunden am Tag geöffnet ist, gibt es hier am Ende keine Verschnaufpause für den Trader, wenn er keinen Trend verpassen möchte.

Getradet werden kann über einen Broker, der Kryptowährungen im Sortiment hat. Man kann aber auch mit einem automatisierten Trading Bot arbeiten und diesem die Aufgabe übertragen, mit Kryptowährungen zu spekulieren. Aber worauf ist zu achten, wenn man plant, die Dienste eines automatisierten Trading Bots in Anspruch nehmen zu wollen? Kann wirklich dem Trading Bot zu 100 Prozent das Vertrauen geschenkt werden oder ist es besser, hier stets einen kontrollierenden Blick auf die Entscheidungen zu werfen?

Anbieter miteinander vergleichen

Es gibt viele automatische Trading Roboter, sodass man im Vorfeld einen Vergleich der verschiedenen Anbieter anstellen sollte. Dabei geht es zuerst um die Seriosität. Gibt es Hinweise, die darauf schließen lassen, dass der Anbieter unseriös ist? Hilfreich sind hier mitunter Test- oder auch Erfahrungsberichte, die im Internet zu finden sind. Des Weiteren geht es um die Gebühren und um die Trefferquote. Denn wer mit automatisierten Trading Bots arbeitet, der will, dass diese natürlich richtig liegen und man sodann in die Gewinnzone kommt.

Doch man muss vorsichtig sein: Wer mit einem Trading Bot arbeitet, der muss im Vorfeld selbst ein paar Einstellungen vornehmen – stellt man fest, dass man nicht in die Gewinnzone kommt, so sollte man mitunter auch die Einstellungen verändern. Wobei anzumerken ist, dass es auch über einen Trading Bot keine Gewinngarantie gibt.

Volatilität: Fluch und Segen, Chance und Risiko

Beobachtet man den Kryptomarkt, so wird man relativ schnell zu dem Ergebnis kommen, dass es hier immer wieder steil nach oben wie nach unten gehen kann. Wer hat sich nicht schon einmal gedacht, hätte man bloß zum richtigen Zeitpunkt investiert, dann wäre man jetzt alle finanzielle Sorgen los. Aber man zögert, lässt sich vom Bauchgefühl beeinflussen – und genau das ist die Stärke der Trading Bots.

Denn der automatisierte Trading Bot analysiert den Markt, erkennt Trends und eröffnet dann Positionen, die geschlossen werden, wenn die Analysen zu dem Ergebnis kommen, dass es wieder in die andere Richtung geht. Basierend auf bestimmte Algorithmen, erkennen die Systeme, wann der richtige Zeitpunkt zum ein- bzw. aussteigen ist. Doch die Betreiber der Plattformen halten sich bedeckt: Gearbeitet wird zwar mit KI, aber wie am Ende die Berechnungen durchgeführt werden, das bleibt das Geheimnis der im Hintergrund agierenden Köpfe.

Letztlich muss man jedoch anmerken, dass mit Trading Bots nur mit Blick auf kurzfristige Preisbewegungen spekuliert werden kann. Wer plant, langfristig zu investieren, muss selbst aktiv werden.

Sollte man auch langfristig investieren?

Aber lohnt sich ein langfristiges Investment in Kryptowährungen oder sollte man nur mit den Trading Bots arbeiten? Wer sich mit den langfristigen Prognosen befasst, ist gut beraten, auch einen Teil des Ersparten direkt zu investieren. Viele Experten sind überzeugt, der Kryptomarkt wird mit den Jahren an Stärke gewinnen, sodass das automatisch zu Gewinnen führen kann.

KI begreifen: Schulklassen in NRW programmieren Künstliche Neuronale Netze mit Open Roberta

Einen Blick in die »Blackbox« werfen und Künstliche Intelligenz (KI) selbst programmieren – das ermöglichen das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS, das Ministerium für Schule und Bildung des Landes Nordrhein-Westfalen, die Universität zu Köln und die InterScience-Akademie für Algorithmik. Nach der Einführung des Pflichtfachs Informatik zum Schuljahr 2021/22 in NRW hat auch KI einen festen Platz im Unterricht für die Sekundarstufe I in den Klassen 5 und 6. In dem Zuge können die Schüler*innen in NRW, aber auch darüber hinaus, auf der Fraunhofer-Programmierplattform »Open Roberta Lab« künftig Künstliche Neuronale Netze selbst programmieren und testen. Ab Sommer 2022 bietet das Fraunhofer IAIS jungen Menschen weltweit einen einmaligen Zugang zur KI.

Künstliche Intelligenz ist eines der bedeutendsten und zugleich kritischsten Zukunftsthemen. Sie findet schon heute in zahlreichen Bereichen unseres Alltags Anwendung, zum Beispiel bei Gesichtserkennung, automatischer ‎Textergänzung, Sprachassistenten, personalisierter Werbung, ‎Übersetzungsprogrammen und Gesundheits-Apps. Um den Schülerinnen und Schülern einen praxisnahen Einstieg in diese Thematik zu erleichtern, fördert das Ministerium für Schule und Bildung des Landes Nordrhein-Westfalen die Entwicklung von KI-Lerninhalten und Materialien im Rahmen des Projekts »KI-Algorithmen im Informatikunterricht« seit September 2021.

© insta_photos – stock.adobe.com/Fraunhofer IAIS
Das Fraunhofer IAIS hat erstmals Künstliche Neuronale Netze auf seiner Programmierplattform Open Roberta integriert.

Mit dieser Unterstützung hat das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS erstmals Künstliche Neuronale Netze auf seiner Programmierplattform Open Roberta integriert. In dem Projekt arbeiten Fraunhofer und die Universität zu Köln zusammen, um die Schulen bei der Unterrichtsentwicklung im Bereich der KI zu unterstützen. Initiator des Projekts ist Prof. Dr. Ulrich Trottenberg, der die Projektpartner ehrenamtlich unterstützt.

Staatssekretär Mathias Richter vom Ministerium für Schule und Bildung des Landes Nordrhein-Westfalen: »Vor dem Hintergrund der rasant steigenden Bedeutung von Künstlicher Intelligenz in der Lebens- und Arbeitswelt ist es dringend geboten, möglichst früh Kompetenzen im Bereich Künstliche Intelligenz und Maschinelles Lernen aufzubauen. Wir wollen es unseren Schülerinnen und Schülern ermöglichen, ihre eigene Zukunft mitzugestalten, denn die Auswirkungen von KI machen sich zunehmend bemerkbar. Ich danke allen am Projekt Beteiligten herzlich für ihre Unterstützung zur Stärkung der informatischen Bildung in Nordrhein-Westfalen insbesondere im Bereich der KI.«

Künstliche Intelligenz erhält einen festen Platz im Informatikunterricht

KI wird oft als komplexe Technologie wahrgenommen, die nur von Fachleuten verstanden und gestaltet werden kann. Dabei können Kompetenzen in diesem Teilgebiet der Informatik schon in der Schule altersangemessen vermittelt werden. Deshalb hat seit der Einführung des Pflichtfachs Informatik in Klasse 5/6 aller weiterführenden Schulen zum Schuljahr 2021/22 in NRW auch der Bereich Künstliche Intelligenz einen festen Platz im Informatikunterricht. Hier werden unter anderem Anwendungsbeispiele von KI aus der Lebenswelt der Schülerinnen und Schüler thematisiert sowie Grundprinzipien des Maschinellen Lernens altersgerecht vermittelt.

Im Rahmen des Projekts wird die bereits weit verbreitete Open-Source-Programmierumgebung Open Roberta Lab des Fraunhofer IAIS insbesondere um die Integration Künstlicher Neuronaler Netze (KNN) erweitert, um KI-Algorithmen durch grafische Programmierung intuitiv erleb- und verstehbar zu machen. Ziel ist es, dass Schülerinnen und Schüler ab den Klassen 5 und 6 verstehen, was ein Künstliches Neuronales Netz ist, wie es funktioniert und wie sie selbst ein KNN programmieren können, welches zum Beispiel einem Roboter ermöglicht, sich selbstständig in seiner Umwelt zu bewegen. Dabei steht im Vordergrund, dass die grundlegenden Prinzipien eines KNN verstanden und selbst umgesetzt werden können.

Praxisnaher Blick in die »Blackbox«

Thorsten Leimbach, Leiter der Roberta-Initiative und des Geschäftsfelds Smart Coding and Learning am Fraunhofer IAIS: »Üblicherweise wird KI – wenn überhaupt – in der Schule als eine Art Blackbox-Anwendung behandelt. Als eines der führenden Wissenschaftsinstitute auf den Gebieten KI und Maschinelles Lernen freuen wir uns, gemeinsam mit dem Schulministerium NRW und unseren Projektpartnern einen praxisnahen Blick in diese Box zu ermöglichen. Künstliche Neuronale Netze werden zu einem begreifbaren Element, das Schülerinnen und Schüler selbst programmieren können. Sie nähern sich so den Themen Maschinelles Lernen und KI auf innovative Weise.«

Neben dem Fraunhofer IAIS ist das Institut für Mathematikdidaktik (IMD) unter Leitung von Prof. Dr. Inge Schwank am Projekt beteiligt. Das IMD widmet sich der Frage, wie die KI-Thematik für alle Schulformen aufbereitet werden kann. Weiterhin beteiligt sind das Department Mathematik/Informatik (DMI) der Universität zu Köln sowie die InterScience-Akademie für Algorithmik (ISAFA), die das Projekt initiiert hat und ehrenamtlich unterstützt.

Die KNN-Integration als Bestandteil des Open Roberta Labs soll ab Sommer 2022 für alle Schulen und Interessierte weltweit unter https://lab.open-roberta.org verfügbar sein. Lehrkräfte und weitere Messebesucher*innen können auf der didacta 2022 (am Mittwoch und Samstag) am Stand des Schulministeriums NRW bereits einen ersten Einblick erhalten.

Block-based Editor: Create Vision Apps without programming knowledge

New IDS NXT software release themed „App your camera!“

The current software release 2.6 for the AI vision system IDS NXT focuses primarily on simplifying app creation. The initial phase in development is often one of the greatest challenges in the realisation of a project. With the help of the new Application Assistant in IDS NXT lighthouse, users configure a complete vision app under guidance in just a few steps, which they can then run directly on an IDS NXT camera. With the Block-based Editor, which is also new, users can configure their own program sequences with AI image processing functions, such as object recognition or classification, without any programming knowledge. Users create simple sequences in a few minutes with this visual code editor without having to know the syntax of a specific programming language.

With the Use Case Assistant, IDS supports users in creating Vision App projects. They simply select the use case that fits their project. With queries and tips, the assistant guides them through the process of creating the Vision App project and creates the code, just like in an interview. It links existing training projects with the vision app project or creates new training projects and data sets in IDS NXT lighthouse if required.

With the combinable blocks and the intuitive user interface of the Block-based Editor, anyone can realise their own projects using AI-based image processing (such as object detection or classification) as an individual vision app without having to know the syntax of a specific programming language. Using the predefined blocks of the code editor, users build their vision app graphically, including processes such as loops and conditional statements. How this works is demonstrated, for example, in the IDS Vision Channel (www.ids-vision-channel.tech). The session „Build AI vision apps without coding – xciting new easyness“ is available for viewing as a recording.

IDS NXT is a comprehensive system with a wide range of workflows and tools for realising your own AI vision applications. The intelligent IDS NXT cameras can process tasks „OnDevice“ and deliver image processing results themselves. The tasks of the cameras are determined by apps that are uploaded to the cameras and executed there. Their functionality can thus be changed at any time. This is supported by software such as IDS NXT lighthouse, with which users can not only train neural networks, but now also create their own vision apps. The system offers both beginners and professionals enormous scope for designing AI vision apps.
Learn more: www.ids-nxt.com

Large laundry

Intelligent robotics for laundries closes automation gap

The textile and garment industry is facing major challenges with current supply chain and energy issues. The future recovery is also threatened by factors that hinder production, such as labour and equipment shortages, which put them under additional pressure. The competitiveness of the industry, especially in a global context, depends on how affected companies respond to these framework conditions. One solution is to move the production of clothing back to Europe in an economically viable way. Shorter transport routes and the associated significant savings in transport costs and greenhouse gases speak in favour of this. On the other hand, the related higher wage costs and the prevailing shortage of skilled workers in this country must be compensated. The latter requires further automation of textile processing. The German deep-tech start-up sewts GmbH from Munich has focused on the great potential that lies in this task. It develops solutions with the help of which robots – similar to humans – anticipate how a textile will behave and adapt their movement accordingly.

The German deep-tech start-up sewts GmbH from Munich has focused on the great potential that lies in this task. It develops solutions with the help of which robots – similar to humans – anticipate how a textile will behave and adapt their movement accordingly. In the first step, sewts has set its sights on an application for large industrial laundries. With a system that uses both 2D and 3D cameras from IDS Imaging Development Systems GmbH, the young entrepreneurs are automating one of the last remaining manual steps in large-scale industrial laundries, the unfolding process. Although 90% of the process steps in industrial washing are already automated, the remaining manual operations account for 30% of labour costs. The potential savings through automation are therefore enormous at this point.

Application

It is true that industrial laundries already operate in a highly automated environment to handle the large volumes of laundry. Among other things, the folding of laundry is done by machines. However, each of these machines usually requires an employee to manually spread out the laundry and feed it without creases. This monotonous and strenuous loading of the folding machines has a disproportionate effect on personnel costs. In addition, qualified workforce is difficult to find, which often has an impact on the capacity utilisation and thus the profitability of industrial laundries. The seasonal nature of the business also requires a high degree of flexibility. sewts makes IDS cameras the image processing components of a new type of intelligent system whose technology can now be used to automate individual steps, such as sorting dirty textiles or inserting laundry into folding machines.

„The particular challenge here is the malleability of the textiles,“ explains Tim Doerks, co-founder and CTO. While the automation of the processing of solid materials, such as metals, is comparatively unproblematic with the help of robotics and AI solutions, available software solutions and conventional image processing often still have their limits when it comes to easily deformable materials. Accordingly, commercially available robots and gripping systems have so far only been able to perform such simple operations as gripping a towel or piece of clothing inadequately. But the sewts system

Weiterlesen

Potenziale KI-gestützter Robotik für die Industrie

Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie und birgt enormes wirtschaftliches Potenzial. Doch ein Blick in deutsche Produktionshallen zeigt noch ein anderes Bild: Lediglich 6,8 Prozent der Unternehmen aus den Bereichen Maschinenbau und Elektrotechnik setzen KI-Technologien ein (Stand 2019). Dabei birgt KI gerade für das produzierende Gewerbe zahlreiche Potenziale.

Künstliche Intelligenz ist ein Überbegriff, der den Ansatz beschreibt, mit Maschinen Probleme zu lösen und menschliche Intelligenz zu imitieren. Dabei spielt insbesondere ein Teilbereich, das Machine Learning (Maschinelles Lernen), in Unternehmen und Produktionen eine entscheidende Rolle. Machine Learning bedeutet, dass ein System aus Beispielen lernt und diese nach der Lernphase verallgemeinern kann.

In der Produktion kommt Machine Learning beispielsweise im Bereich Predictive Analytics zum Einsatz. Dort wird KI als Teil von Vorhersagemodellen zur Überwachung und Wartung von Produktionsanlagen eingesetzt, um frühzeitig auf kritische Zustände reagieren zu können.

Auch das Wissensmanagement greift für die Auswertung von internen Informationen und Daten auf Machine Learning zurück. Daten von Fertigungslinien, Lieferketten, aber auch von einzelnen Produkten werden für Unternehmensprozesse, die Produktentwicklung und neue Geschäftsmodelle ausgewertet. Ohne den Einsatz von KI wäre eine Analyse aufgrund der schieren Datenmenge nicht möglich.

Mit KI und Robotik Handarbeitsplätze automatisieren

Machine Learning, häufig in Kombination mit Machine Vision, kommt auch in den Bereichen Robotik und Automatisierung, Sensorik und bei fahrerlosen Transportsystemen zum Einsatz. Für die Fertigung ist dabei das Zusammenspiel von KI und Robotik ein wichtiger Schlüssel für die Zukunft.

KI-Produkte, wie beispielsweise Robotersteuerungen, ermöglichen es unter anderem, Handarbeitsplätze zu automatisieren. Ein nicht zu vernachlässigender Vorteil, denn Arbeitskräfte sind rar und der Mangel verschärft sich in den Jahren weiter, wie der Deutsche Industrie- und Handelskammertag (DIHK) prognostiziert. Übernehmen Roboter auch Aufgaben, für die es bisher die Flexibilität eines Menschen brauchte, sorgt das für die Entlastung der Stammbelegschaft, eine Auslastung der Maschinen und sichert auf lange Sicht die Wettbewerbsfähigkeit.

Robuster Umgang mit Varianzen

KI-Steuerungen wie MIRAI von Micropsi Industries ergänzen die native Steuerung eines Roboters. Der Roboter erhält dank einer Kamera und einem neuronalen Netzwerk die Auge-Hand-Koordination und eine vergleichbare Flexibilität wie ein Mensch. Ein solches intelligentes Robotersystem lernt bei neuen Aufgaben, bei anders geformten oder positionierten Werkteilen oder bei vergleichbaren Varianzen schnell, was es zu tun hat und passt bei Bedarf seine Bewegungen in Echtzeit eigenständig an. Ob es sich um das Picken einzelner Teile, Zustellbewegungen oder Fügen und Verfolgen handelt: Zahlreiche Tätigkeiten sind mit einer einzigen kleinen Kamera am Roboter-Handgelenk umsetzbar.

Diese Fähigkeiten lassen sich mit MIRAI durch menschliche Demonstration trainieren. Weder KI- noch Programmierkenntnisse sind erforderlich. Das Know-how bleibt selbst ohne KI-Fachkräfte im Unternehmen. Dem Roboter muss dafür das Ziel einige Male in typisch vorkommenden Varianzen mit der Kamera gezeigt werden. Die KI verallgemeinert im Anschluss die gezeigten Daten. Ein solches System kann in wenigen Stunden trainiert und sogar neu trainiert werden. Selbst eine Fertigung im High Mix-/Low-Volume lässt sich so rentabel automatisieren. Was intelligente Robotiklösungen bereits in der Praxis leisten, zeigen die folgenden Beispiele.

Intelligentes Handling-System bei ZF

Der Technologiekonzern ZF stand vor der Herausforderung, die Werkstückzufuhr einer großvolumigen Frässtation, in der Zahnräder produziert werden, zu automatisieren. Im Werkprozess werden Metallringe aus einer Kiste entnommen und auf ein Förderband gelegt, um später in die Produktion der Zahnräder einzufließen. Die Schwierigkeit: Der Produktionsschritt ist sehr variantenreich, da sich die Ringe in der angelieferten Gitterbox verschieben und dadurch zufällig angeordnet sind. Auch Platzierung und Form der Box variieren. Wechselnde Lichtverhältnisse stellen eine zusätzliche Herausforderung dar. Außerdem ist die Oberfläche der Ringe metallisch glänzend, teilweise ölverschmiert oder korrodiert, was eine klassische Automatisierung unmöglich machte.

Heute ist die KI-Steuerung MIRAI und ein Cobot vom Modell UR10e bei ZF in einer automatisierten Werkstückaufnahme im Einsatz. Mit seiner eigenen Steuerung bringt der Cobot sich über den Ringen in der Kiste in Position. Nun übernimmt das MIRAI-System die Kontrolle: Es bewegt den Roboter selbstständig zum nächsten Ring und bringt den Greifer in die korrekte dreidimensionale Greifposition. Danach übernimmt der UR10e wieder, nimmt den Ring auf und bewegt ihn zum Ablegen auf das Förderband. Das komplette Einrichten des Roboters dauerte lediglich wenige Tage – MIRAI löste in kürzester Zeit ein lang bestehendes Problem.

BSH sucht mit KI nach Kältemittellecks

An ihrem spanischen Standort stellt die BSH Hausgeräte GmbH Kühl- und Gefrierschränke her. Im Herstellungsprozess muss das Unternehmen die Kupferrohrleitungen der Kühlschränke auf Leckagen testen. Für die sogenannte Dichtheitsprüfung wird eine Schnüffelsonde entlang der Kupferrohrleitungen und Kompressoren geführt, um Lötstellen auf austretendes Gas und Kältemittel zu prüfen. Das Besondere: Jede Rückseite der hergestellten Kühlschränke ist einzigartig, was Position, Farbe und Form der Lötpunkte angeht. Für einen herkömmlichen Roboter sind solche Varianzen ein unüberwindbares Hindernis. Der monotone Prüfprozess blieb dem Menschen vorbehalten – bis jetzt.

Den Prüfprozess übernimmt bei BSH nun eine Robotik-Komplettlösung den Prüfprozess. Dank der integrierten Robotersteuerung MIRAI ist es dem Roboter möglich, alle zu prüfenden Lötstellen verlässlich zu identifizieren und die Schnüffelsonde millimetergenau heranzuführen – unabhängig von Position, Form oder Farbe. Das System reagiert in Echtzeit auf seine Umwelt und handhabt selbst unvorhergesehene Abweichungen präzise. Die Roboterfähigkeiten wurden von Mitarbeitenden bei BSH durch menschliche Demonstration in nur wenigen Stunden trainiert. Weder Programmier- noch KI-Kenntnisse waren erforderlich. BSH konnte mit der Automatisierungslösung die laufenden Betriebskosten senken und Wartungen und Fehlerbehebungen reduzieren.

Neue Technologien als Wettbewerbsvorteil

Die Beispiele zeigen, dass Unternehmen mit KI sehr viel bewirken können: KI ermöglicht mehr Flexibilität, Unabhängigkeit, Effizienz und nicht zuletzt Resilienz. Nicht unwichtig in Zeiten wie diesen. Neue Technologien sollte dabei als Türöffner zu mehr Automatisierung verstanden werden. Leistungen, die bislang von Menschen oder Maschinen erbracht wurden, können nun von einer Software geliefert werden. Das ist nicht nur vorteilhaft beim drastisch zunehmenden Arbeitskräftemangel. Es erhöht auch die Flexibilität, Nachvollziehbarkeit und Zuverlässigkeit von Produktionsprozessen und verschafft einen dauerhaften Wettbewerbsvorsprung.

Weitere Informationen unter: https://bit.ly/MicropsiIndustries

Robots as helpers in the lettuce harvest

Robot solution for automating the lettuce harvest

Lettuce is a valuable crop in Europe and the USA. But labor shortages make it difficult to harvest this valuable field vegetable, as sourcing sufficient seasonal labor to meet harvesting commitments is one of the sector’s biggest challenges. Moreover, with wage inflation rising faster than producer prices, margins are very tight. In England, agricultural technology and machinery experts are working with IDS Imaging Development Systems GmbH (Obersulm, Germany) to develop a robotic solution to automate lettuce harvesting.

Robot solution for automating the lettuce harvest

The team is working on a project funded by Innovate UK and includes experts from the Grimme agricultural machinery factory, the Agri-EPI Centre (Edinburgh UK), Harper Adams University (Newport UK), the Centre for Machine Vision at the University of the West of England (Bristol) and two of the UK’s largest salad producers, G’s Fresh and PDM Produce.

Within the project, existing leek harvesting machinery is adapted to lift the lettuce clear from the ground and grip it in between pinch belts. The lettuce’s outer, or ‘wrapper’, leaves will be mechanically removed to expose the stem. Machine vision and artificial intelligence are then used to identify a precise cut point on the stem to to neatly separate the head of lettuce.

„The cutting process of an iceberg is the most technically complicated step in the process to automate, according to teammates from G subsidiary Salad Harvesting Services Ltd.“, explains IDS Product Sales Specialist Rob Webb. „The prototype harvesting robot being built incorporates a GigE Vision camera from the uEye FA family. It is considered to be particularly robust and is therefore ideally suited to demanding environments. „As this is an outdoor application, a housing with IP65/67 protection is required here“, Rob Webb points out.

GV-5280FA

The choice fell on the GV-5280FA-C-HQ model with the compact 2/3″ global shutter CMOS sensor IMX264 from Sony. „The sensor was chosen mainly because of its versatility. We don’t need full resolution for AI processing, so sensitivity can be increased by binning. The larger sensor format means that wide-angle optics are not needed either“, Rob Webb summarized the requirements. In the application, the CMOS sensor convinces with excellent image quality, light sensitivity and exceptionally high dynamic range and delivers almost noise-free, very high-contrast 5 MP images in 5:4 format at 22 fps – even in applications with fluctuating light conditions. The extensive range of accessories, such as lens tubes and trailing cables, is just as tough as the camera housing and the screwable connectors (8-pin M12 connector with X-coding and 8-pin Binder connector). Another advantage: camera-internal functions such as pixel pre-processing, LUT or gamma reduce the required computer power to a minimum.

The prototype of the robotic mower will be used for field trials in England towards the end of the 2021 season.

„We are delighted to be involved in the project and look forward to seeing the results. We are convinced of its potential to automate and increase the efficiency of the lettuce harvest, not only in terms of compensating for the lack of seasonal workers“, affirms Jan Hartmann, Managing Director of IDS Imaging Development Systems GmbH.

Prototype lettuce harvesting robot of Agri-Epicentre (UK)

The challenges facing the agricultural sector are indeed complex. According to a forecast by the United Nations Food and Agriculture Organization (FAO), agricultural productivity will have to increase by almost 50 percent by 2050 compared to 2012 due to the dramatic increase in population. Such a yield expectation means an enormous challenge for the agricultural industry, which is still in its infancy in terms of digitalization compared to other sectors and is already under high pressure to innovate in view of climatic changes and labor shortages. The agriculture of the future is based on networked devices and automation. Cameras are an important building block, and artificial intelligence is a central technology here. Smart applications such as harvesting robots can make a significant contribution to this.

Further development of IDS NXT ocean: focus on user-friendliness and AI transparency

All-in-one embedded vision platform with new tools and functions

(PresseBox) (ObersulmAt IDS, image processing with artificial intelligence does not just mean that AI runs directly on cameras and users also have enormous design options through vision apps. Rather, with the IDS NXT ocean embedded vision platform, customers receive all the necessary, coordinated tools and workflows to realise their own AI vision applications without prior knowledge and to run them directly on the IDS NXT industrial cameras. Now follows the next free software update for the AI package. In addition to the topic of user-friendliness, the focus is also on making artificial intelligence clear and comprehensible for the user.

An all-in-one system such as IDS NXT ocean, which has integrated computing power and artificial intelligence thanks to the „deep ocean core“ developed by IDS, is ideally suited for entry into AI Vision. It requires no prior knowledge of deep learning or camera programming. The current software update makes setting up, deploying and controlling the intelligent cameras in the IDS NXT cockpit even easier. For this purpose, among other things, an ROI editor is integrated with which users can freely draw the image areas to be evaluated and configure, save and reuse them as custom grids with many parameters. In addition, the new tools Attention Maps and Confusion Matrix illustrate how the AI works in the cameras and what decisions it makes. This helps to clarify the process and enables the user to evaluate the quality of a trained neural network and to improve it through targeted retraining. Data security also plays an important role in the industrial use of artificial intelligence. As of the current update, communication between IDS NXT cameras and system components can therefore be encrypted via HTTPS.

Just get started with the IDS NXT ocean Creative Kit

Anyone who wants to test the industrial-grade embedded vision platform IDS NXT ocean and evaluate its potential for their own applications should take a look at the IDS NXT ocean Creative Kit. It provides customers with all the components they need to create, train and run a neural network. In addition to an IDS NXT industrial camera with 1.6 MP Sony sensor, lens, cable and tripod adapter, the package includes six months‘ access to the AI training software IDS NXT lighthouse. Currently, IDS is offering the set in a special promotion at particularly favourable conditions. Promotion page: https://en.ids-imaging.com/ids-nxt-ocean-creative-kit.html.

Learn more: www.ids-nxt.com