igus goes gamification: Mit dem Online-Spiel igumania werden motion plastics noch erlebbarer

Als Produktionsleiter einer eigenen Mars Rover-Fabrik kann nun jeder spielerisch in die Welt der motion plastics von igus eintauchen

Köln, 20. Juli 2022 – Ungeplante Wartungszeiten und Produktions­stillstände gehören zu den größten Gegnern für Industrieunternehmen. Der motion plastics Spezialist igus bietet nun jedem die Möglichkeit, selbst zum Produktionsleiter zu werden und sich dieser Herausforderung zu stellen – mit dem Online-Browser-Spiel igumania. Das Idle-Game wurde mithilfe der Spiele-Plattform Unity entwickelt und ermöglicht Spielern, in die Welt der motion plastics einzutauchen. Durch den Einbau von igus Produkten können die Wartungszeiten der Produktion reduziert werden, damit Maschinenstillstände auch im Spiel der Vergangenheit angehören. Das Unternehmensziel von igus ist auch Ziel des Spiels: Verbessern, was sich bewegt.

Als frisch gebackener Produktionsleiter einer Mars-Rover-Fabrik gegen die vielen ungeplanten Wartungen und Anlagenstillstände in der Produktion ankämpfen. Dieses Szenario erwartet Spieler im Online-Spiel igumania. Unterstützung erhält man von Rusty, dem treuen Roboter-Assistenten, und Dave, dem igus Mitarbeiter aus dem technischen Vertrieb, dessen Besuch der Startschuss für die gemeinsame Erfolgsstory mit motion plastics ist. Im Laufe des Spiels können verschiedene igus Produkte verbaut werden: iglidur Gleitlager, Energieketten, flexible chainflex Leitungen, drylin Linear- und Antriebstechnik und sogar komplette Low-Cost- Automation-Lösungen wie der ReBeL Serviceroboter. Am Anfang stehen jedoch noch nicht alle motion plastics Lösungen zur Verfügung. Diese können im Spielverlauf über den Technologiebaum des igus Labors freigeschaltet werden. Auch die real-virtuelle igus motion plastics show (IMPS) können Spieler als Ingame-Messe erleben und so noch mehr über die motion plastics Produkte erfahren. Durch das Erfüllen verschiedener Aufgaben können weitere Perks bzw. Vorteile und Produkte freigeschaltet werden – ob e-ketten Recycling, Erweiterung der Montagelinie, Beschleunigung des Fließbandes, oder der Einsatz von smart plastics für die automatische Wartung der eingesetzten Roboter.

Gamification-Ansatz für mehr Nutzerfreundlichkeit

Aber warum ein eigenes igus Spiel? „Entstanden ist die Idee aus der Überlegung, wie wir unsere Produkte aus Hochleistungskunststoffen und ihre Alleinstellungsmerkmale noch erlebbarer machen können – und das auf ganz einfachem und spielerischem Weg“, erklärt igus Geschäftsführer Frank Blase. igus folgt dabei dem Prinzip des „Serious Gaming“: Das Online-Spiel soll nicht nur unterhalten, sondern spielerisch Wissenslücken schließen und die Vorteile der igus Hochleistungskunststoffe vermitteln. „Wir haben ein gutes Knowhow im Software-Bereich und bieten bereits jetzt zahlreiche Online-Tools an – vom Produkt-Lebensdauerrechner über den 3D-Druck-Service bis hin zum Konfigurator für Portalroboter. Hier setzen wir bereits auf den Gamification-Ansatz, indem wir zum Beispiel auch für unseren Konfigurator für Portalroboter die Plattform von Unity nutzen, um so eine spielend leichte Bedienbarkeit zu ermöglichen. Diesen Ansatz wollen wir weiterentwickeln und unser gesamtes Online-Angebot künftig noch spielerischer und nutzerfreundlicher gestalten. Ein eigenes Online-Spiel bietet die optimale Möglichkeit, wertvolle Erfahrungen im Bereich Gamification zu sammeln.“

Spielentwicklung: Vom Studentenprojekt zur Unternehmensgründung

Für die Entwicklung eines eigenen Online-Spiels hat sich igus das Cologne Game Lab an seine Seite geholt – ein Institut an der Technischen Hochschule Köln, dessen Studentenprojekte unter anderem bereits mit dem Deutschen Computerspielpreis ausgezeichnet wurden. Im Rahmen eines eigenen igus Studentenprojekts haben sich 10 Studententeams der Herausforderung gestellt. Die Aufgabe: Innerhalb einer Woche ein Konzept für ein igus Spiel zu entwickeln. Gewonnen hat das Konzept für „igumania“ und das Gewinner-Team bekam den Zuschlag für die Entwicklung des Spiels. Das Besondere: Aus dem Studentenprojekt wurde eine Unternehmensidee, und so gründeten Arkadijs Gribacovs, Ethem Kurt und Leonard Liebler die elads gbR für Spieleentwicklung. „In Deutschland gibt es nach wie vor verhältnismäßig wenig Unternehmer. Dass wir mit unserer Idee den Unternehmergeist junger Talente wecken und den Anstoß für eine Unternehmensgründung geben konnten, freut uns umso mehr“, macht Frank Blase deutlich. Und die Entwicklung von igumania läuft weiter: Nachdem erste Erfahrungswerte gesammelt und Optimierungen umgesetzt wurden, ist auch der Launch einer App-Version für Android und iOS geplant.

Neugierig? Melden Sie sich hier an, um den Link zum Spiel sowie Neuigkeiten zu Spiel-Updates zu erhalten: https://www.igus.de/igumania-anmeldung

NUWA Introduces RobotCreator DX, A Fully Customizable AI Robot From Inside Out

RobotCreator DX offers intuitive software interfaces to make customization and interaction with the robot unintimidating for beginners and advanced users alike.

Taipei, Taiwan, 07 July, 2022 – NUWA announced on Kickstarter, the all-new RobotCreator DX, a highly customizable AI robot companion designed for users of all levels of skills. 

Featuring numerous web-based editing software and a wide array of sensors, RobotCreator DX can be programmed to perform complicated tasks including voice recognition, video calls, interactive games, and many more.

Thanks to the advanced RoFlow Workflow interface, users can effortlessly program the robot to perform various tasks without prior coding knowledge. On the other hand, Trainkit allows users to train DX to chat and respond with physical motions, images or videos.

Notable features include: 

  • Roflow: A powerful cloud-based visual programming software that allows users to easily customize the robot’s behavior. Users can tap into the vast resources and functions of the robot without prior programming skills.
  • CodeLab: An easy-to-use coding center for RobotCreator DX. CodeLab can be accessed from computers, mobile devices, or the DX itself. Natively supports MQTT, CodeLab allows for cross-device control and connection.
  • Content Editor: A timeline-based motion editing software designed to program the robot to perform sophisticated movements with its built-in expression and movement library. 
  • Trainkit: A chatbot dialogue design tool with fuzzy language matching. Trainkit allows users to add body movement, as well as images or videos to the response.
  • Quiz Editor: Quiz Editor allows users to design and create interactive games where the fun never ends. Interaction can be made using the integrated touch and audio sensors.
  • Skin Editor: A web-based editing software that allows users to create dynamic facial expressions for RobotCreator DX. Users can utilize the built-in templates or create their own with Adobe Photoshop or Illustrator.
  • MakerBase: As one of the pillars of the NUWA platform, users can connect with DX fans across the world and share resources like the code, design, and more.

RobotCreator DX Pricing and Availability

Early Bird pledges for RobotCreator DX are now available for a limited amount on Kickstarter for $599, which is more than 40% off the future retail price. 

For the complete list of all available backing options and more product details, jump over to the official RobotCreator DX crowdfunding campaign page by clicking the link below.

https://www.kickstarter.com/projects/robotcreator-dx/robot-creator-dx-build-design-and-program-your-way

About NUWA

Founded in Taipei, Taiwan in 2016, NUWA Robotics has extensive experience in AI, software/hardware development, interactive content, and mass production. We have experts across different fields to design and create a robot that can establish a deeper connection with humans. NUWA envisions a world where everyone has a robot companion that provides beyond just responses to commands, but one that can support emotional needs.

KI begreifen: Schulklassen in NRW programmieren Künstliche Neuronale Netze mit Open Roberta

Einen Blick in die »Blackbox« werfen und Künstliche Intelligenz (KI) selbst programmieren – das ermöglichen das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS, das Ministerium für Schule und Bildung des Landes Nordrhein-Westfalen, die Universität zu Köln und die InterScience-Akademie für Algorithmik. Nach der Einführung des Pflichtfachs Informatik zum Schuljahr 2021/22 in NRW hat auch KI einen festen Platz im Unterricht für die Sekundarstufe I in den Klassen 5 und 6. In dem Zuge können die Schüler*innen in NRW, aber auch darüber hinaus, auf der Fraunhofer-Programmierplattform »Open Roberta Lab« künftig Künstliche Neuronale Netze selbst programmieren und testen. Ab Sommer 2022 bietet das Fraunhofer IAIS jungen Menschen weltweit einen einmaligen Zugang zur KI.

Künstliche Intelligenz ist eines der bedeutendsten und zugleich kritischsten Zukunftsthemen. Sie findet schon heute in zahlreichen Bereichen unseres Alltags Anwendung, zum Beispiel bei Gesichtserkennung, automatischer ‎Textergänzung, Sprachassistenten, personalisierter Werbung, ‎Übersetzungsprogrammen und Gesundheits-Apps. Um den Schülerinnen und Schülern einen praxisnahen Einstieg in diese Thematik zu erleichtern, fördert das Ministerium für Schule und Bildung des Landes Nordrhein-Westfalen die Entwicklung von KI-Lerninhalten und Materialien im Rahmen des Projekts »KI-Algorithmen im Informatikunterricht« seit September 2021.

© insta_photos – stock.adobe.com/Fraunhofer IAIS
Das Fraunhofer IAIS hat erstmals Künstliche Neuronale Netze auf seiner Programmierplattform Open Roberta integriert.

Mit dieser Unterstützung hat das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS erstmals Künstliche Neuronale Netze auf seiner Programmierplattform Open Roberta integriert. In dem Projekt arbeiten Fraunhofer und die Universität zu Köln zusammen, um die Schulen bei der Unterrichtsentwicklung im Bereich der KI zu unterstützen. Initiator des Projekts ist Prof. Dr. Ulrich Trottenberg, der die Projektpartner ehrenamtlich unterstützt.

Staatssekretär Mathias Richter vom Ministerium für Schule und Bildung des Landes Nordrhein-Westfalen: »Vor dem Hintergrund der rasant steigenden Bedeutung von Künstlicher Intelligenz in der Lebens- und Arbeitswelt ist es dringend geboten, möglichst früh Kompetenzen im Bereich Künstliche Intelligenz und Maschinelles Lernen aufzubauen. Wir wollen es unseren Schülerinnen und Schülern ermöglichen, ihre eigene Zukunft mitzugestalten, denn die Auswirkungen von KI machen sich zunehmend bemerkbar. Ich danke allen am Projekt Beteiligten herzlich für ihre Unterstützung zur Stärkung der informatischen Bildung in Nordrhein-Westfalen insbesondere im Bereich der KI.«

Künstliche Intelligenz erhält einen festen Platz im Informatikunterricht

KI wird oft als komplexe Technologie wahrgenommen, die nur von Fachleuten verstanden und gestaltet werden kann. Dabei können Kompetenzen in diesem Teilgebiet der Informatik schon in der Schule altersangemessen vermittelt werden. Deshalb hat seit der Einführung des Pflichtfachs Informatik in Klasse 5/6 aller weiterführenden Schulen zum Schuljahr 2021/22 in NRW auch der Bereich Künstliche Intelligenz einen festen Platz im Informatikunterricht. Hier werden unter anderem Anwendungsbeispiele von KI aus der Lebenswelt der Schülerinnen und Schüler thematisiert sowie Grundprinzipien des Maschinellen Lernens altersgerecht vermittelt.

Im Rahmen des Projekts wird die bereits weit verbreitete Open-Source-Programmierumgebung Open Roberta Lab des Fraunhofer IAIS insbesondere um die Integration Künstlicher Neuronaler Netze (KNN) erweitert, um KI-Algorithmen durch grafische Programmierung intuitiv erleb- und verstehbar zu machen. Ziel ist es, dass Schülerinnen und Schüler ab den Klassen 5 und 6 verstehen, was ein Künstliches Neuronales Netz ist, wie es funktioniert und wie sie selbst ein KNN programmieren können, welches zum Beispiel einem Roboter ermöglicht, sich selbstständig in seiner Umwelt zu bewegen. Dabei steht im Vordergrund, dass die grundlegenden Prinzipien eines KNN verstanden und selbst umgesetzt werden können.

Praxisnaher Blick in die »Blackbox«

Thorsten Leimbach, Leiter der Roberta-Initiative und des Geschäftsfelds Smart Coding and Learning am Fraunhofer IAIS: »Üblicherweise wird KI – wenn überhaupt – in der Schule als eine Art Blackbox-Anwendung behandelt. Als eines der führenden Wissenschaftsinstitute auf den Gebieten KI und Maschinelles Lernen freuen wir uns, gemeinsam mit dem Schulministerium NRW und unseren Projektpartnern einen praxisnahen Blick in diese Box zu ermöglichen. Künstliche Neuronale Netze werden zu einem begreifbaren Element, das Schülerinnen und Schüler selbst programmieren können. Sie nähern sich so den Themen Maschinelles Lernen und KI auf innovative Weise.«

Neben dem Fraunhofer IAIS ist das Institut für Mathematikdidaktik (IMD) unter Leitung von Prof. Dr. Inge Schwank am Projekt beteiligt. Das IMD widmet sich der Frage, wie die KI-Thematik für alle Schulformen aufbereitet werden kann. Weiterhin beteiligt sind das Department Mathematik/Informatik (DMI) der Universität zu Köln sowie die InterScience-Akademie für Algorithmik (ISAFA), die das Projekt initiiert hat und ehrenamtlich unterstützt.

Die KNN-Integration als Bestandteil des Open Roberta Labs soll ab Sommer 2022 für alle Schulen und Interessierte weltweit unter https://lab.open-roberta.org verfügbar sein. Lehrkräfte und weitere Messebesucher*innen können auf der didacta 2022 (am Mittwoch und Samstag) am Stand des Schulministeriums NRW bereits einen ersten Einblick erhalten.

Block-based Editor: Create Vision Apps without programming knowledge

New IDS NXT software release themed „App your camera!“

The current software release 2.6 for the AI vision system IDS NXT focuses primarily on simplifying app creation. The initial phase in development is often one of the greatest challenges in the realisation of a project. With the help of the new Application Assistant in IDS NXT lighthouse, users configure a complete vision app under guidance in just a few steps, which they can then run directly on an IDS NXT camera. With the Block-based Editor, which is also new, users can configure their own program sequences with AI image processing functions, such as object recognition or classification, without any programming knowledge. Users create simple sequences in a few minutes with this visual code editor without having to know the syntax of a specific programming language.

With the Use Case Assistant, IDS supports users in creating Vision App projects. They simply select the use case that fits their project. With queries and tips, the assistant guides them through the process of creating the Vision App project and creates the code, just like in an interview. It links existing training projects with the vision app project or creates new training projects and data sets in IDS NXT lighthouse if required.

With the combinable blocks and the intuitive user interface of the Block-based Editor, anyone can realise their own projects using AI-based image processing (such as object detection or classification) as an individual vision app without having to know the syntax of a specific programming language. Using the predefined blocks of the code editor, users build their vision app graphically, including processes such as loops and conditional statements. How this works is demonstrated, for example, in the IDS Vision Channel (www.ids-vision-channel.tech). The session „Build AI vision apps without coding – xciting new easyness“ is available for viewing as a recording.

IDS NXT is a comprehensive system with a wide range of workflows and tools for realising your own AI vision applications. The intelligent IDS NXT cameras can process tasks „OnDevice“ and deliver image processing results themselves. The tasks of the cameras are determined by apps that are uploaded to the cameras and executed there. Their functionality can thus be changed at any time. This is supported by software such as IDS NXT lighthouse, with which users can not only train neural networks, but now also create their own vision apps. The system offers both beginners and professionals enormous scope for designing AI vision apps.
Learn more: www.ids-nxt.com

igus Portalroboter konfigurieren und programmieren – so einfach wie Playstation spielen

Gamification-Ansatz und zusätzliche Features machen Online-Konfigurator für Low-Cost-Portalroboter noch intuitiver

Köln, 5. Mai 2022 – Der motion plastics Spezialist igus hat seinem Online-Konfigurator für Low-Cost-Portalroboter mithilfe der Spiel-Engine Unity ein Facelift spendiert und die Bedienung dadurch noch effizienter gemacht. Ab sofort können Anwender noch schneller und leichter einen individuellen Portalroboter anschlussfertig konfigurieren – in nur 5 Minuten und mit Live-Preisauskunft. Mithilfe der Online-Tools kann jede Automatisierungslösung auch direkt im ausgewählten Arbeitsraum programmiert und getestet sowie die CAD-Daten und eine passende Zeichnung geladen werden. Selbst kleine und mittelständische Unternehmen können so barrierefrei in die Welt der Automation eintauchen – ohne Know-how von Fachkräften und CAD-Software.


Effizienz steigern, Fehler reduzieren und Kosten senken: Viele Unternehmen haben die Vorteile der Prozessautomatisierung längst erkannt. Doch die Auswahl des richtigen Roboters kann zeitintensiv sein – und Zeit ist bekanntlich Geld. Um den Einstieg in die Automatisierung noch leichter zu machen, hat igus im vergangenen Jahr einen Online-Konfigurator entwickelt. Mit wenigen Klicks können so auch Laien anschlussfertige Low-Cost-Portalroboter basierend auf gleitenden drylin Linearführungen ganz einfach konfigurieren. Linearroboter sind ohne Steuerung ab 1.000 Euro pro Stück erhältlich, mit Steuerung und Software ab circa 4.000 Euro. „Seit dem Start des Konfigurators haben wir viel positives Feedback zum Gamification-Ansatz und der intuitiven Bedienbarkeit bekommen“, sagt Alexander Mühlens, Leiter Geschäftsbereich Automatisierungstechnik und Robotik bei igus. „Nichtsdestotrotz haben wir uns gefragt: Können wir die Bedienung mit diesem Feedback weiter verbessern? Die Antwort war ein klares Ja. Daher haben wir den Konfigurator weiter optimiert und neue Funktionen hinzugefügt.“

Individuellen Roboter konfigurieren – jetzt noch leichter durch Spiele-Plattform

Für das neue Design des Konfigurators haben die igus Entwickler Unity genutzt – eine Plattform, die bei der Entwicklung von Spielen für PC und Spielekonsolen zum Einsatz kommt. Entsprechend intuitiv ist die Bedienung des Konfigurators. Und die funktioniert wie folgt: Im ersten Schritt wählt der Anwender die Kinematik, also ein Linien-, Flächen- oder Raumportal. Die Optik erinnert dabei an ein Auswahlmenü aus einem Computerspiel, über das Spieler beispielsweise Rennwagen wählen. Mit diesen Standardkonfigurationen lässt sich bei klaren Rahmenbedingungen schnell der richtige Roboter auswählen. Darüber hinaus gibt es erstmalig die Möglichkeit, ein Sonderportal zusammenzustellen und anzufragen. Ob Eismaschine, Vermessungssystem oder Palettierroboter: Viele Anwendungen müssen spezielle Sicherheitsbestimmungen erfüllen, spritzwassergeschützt sein oder arbeiten zum Beispiel in besonders kleinen Bauräumen. Der Online-Konfigurator ermöglicht Anwendern, ein Sonderportal anzufragen, das den speziellen Anforderungen ihrer ganz individuellen Anwendung gerecht wird.

 
3D-Modell visualisiert Bauraum und Bewegungen des Portals

Der nächste Schritt: die Konfiguration des Portals. Hier stehen Schieberegler zur Verfügung, über die sich die Hublängen der X-, Y- und Z-Achse millimetergenau einstellen lassen. Ein dynamisches 3D-Modell des Portals, das sich in alle Richtungen drehen lässt, visualisiert dabei die Einstellungen in Echtzeit. „An dieser Stelle haben wir eine neue Funktion eingefügt“, freut sich Mühlens. „Mit einem Klick ist es nun möglich, auch den Bauraum des Portals darzustellen. Hierfür nutzen wir farbige Flächen. Somit gewinnen Anwender einen visuellen Eindruck davon, wie viel Platz ihre Automationslösung beansprucht.“ Um auch Transparenz in Sachen Kosten zu gewährleisten, erhalten Nutzer zudem eine Live-Anzeige des Preises ihrer Automationslösung. Fortgeschrittene Nutzer können das 3D-Modell auch als STEP-Datei exportieren und in einem beliebigen CAD-Programm weiterverarbeiten. Mit dem Online-Konfigurator ist es sogar möglich, Bewegungen des Roboters festzulegen – über die Eingabe weniger Parameter und ohne Programmier-Kenntnisse. „Wir folgen mit dieser Funktion dem Motto ‚Test before invest’. Bediener gewinnen dank des beweglichen 3D-Modells ein Gefühl für Roboterbewegungen und Taktzeiten“, so Mühlens. Nach der Online-Programmierung kann die Datei über eine App in Virtual Reality dargestellt oder in die echte Roboter-Steuerung geladen werden.

 
Online bestellt: Kurze Zeit später steht der Roboter vor der Tür

Sind Bediener mit der Konfiguration des Portals zufrieden, folgen die nächsten Schritte: Sie wählen eine passende Steuerung, die das Portal zu einer anschlussfertigen Low-Cost-Robotic Lösung komplettiert – ob ready-to-use mit igus robot control oder die Do-it-yourself Variante mit dryve D1-Steuerungskit. Kurze Zeit nach der Online-Bestellung steht die Automationslösung dann vor der Tür. Vormontierte Portale in Standardgrößen sind sogar innerhalb von 24 Stunden versandfertig. Ein weiteres Plus: Alle konfigurierbaren Portalsysteme sind durch die selbstschmierenden igus Polymere in allen Lagerstellen 100 Prozent wartungsfrei und sauber. Und zusätzliche Komponenten wie Greifer, Vision-Systeme, Motoren und Sensoren erhalten Automations-Novizen über den Low-Cost-Automation Marktplatz RBTX.

Potenziale KI-gestützter Robotik für die Industrie

Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie und birgt enormes wirtschaftliches Potenzial. Doch ein Blick in deutsche Produktionshallen zeigt noch ein anderes Bild: Lediglich 6,8 Prozent der Unternehmen aus den Bereichen Maschinenbau und Elektrotechnik setzen KI-Technologien ein (Stand 2019). Dabei birgt KI gerade für das produzierende Gewerbe zahlreiche Potenziale.

Künstliche Intelligenz ist ein Überbegriff, der den Ansatz beschreibt, mit Maschinen Probleme zu lösen und menschliche Intelligenz zu imitieren. Dabei spielt insbesondere ein Teilbereich, das Machine Learning (Maschinelles Lernen), in Unternehmen und Produktionen eine entscheidende Rolle. Machine Learning bedeutet, dass ein System aus Beispielen lernt und diese nach der Lernphase verallgemeinern kann.

In der Produktion kommt Machine Learning beispielsweise im Bereich Predictive Analytics zum Einsatz. Dort wird KI als Teil von Vorhersagemodellen zur Überwachung und Wartung von Produktionsanlagen eingesetzt, um frühzeitig auf kritische Zustände reagieren zu können.

Auch das Wissensmanagement greift für die Auswertung von internen Informationen und Daten auf Machine Learning zurück. Daten von Fertigungslinien, Lieferketten, aber auch von einzelnen Produkten werden für Unternehmensprozesse, die Produktentwicklung und neue Geschäftsmodelle ausgewertet. Ohne den Einsatz von KI wäre eine Analyse aufgrund der schieren Datenmenge nicht möglich.

Mit KI und Robotik Handarbeitsplätze automatisieren

Machine Learning, häufig in Kombination mit Machine Vision, kommt auch in den Bereichen Robotik und Automatisierung, Sensorik und bei fahrerlosen Transportsystemen zum Einsatz. Für die Fertigung ist dabei das Zusammenspiel von KI und Robotik ein wichtiger Schlüssel für die Zukunft.

KI-Produkte, wie beispielsweise Robotersteuerungen, ermöglichen es unter anderem, Handarbeitsplätze zu automatisieren. Ein nicht zu vernachlässigender Vorteil, denn Arbeitskräfte sind rar und der Mangel verschärft sich in den Jahren weiter, wie der Deutsche Industrie- und Handelskammertag (DIHK) prognostiziert. Übernehmen Roboter auch Aufgaben, für die es bisher die Flexibilität eines Menschen brauchte, sorgt das für die Entlastung der Stammbelegschaft, eine Auslastung der Maschinen und sichert auf lange Sicht die Wettbewerbsfähigkeit.

Robuster Umgang mit Varianzen

KI-Steuerungen wie MIRAI von Micropsi Industries ergänzen die native Steuerung eines Roboters. Der Roboter erhält dank einer Kamera und einem neuronalen Netzwerk die Auge-Hand-Koordination und eine vergleichbare Flexibilität wie ein Mensch. Ein solches intelligentes Robotersystem lernt bei neuen Aufgaben, bei anders geformten oder positionierten Werkteilen oder bei vergleichbaren Varianzen schnell, was es zu tun hat und passt bei Bedarf seine Bewegungen in Echtzeit eigenständig an. Ob es sich um das Picken einzelner Teile, Zustellbewegungen oder Fügen und Verfolgen handelt: Zahlreiche Tätigkeiten sind mit einer einzigen kleinen Kamera am Roboter-Handgelenk umsetzbar.

Diese Fähigkeiten lassen sich mit MIRAI durch menschliche Demonstration trainieren. Weder KI- noch Programmierkenntnisse sind erforderlich. Das Know-how bleibt selbst ohne KI-Fachkräfte im Unternehmen. Dem Roboter muss dafür das Ziel einige Male in typisch vorkommenden Varianzen mit der Kamera gezeigt werden. Die KI verallgemeinert im Anschluss die gezeigten Daten. Ein solches System kann in wenigen Stunden trainiert und sogar neu trainiert werden. Selbst eine Fertigung im High Mix-/Low-Volume lässt sich so rentabel automatisieren. Was intelligente Robotiklösungen bereits in der Praxis leisten, zeigen die folgenden Beispiele.

Intelligentes Handling-System bei ZF

Der Technologiekonzern ZF stand vor der Herausforderung, die Werkstückzufuhr einer großvolumigen Frässtation, in der Zahnräder produziert werden, zu automatisieren. Im Werkprozess werden Metallringe aus einer Kiste entnommen und auf ein Förderband gelegt, um später in die Produktion der Zahnräder einzufließen. Die Schwierigkeit: Der Produktionsschritt ist sehr variantenreich, da sich die Ringe in der angelieferten Gitterbox verschieben und dadurch zufällig angeordnet sind. Auch Platzierung und Form der Box variieren. Wechselnde Lichtverhältnisse stellen eine zusätzliche Herausforderung dar. Außerdem ist die Oberfläche der Ringe metallisch glänzend, teilweise ölverschmiert oder korrodiert, was eine klassische Automatisierung unmöglich machte.

Heute ist die KI-Steuerung MIRAI und ein Cobot vom Modell UR10e bei ZF in einer automatisierten Werkstückaufnahme im Einsatz. Mit seiner eigenen Steuerung bringt der Cobot sich über den Ringen in der Kiste in Position. Nun übernimmt das MIRAI-System die Kontrolle: Es bewegt den Roboter selbstständig zum nächsten Ring und bringt den Greifer in die korrekte dreidimensionale Greifposition. Danach übernimmt der UR10e wieder, nimmt den Ring auf und bewegt ihn zum Ablegen auf das Förderband. Das komplette Einrichten des Roboters dauerte lediglich wenige Tage – MIRAI löste in kürzester Zeit ein lang bestehendes Problem.

BSH sucht mit KI nach Kältemittellecks

An ihrem spanischen Standort stellt die BSH Hausgeräte GmbH Kühl- und Gefrierschränke her. Im Herstellungsprozess muss das Unternehmen die Kupferrohrleitungen der Kühlschränke auf Leckagen testen. Für die sogenannte Dichtheitsprüfung wird eine Schnüffelsonde entlang der Kupferrohrleitungen und Kompressoren geführt, um Lötstellen auf austretendes Gas und Kältemittel zu prüfen. Das Besondere: Jede Rückseite der hergestellten Kühlschränke ist einzigartig, was Position, Farbe und Form der Lötpunkte angeht. Für einen herkömmlichen Roboter sind solche Varianzen ein unüberwindbares Hindernis. Der monotone Prüfprozess blieb dem Menschen vorbehalten – bis jetzt.

Den Prüfprozess übernimmt bei BSH nun eine Robotik-Komplettlösung den Prüfprozess. Dank der integrierten Robotersteuerung MIRAI ist es dem Roboter möglich, alle zu prüfenden Lötstellen verlässlich zu identifizieren und die Schnüffelsonde millimetergenau heranzuführen – unabhängig von Position, Form oder Farbe. Das System reagiert in Echtzeit auf seine Umwelt und handhabt selbst unvorhergesehene Abweichungen präzise. Die Roboterfähigkeiten wurden von Mitarbeitenden bei BSH durch menschliche Demonstration in nur wenigen Stunden trainiert. Weder Programmier- noch KI-Kenntnisse waren erforderlich. BSH konnte mit der Automatisierungslösung die laufenden Betriebskosten senken und Wartungen und Fehlerbehebungen reduzieren.

Neue Technologien als Wettbewerbsvorteil

Die Beispiele zeigen, dass Unternehmen mit KI sehr viel bewirken können: KI ermöglicht mehr Flexibilität, Unabhängigkeit, Effizienz und nicht zuletzt Resilienz. Nicht unwichtig in Zeiten wie diesen. Neue Technologien sollte dabei als Türöffner zu mehr Automatisierung verstanden werden. Leistungen, die bislang von Menschen oder Maschinen erbracht wurden, können nun von einer Software geliefert werden. Das ist nicht nur vorteilhaft beim drastisch zunehmenden Arbeitskräftemangel. Es erhöht auch die Flexibilität, Nachvollziehbarkeit und Zuverlässigkeit von Produktionsprozessen und verschafft einen dauerhaften Wettbewerbsvorsprung.

Weitere Informationen unter: https://bit.ly/MicropsiIndustries

Web-based VEXcode EXP

VEXcode EXP is now available in a web-based version for Chrome browsers. The web-based version can be reached by navigating to codeexp.vex.com and contains all of the features and functionality of VEXcode EXP, but without the need to download or install anything! The new web-based version of VEXcode makes it easier for teachers and students to access projects from anywhere, at any time, on any device – including Chromebooks!

In addition to the built-in Help and Tutorials, the STEM Library contains additional resources and support for using web-based VEXcode EXP. Within the STEM Library you can find device-specific articles for connecting to web-based VEXcode EXP, loading and saving projects, updating firmware, and more. View the VEXcode EXP section of the STEM Library to learn more.

Web-based versions of VEXcode IQ and VEXcode V5 are in the works and will be available soon.

Further development of IDS NXT ocean: focus on user-friendliness and AI transparency

All-in-one embedded vision platform with new tools and functions

(PresseBox) (ObersulmAt IDS, image processing with artificial intelligence does not just mean that AI runs directly on cameras and users also have enormous design options through vision apps. Rather, with the IDS NXT ocean embedded vision platform, customers receive all the necessary, coordinated tools and workflows to realise their own AI vision applications without prior knowledge and to run them directly on the IDS NXT industrial cameras. Now follows the next free software update for the AI package. In addition to the topic of user-friendliness, the focus is also on making artificial intelligence clear and comprehensible for the user.

An all-in-one system such as IDS NXT ocean, which has integrated computing power and artificial intelligence thanks to the „deep ocean core“ developed by IDS, is ideally suited for entry into AI Vision. It requires no prior knowledge of deep learning or camera programming. The current software update makes setting up, deploying and controlling the intelligent cameras in the IDS NXT cockpit even easier. For this purpose, among other things, an ROI editor is integrated with which users can freely draw the image areas to be evaluated and configure, save and reuse them as custom grids with many parameters. In addition, the new tools Attention Maps and Confusion Matrix illustrate how the AI works in the cameras and what decisions it makes. This helps to clarify the process and enables the user to evaluate the quality of a trained neural network and to improve it through targeted retraining. Data security also plays an important role in the industrial use of artificial intelligence. As of the current update, communication between IDS NXT cameras and system components can therefore be encrypted via HTTPS.

Just get started with the IDS NXT ocean Creative Kit

Anyone who wants to test the industrial-grade embedded vision platform IDS NXT ocean and evaluate its potential for their own applications should take a look at the IDS NXT ocean Creative Kit. It provides customers with all the components they need to create, train and run a neural network. In addition to an IDS NXT industrial camera with 1.6 MP Sony sensor, lens, cable and tripod adapter, the package includes six months‘ access to the AI training software IDS NXT lighthouse. Currently, IDS is offering the set in a special promotion at particularly favourable conditions. Promotion page: https://en.ids-imaging.com/ids-nxt-ocean-creative-kit.html.

Learn more: www.ids-nxt.com

Weiterentwicklung von IDS NXT ocean: Fokus auf Benutzerfreundlichkeit und KI-Transparenz

All-in-One Embedded Vision Plattform mit neuen Werkzeugen und Funktionen

(PresseBox) (ObersulmBei IDS bedeutet Bildverarbeitung mit künstlicher Intelligenz nicht nur, dass die KI direkt auf Kameras läuft und Anwender zusätzlich enorme Gestaltungsmöglichkeiten durch Vision Apps haben. Kunden erhalten mit der Embedded-Vision-Plattform IDS NXT ocean vielmehr alle erforderlichen, aufeinander abgestimmten Tools und Workflows, um eigene KI-Vision-Anwendungen ohne Vorwissen zu realisieren und direkt auf den IDS NXT Industriekameras auszuführen. Jetzt folgt das nächste kostenlose Softwareupdate für das KI-Paket. Im Fokus steht neben dem Thema Benutzerfreundlichkeit auch der Anspruch, die künstliche Intelligenz für den Anwender anschaulich und nachvollziehbar zu machen.

Ein All-in-One System wie IDS NXT ocean, das durch den von IDS entwickelten „deep ocean core“ über integrierte Rechenleistung und künstliche Intelligenz verfügt, eignet sich bestens für den Einstieg in AI Vision. Es erfordert weder Vorkenntnisse in Deep Learning noch in der Kameraprogrammierung. Das aktuelle Softwareupdate macht die Einrichtung, Inbetriebnahme und Steuerung der intelligenten Kameras im IDS NXT cockpit noch einfacher. Hierzu wird unter anderem ein ROI-Editor integriert, mit dem Anwender die auszuwertenden Bildbereiche frei zeichnen und als beliebige Raster mit vielen Parametern konfigurieren, speichern und wiederverwenden können. Darüber hinaus veranschaulichen die neuen Werkzeuge Attention Maps und Confusion Matrix, wie die KI in den Kameras arbeitet und welche Entscheidungen sie trifft. Das macht sie transparenter und hilft dem Anwender, die Qualität eines trainierten neuronalen Netzes zu bewerten und durch gezieltes Nachtraining zu verbessern. Beim industriellen Einsatz von künstlicher Intelligenz spielt auch Datensicherheit eine wichtige Rolle. Ab dem aktuellen Update lässt sich die Kommunikation zwischen IDS NXT Kameras und Anlagenkomponenten deshalb per HTTPS verschlüsseln. 

Einfach loslegen mit dem IDS NXT ocean Creative Kit

Wer die industrietaugliche Embedded-Vision-Plattform IDS NXT ocean testen und das Potenzial für die eigenen Anwendungen evaluieren möchte, sollte einen Blick auf das IDS NXT ocean Creative Kit werfen. Kunden erhalten damit alle Komponenten, die sie für die Erstellung, das Trainieren und das Ausführen eines neuronalen Netzes benötigen. Neben einer IDS NXT Industriekamera mit 1,6 MP Sony Sensor, Objektiv, Kabel und Stativadapter enthält das Paket u.a. einen sechsmonatigen Zugang zur KI-Trainingssoftware IDS NXT lighthouse. Aktuell bietet IDS das Set in einer Sonderaktion zu besonders günstigen Konditionen an. Aktionsseite: https://de.ids-imaging.com/ids-nxt-ocean-creative-kit.html.

Weitere Informationen: www.ids-nxt.de

Picked up and put off

Guest post by IDS Corporate Communications

Autonomously driving robotic assistance system for the automated placement of coil creels

Due to the industry standard 4.0, digitalisation, automation and networking of systems and facilities are becoming the predominant topics in production and thus also in logistics. Industry 4.0 pursues the increasing optimisation of processes and workflows in favour of productivity and flexibility and thus the saving of time and costs. Robotic systems have become the driving force for automating processes. Through the Internet of Things (IoT), robots are becoming increasingly sensitive, autonomous, mobile and easier to operate. More and more they are becoming an everyday helper in factories and warehouses. Intelligent imaging techniques are playing an increasingly important role in this.

To meet the growing demands in scaling and changing production environments towards fully automated and intelligently networked production, the company ONTEC Automation GmbH from Naila in Bavaria has developed an autonomously driving robotic assistance system. The „Smart Robot Assistant“ uses the synergies of mobility and automation: it consists of a powerful and efficient intralogistics platform, a flexible robot arm and a robust 3D stereo camera system from the Ensenso N series by IDS Imaging Development Systems GmbH.

The solution is versatile and takes over monotonous, weighty set-up and placement tasks, for example. The autonomous transport system is suitable for floor-level lifting of Euro pallets up to container or industrial format as well as mesh pallets in various sizes with a maximum load of up to 1,200 kilograms. For a customer in the textile industry, the AGV (Automated Guided Vehicle) is used for the automated loading of coil creels. For this purpose, it picks up pallets with yarn spools, transports them to the designated creel and loads it for further processing. Using a specially developed gripper system, up to 1000 yarn packages per 8-hour shift are picked up and pushed onto a mandrel of the creel. The sizing scheme and the position of the coils are captured by an Ensenso 3D camera (N45 series) installed on the gripper arm.

Application

Pallets loaded with industrial yarn spools are picked up from the floor of a predefined storage place and transported to the creel location. There, the gripper positions itself vertically above the pallet. An image trigger is sent to the Ensenso 3D camera from the N45 series, triggered by the in-house software ONTEC SPSComm. It networks with the vehicle’s PLC and can thus read out and pass on data. In the application, SPSComm controls the communication between the software parts of the vehicle, gripper and camera. This way, the camera knows when the vehicle and the grabber are in position to take a picture. This takes an image and passes on a point cloud to a software solution from ONTEC based on the standard HALCON software, which reports the coordinates of the coils on the pallet to the robot. The robot can then accurately pick up the coils and process them further. As soon as the gripper has cleared a layer of the yarn spools, the Ensenso camera takes a picture of the packaging material lying between the yarn spools and provides point clouds of this as well. These point clouds are processed similarly to provide the robot with the information with which a needle gripper removes the intermediate layers. „This approach means that the number of layers and finishing patterns of the pallets do not have to be defined in advance and even incomplete pallets can be processed without any problems,“ explains Tim Böckel, software developer at ONTEC. „The gripper does not have to be converted for the use of the needle gripper. For this application, it has a normal gripping component for the coils and a needle gripping component for the intermediate layers.“

For this task, the mobile use for 3D acquisition of moving and static objects on the robot arm, the Ensenso 3D camera is suitable due to its compact design. The Ensenso N 45’s 3D stereo electronics are completely decoupled from the housing, allowing the use of a lightweight plastic composite as the housing material. The low weight facilitates the use on robot arms such as the Smart Robotic Asstistant. The camera can also cope with demanding environmental conditions. „Challenges with this application can be found primarily in the different lighting conditions that are evident in different rooms of the hall and at different times of the day,“ Tim Böckel describes the situation. Even in difficult lighting conditions, the integrated projector projects a high-contrast texture onto the object to be imaged by means of a pattern mask with a random dot pattern, thus supplementing the structures on featureless homogenous surfaces. This means that the integrated camera meets the requirements exactly. „By pre-configuring within NxView, the task was solved well.“ This sample programme with source code demonstrates the main functions of the NxLib library, which can be used to open one or more stereo and colour cameras whose image and depth data are visualised. Parameters such as exposure time, binning, AOI and depth measuring range can – as in this case – be adjusted live for the matching method used.

The matching process empowers the Ensenso 3D camera to recognise a very high number of pixels, including their position change, by means of the auxiliary structures projected onto the surface and to create complete, homogeneous depth information of the scene from this. This in turn ensures the necessary precision with which the Smart Robot Assistant proceeds. Other selection criteria for the camera were, among others, the standard vision interface Gigabit Ethernet and the global shutter 1.3 MP sensor. „The camera only takes one image pair of the entire pallet in favour of a faster throughput time, but it has to provide the coordinates from a relatively large distance with an accuracy in the millimetre range to enable the robot arm to grip precisely,“ explains Matthias Hofmann, IT specialist for application development at ONTEC. „We therefore need the high resolution of the camera to be able to safely record the edges of the coils with the 3D camera.“ The localisation of the edges is important in order to be able to pass on as accurate as possible the position from the centre of the spool to the gripper.

Furthermore, the camera is specially designed for use in harsh environmental conditions. It has a screwable GPIO connector for trigger and flash and is IP65/67 protected against dirt, dust, splash water or cleaning agents.

Software

The Ensenso SDK enables hand-eye calibration of the camera to the robot arm, allowing easy translation or displacement of coordinates using the robot pose. In addition, by using the internal camera settings, a „FileCam“ of the current situation is recorded at each pass, i.e. at each image trigger. This makes it possible to easily adjust any edge cases later on, in this application for example unexpected lighting conditions, obstacles in the image or also an unexpected positioning of the coils in the image. The Ensenso SDK also allows the internal camera LOG files to be stored and archived for possible evaluation.

ONTEC also uses these „FileCams“ to automatically check test cases and thus ensure the correct functioning of all arrangements when making adjustments to the vision software. In addition, various vehicles can be coordinated and logistical bottlenecks minimised on the basis of the control system specially developed by ONTEC. Different assistants can be navigated and act simultaneously in a very confined space. By using the industrial interface tool ONTEC SPSComm, even standard industrial robots can be safely integrated into the overall application and data can be exchanged between the different systems.

Outlook

Further development of the system is planned, among other things, in terms of navigation of the autonomous vehicle. „With regard to vehicle navigation for our AGV, the use of IDS cameras is very interesting. We are currently evaluating the use of the new Ensenso S series to enable the vehicle to react even more flexibly to obstacles, for example, classify them and possibly even drive around them,“ says Tim Böckel, software developer at ONTEC, outlining the next development step.

ONTEC’s own interface configuration already enables the system to be integrated into a wide variety of Industry 4.0 applications, while the modular structure of the autonomously moving robot solution leaves room for adaptation to a wide variety of tasks. In this way, it not only serves to increase efficiency and flexibility in production and logistics, but in many places also literally contributes to relieving the workload of employees.

More at: https://en.ids-imaging.com/casestudies-detail/picked-up-and-put-off-ensenso.html