igus Portalroboter konfigurieren und programmieren – so einfach wie Playstation spielen

Gamification-Ansatz und zusätzliche Features machen Online-Konfigurator für Low-Cost-Portalroboter noch intuitiver

Köln, 5. Mai 2022 – Der motion plastics Spezialist igus hat seinem Online-Konfigurator für Low-Cost-Portalroboter mithilfe der Spiel-Engine Unity ein Facelift spendiert und die Bedienung dadurch noch effizienter gemacht. Ab sofort können Anwender noch schneller und leichter einen individuellen Portalroboter anschlussfertig konfigurieren – in nur 5 Minuten und mit Live-Preisauskunft. Mithilfe der Online-Tools kann jede Automatisierungslösung auch direkt im ausgewählten Arbeitsraum programmiert und getestet sowie die CAD-Daten und eine passende Zeichnung geladen werden. Selbst kleine und mittelständische Unternehmen können so barrierefrei in die Welt der Automation eintauchen – ohne Know-how von Fachkräften und CAD-Software.


Effizienz steigern, Fehler reduzieren und Kosten senken: Viele Unternehmen haben die Vorteile der Prozessautomatisierung längst erkannt. Doch die Auswahl des richtigen Roboters kann zeitintensiv sein – und Zeit ist bekanntlich Geld. Um den Einstieg in die Automatisierung noch leichter zu machen, hat igus im vergangenen Jahr einen Online-Konfigurator entwickelt. Mit wenigen Klicks können so auch Laien anschlussfertige Low-Cost-Portalroboter basierend auf gleitenden drylin Linearführungen ganz einfach konfigurieren. Linearroboter sind ohne Steuerung ab 1.000 Euro pro Stück erhältlich, mit Steuerung und Software ab circa 4.000 Euro. „Seit dem Start des Konfigurators haben wir viel positives Feedback zum Gamification-Ansatz und der intuitiven Bedienbarkeit bekommen“, sagt Alexander Mühlens, Leiter Geschäftsbereich Automatisierungstechnik und Robotik bei igus. „Nichtsdestotrotz haben wir uns gefragt: Können wir die Bedienung mit diesem Feedback weiter verbessern? Die Antwort war ein klares Ja. Daher haben wir den Konfigurator weiter optimiert und neue Funktionen hinzugefügt.“

Individuellen Roboter konfigurieren – jetzt noch leichter durch Spiele-Plattform

Für das neue Design des Konfigurators haben die igus Entwickler Unity genutzt – eine Plattform, die bei der Entwicklung von Spielen für PC und Spielekonsolen zum Einsatz kommt. Entsprechend intuitiv ist die Bedienung des Konfigurators. Und die funktioniert wie folgt: Im ersten Schritt wählt der Anwender die Kinematik, also ein Linien-, Flächen- oder Raumportal. Die Optik erinnert dabei an ein Auswahlmenü aus einem Computerspiel, über das Spieler beispielsweise Rennwagen wählen. Mit diesen Standardkonfigurationen lässt sich bei klaren Rahmenbedingungen schnell der richtige Roboter auswählen. Darüber hinaus gibt es erstmalig die Möglichkeit, ein Sonderportal zusammenzustellen und anzufragen. Ob Eismaschine, Vermessungssystem oder Palettierroboter: Viele Anwendungen müssen spezielle Sicherheitsbestimmungen erfüllen, spritzwassergeschützt sein oder arbeiten zum Beispiel in besonders kleinen Bauräumen. Der Online-Konfigurator ermöglicht Anwendern, ein Sonderportal anzufragen, das den speziellen Anforderungen ihrer ganz individuellen Anwendung gerecht wird.

 
3D-Modell visualisiert Bauraum und Bewegungen des Portals

Der nächste Schritt: die Konfiguration des Portals. Hier stehen Schieberegler zur Verfügung, über die sich die Hublängen der X-, Y- und Z-Achse millimetergenau einstellen lassen. Ein dynamisches 3D-Modell des Portals, das sich in alle Richtungen drehen lässt, visualisiert dabei die Einstellungen in Echtzeit. „An dieser Stelle haben wir eine neue Funktion eingefügt“, freut sich Mühlens. „Mit einem Klick ist es nun möglich, auch den Bauraum des Portals darzustellen. Hierfür nutzen wir farbige Flächen. Somit gewinnen Anwender einen visuellen Eindruck davon, wie viel Platz ihre Automationslösung beansprucht.“ Um auch Transparenz in Sachen Kosten zu gewährleisten, erhalten Nutzer zudem eine Live-Anzeige des Preises ihrer Automationslösung. Fortgeschrittene Nutzer können das 3D-Modell auch als STEP-Datei exportieren und in einem beliebigen CAD-Programm weiterverarbeiten. Mit dem Online-Konfigurator ist es sogar möglich, Bewegungen des Roboters festzulegen – über die Eingabe weniger Parameter und ohne Programmier-Kenntnisse. „Wir folgen mit dieser Funktion dem Motto ‚Test before invest’. Bediener gewinnen dank des beweglichen 3D-Modells ein Gefühl für Roboterbewegungen und Taktzeiten“, so Mühlens. Nach der Online-Programmierung kann die Datei über eine App in Virtual Reality dargestellt oder in die echte Roboter-Steuerung geladen werden.

 
Online bestellt: Kurze Zeit später steht der Roboter vor der Tür

Sind Bediener mit der Konfiguration des Portals zufrieden, folgen die nächsten Schritte: Sie wählen eine passende Steuerung, die das Portal zu einer anschlussfertigen Low-Cost-Robotic Lösung komplettiert – ob ready-to-use mit igus robot control oder die Do-it-yourself Variante mit dryve D1-Steuerungskit. Kurze Zeit nach der Online-Bestellung steht die Automationslösung dann vor der Tür. Vormontierte Portale in Standardgrößen sind sogar innerhalb von 24 Stunden versandfertig. Ein weiteres Plus: Alle konfigurierbaren Portalsysteme sind durch die selbstschmierenden igus Polymere in allen Lagerstellen 100 Prozent wartungsfrei und sauber. Und zusätzliche Komponenten wie Greifer, Vision-Systeme, Motoren und Sensoren erhalten Automations-Novizen über den Low-Cost-Automation Marktplatz RBTX.

Festo and MassRobotics are Leading the Global Nurturing of Healthcare Robotics Innovation

The Festo-MassRobotics Healthcare Robotics Startup Catalyst program celebrates the milestones achieved by the program’s four selected global startups at the Healthcare Robotics Engineering Forum. Key life sciences and robotics speakers to lead the event.

The successful Healthcare Robotics Startup Catalyst program came to an end on April 7th, 2022. The concluding ceremony will be held at the Healthcare Robotics Engineering Forum, Boston Convention and Exhibition Center, on May 11, 2022. The event includes an impressive line-up of speakers: ​​Fady Saad, Co-founder & Vice President of Strategic Partnerships at MassRobotics; Alfons Riek, Vice President of Technology and Innovation at Festo; Kendalle Burlin O’Connell, President & Chief Operating Officer at MassBio; Kenn Turner, President and CEO at Mass Life Sciences Center; and Brian Johnson, President at MassMedic. All four selected startup companies, Kinarm (Canada), Assistive Technology Development Inc. (United States), Eureka Robotics (Singapore), and Bionomous (Switzerland ) will, in turn, promote their companies, along with their products and service offerings. They will also be demonstrating their technologies on the event’s expo floor.

In October 2021, MassRobotics, Festo, and other key players in healthcare robotics, launched a Startup Catalyst Program to advance healthcare robotics companies around the world, by providing the networking opportunities, guidance, and resources they need to grow and succeed. The aim of the program was to connect healthcare robotics startups with customers, investors, suppliers, marketing, and overall support. The program focused on startups in the areas of clinical care, public safety, laboratory, supply chain automation, out-of-hospital care, quality of life, as well as continuity of work and education, and training and support for healthcare professionals.

More than 30 companies applied from all over the world, and the selection committee invited four to join in the program. The participating startups completed impressive milestones, as detailed below:

  • Eureka Robotics develops and commercializes cutting-edge robotics and artificial intelligence (AI) technologies to automate high-accuracy, high-agility tasks. Eureka is currently completing fundraising rounds in Japan through connections provided by program mentors. Eureka was introduced to MassRobotics partner, Mitsubishi Electric, and signed a global partnership with Mitsubishi as a platinum partner. The program helped the company’s leadership to explore attractive applications in surgical lenses manufacturing technology, which is an extension to its focus on traditional manufacturing.
  • Bionomous provides laboratory equipment to automate the screening, sorting, and pipetting of miniature biological entities for more ethical and faster research in life science. CEO Frank Bonnet reports that with the aid of the Catalyst Program, Bionomous was able to run a pilot program in the US, leading to the company’s first sales outside Europe. This convinced Bionomous to expand into the US market and set up offices in the MassRobotics space in Boston. Bonnet emphasized the importance of the program’s mentors, who connected them to key industry leaders to open possibilities for future partnerships.
  • Assistive Technology Development Inc. is an American startup dedicated to at-home physical therapy solutions that are operable at a low cost and always accessible to rural patients and those who need closer monitoring for recovery. The company came into the program with three goals: 1) begin its first pilot study in a clinical setting; 2) downsize the actuation unit to a wearable form, and 3) raise capital. CEO Todd Roberts reports that with help from the program, the company has completed the first two milestones and is making progress on the third. It will begin phase I of a pilot study with UCHealth, a not-for-profit health care system, headquartered in Aurora, Colorado, on April 25th, allowing the company to present preliminary results at the keynote event at the Healthcare Conference. The study will assess the early clinical efficacy and collect patient and clinician feedback. Assistive’s actuation unit has been downsized by 70%, from a large, wall-powered, benchtop system to a wearable, battery-powered system that will enable the company to complete the pilot. Finally, Assistive is in the process of raising capital and has begun diligence with two firms.
  • Kinarm uses robotic arms to provide an objective assessment method to identify, measure, and track cognitive motor or sensory impairments resulting from injury or disease. Kinarm worked with assigned mentors from the robotics ecosystem who provided introductions to industry leaders who responded with “jaw-dropping, you-can-do-that?” exclamations, reports ​​Anne Vivian-Scott, CEO. Vivian-Scott was also introduced to experienced healthcare robotics leaders who will collaboratively aid Kinarm as the company scales its solutions. Vivian-Scott adds, “What we gained was not specific knowledge that can be encoded into our product, but direction. Quite frankly, most other programs are not ‘sufficiently vested’ in the participant’s business/opportunity to be able to offer such feedback.”

“I am grateful to Festo’s pioneering work to support our efforts to find global disrupting applications and startups in such a human-care field like healthcare, including life science, biotech, and medical devices,” said Fady Saad of MassRobotics.

 “I am impressed with the quality of applications we received, and the unique structure of the program that allowed us to select such innovative companies and match them with world-class advisors,” said Festo’s Alfons Riek. “Certainly, we are excited about the  networking opportunities opened to these companies and to presenting them to the world as great examples of the power of utilizing robotics in healthcare.”

MassRobotics, Festo, and additional corporations plan to launch the second version of the program by July 2022 to build on the programs’ amazing momentum and impact.

ABOUT MassRobotics: MassRobotics is the result of the collective work of a group of engineers, rocket scientists, and entrepreneurs with a shared vision to create an innovation hub and startup cluster focused on the needs of the robotics and IoT community. MassRobotics’ mission is to help create and scale the next generation of successful robotics and connected devices companies by providing entrepreneurs and innovative robotics/automation startups with the workspace and resources they need to develop, prototype, test, and commercialize their products and solutions. See www.massrobotics.org for details.

About Festo: Festo is a global player and an independent family-owned company with headquarters in Esslingen am Neckar, Germany. Festo has set standards in industrial automation technology and technical education ever since its establishment, thereby making a contribution to the sustainable development of the environment, the economy, and society. The company supplies pneumatic and electrical automation technology to 300,000 customers of factory and process automation in over 35 industries. The LifeTech sector with medical technology and laboratory automation is becoming increasingly important. The products and services are available in 176 countries. With about 20,000 employees in over 250 branch offices in 61 countries worldwide, Festo achieved a turnover of around €2.84 billion in 2020. Each year around 8 % of this turnover is invested in research and development. In this learning company, 1.5 % of turnover is invested in basic and further training. Festo Didactic SE is a leading provider of technical education and training and offers its customers worldwide comprehensive digital and physical learning solutions in the industrial environment.

Large laundry

Intelligent robotics for laundries closes automation gap

The textile and garment industry is facing major challenges with current supply chain and energy issues. The future recovery is also threatened by factors that hinder production, such as labour and equipment shortages, which put them under additional pressure. The competitiveness of the industry, especially in a global context, depends on how affected companies respond to these framework conditions. One solution is to move the production of clothing back to Europe in an economically viable way. Shorter transport routes and the associated significant savings in transport costs and greenhouse gases speak in favour of this. On the other hand, the related higher wage costs and the prevailing shortage of skilled workers in this country must be compensated. The latter requires further automation of textile processing. The German deep-tech start-up sewts GmbH from Munich has focused on the great potential that lies in this task. It develops solutions with the help of which robots – similar to humans – anticipate how a textile will behave and adapt their movement accordingly.

The German deep-tech start-up sewts GmbH from Munich has focused on the great potential that lies in this task. It develops solutions with the help of which robots – similar to humans – anticipate how a textile will behave and adapt their movement accordingly. In the first step, sewts has set its sights on an application for large industrial laundries. With a system that uses both 2D and 3D cameras from IDS Imaging Development Systems GmbH, the young entrepreneurs are automating one of the last remaining manual steps in large-scale industrial laundries, the unfolding process. Although 90% of the process steps in industrial washing are already automated, the remaining manual operations account for 30% of labour costs. The potential savings through automation are therefore enormous at this point.

Application

It is true that industrial laundries already operate in a highly automated environment to handle the large volumes of laundry. Among other things, the folding of laundry is done by machines. However, each of these machines usually requires an employee to manually spread out the laundry and feed it without creases. This monotonous and strenuous loading of the folding machines has a disproportionate effect on personnel costs. In addition, qualified workforce is difficult to find, which often has an impact on the capacity utilisation and thus the profitability of industrial laundries. The seasonal nature of the business also requires a high degree of flexibility. sewts makes IDS cameras the image processing components of a new type of intelligent system whose technology can now be used to automate individual steps, such as sorting dirty textiles or inserting laundry into folding machines.

“The particular challenge here is the malleability of the textiles,” explains Tim Doerks, co-founder and CTO. While the automation of the processing of solid materials, such as metals, is comparatively unproblematic with the help of robotics and AI solutions, available software solutions and conventional image processing often still have their limits when it comes to easily deformable materials. Accordingly, commercially available robots and gripping systems have so far only been able to perform such simple operations as gripping a towel or piece of clothing inadequately. But the sewts system

Weiterlesen

An innovative tracked mobile robot for research and agricultural applications

Guest Article by Robo-dyne

Thanks to the recent innovations in electronics and mechatronics, the use of mobile robots and manipulators is becoming popular mostly in smart factories where robotic platforms are used to move heavy loads and for the storage of goods.

One of the questions that arise when developing a new mobile robot is: continuous tracks or wheels? When implementing a new industrial robotics application, it can be very difficult to correctly choose between wheels and tracks when you build a robot because each locomotion system provides different performances and outputs. The most important features to consider when you have to design a locomotion system are the traction, the driving system, for example, Ackermann or skid-steering, the maximum ground pressure and the suspension system.

If it is necessary to minimize the ground pressure, then it is necessary to choose a solution based on tracks since they are well suitable for soft surfaces. On the other side, wheels have a significant advantage in steering compared to tracks and this can be translated into a good manoeuvrability for the wheels. Robo-dyne is a robotics company that provides tracked and wheeled robots that can be customized depending on the final requirements; this is particularly useful for all that companies that need to develop high-level applications based on a mobile robotic platform and do not will to invest money and time to build the mobile base because they aim to focus on the final application.

Robo-dyne designed MaXXII-S which is the first electric mobile robot with skid-steering and rubber tracks powered by AGM Batteries and able to use an innovative undercarriage configuration which includes a large rear wheel and a couple of two smaller front idle wheels pointing forward. This configuration allows the robot to be able to keep its balance when additional tools, i.e., lawn mowers unit, weed cutter, rotary hoes, are mounted on its rear side and it can also overcome obstacles greater than the ⅔ of the diameter of the rear wheel since the upper front wheel leans on it providing area for extra grip. MaXXII-S is open source and runs with ROS and C++ libraries in order to support researchers all over the world to develop their industrial applications.

The center idle wheels provide a better pressure distribution on the ground. A passive suspension system is used to minimize the vibrations over the main frame caused by the tracks-terrain interactions. In particular, MaXXII-S adopts a set of three shock absorbers with preload adjustment in addition to the possibility to change the elastic coefficient in order to better adapt the system configuration depending on the terrain features. This electric skid-steering tracked mobile robot and its undercarriage is already available on the market finding use in a vast range of agricultural applications, such as plant monitoring or weed cutting, and also for industrial use to move goods in warehouses with uneven ground as also reported on the manufacturer’s official website robo-dyne.com.

Potenziale KI-gestützter Robotik für die Industrie

Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie und birgt enormes wirtschaftliches Potenzial. Doch ein Blick in deutsche Produktionshallen zeigt noch ein anderes Bild: Lediglich 6,8 Prozent der Unternehmen aus den Bereichen Maschinenbau und Elektrotechnik setzen KI-Technologien ein (Stand 2019). Dabei birgt KI gerade für das produzierende Gewerbe zahlreiche Potenziale.

Künstliche Intelligenz ist ein Überbegriff, der den Ansatz beschreibt, mit Maschinen Probleme zu lösen und menschliche Intelligenz zu imitieren. Dabei spielt insbesondere ein Teilbereich, das Machine Learning (Maschinelles Lernen), in Unternehmen und Produktionen eine entscheidende Rolle. Machine Learning bedeutet, dass ein System aus Beispielen lernt und diese nach der Lernphase verallgemeinern kann.

In der Produktion kommt Machine Learning beispielsweise im Bereich Predictive Analytics zum Einsatz. Dort wird KI als Teil von Vorhersagemodellen zur Überwachung und Wartung von Produktionsanlagen eingesetzt, um frühzeitig auf kritische Zustände reagieren zu können.

Auch das Wissensmanagement greift für die Auswertung von internen Informationen und Daten auf Machine Learning zurück. Daten von Fertigungslinien, Lieferketten, aber auch von einzelnen Produkten werden für Unternehmensprozesse, die Produktentwicklung und neue Geschäftsmodelle ausgewertet. Ohne den Einsatz von KI wäre eine Analyse aufgrund der schieren Datenmenge nicht möglich.

Mit KI und Robotik Handarbeitsplätze automatisieren

Machine Learning, häufig in Kombination mit Machine Vision, kommt auch in den Bereichen Robotik und Automatisierung, Sensorik und bei fahrerlosen Transportsystemen zum Einsatz. Für die Fertigung ist dabei das Zusammenspiel von KI und Robotik ein wichtiger Schlüssel für die Zukunft.

KI-Produkte, wie beispielsweise Robotersteuerungen, ermöglichen es unter anderem, Handarbeitsplätze zu automatisieren. Ein nicht zu vernachlässigender Vorteil, denn Arbeitskräfte sind rar und der Mangel verschärft sich in den Jahren weiter, wie der Deutsche Industrie- und Handelskammertag (DIHK) prognostiziert. Übernehmen Roboter auch Aufgaben, für die es bisher die Flexibilität eines Menschen brauchte, sorgt das für die Entlastung der Stammbelegschaft, eine Auslastung der Maschinen und sichert auf lange Sicht die Wettbewerbsfähigkeit.

Robuster Umgang mit Varianzen

KI-Steuerungen wie MIRAI von Micropsi Industries ergänzen die native Steuerung eines Roboters. Der Roboter erhält dank einer Kamera und einem neuronalen Netzwerk die Auge-Hand-Koordination und eine vergleichbare Flexibilität wie ein Mensch. Ein solches intelligentes Robotersystem lernt bei neuen Aufgaben, bei anders geformten oder positionierten Werkteilen oder bei vergleichbaren Varianzen schnell, was es zu tun hat und passt bei Bedarf seine Bewegungen in Echtzeit eigenständig an. Ob es sich um das Picken einzelner Teile, Zustellbewegungen oder Fügen und Verfolgen handelt: Zahlreiche Tätigkeiten sind mit einer einzigen kleinen Kamera am Roboter-Handgelenk umsetzbar.

Diese Fähigkeiten lassen sich mit MIRAI durch menschliche Demonstration trainieren. Weder KI- noch Programmierkenntnisse sind erforderlich. Das Know-how bleibt selbst ohne KI-Fachkräfte im Unternehmen. Dem Roboter muss dafür das Ziel einige Male in typisch vorkommenden Varianzen mit der Kamera gezeigt werden. Die KI verallgemeinert im Anschluss die gezeigten Daten. Ein solches System kann in wenigen Stunden trainiert und sogar neu trainiert werden. Selbst eine Fertigung im High Mix-/Low-Volume lässt sich so rentabel automatisieren. Was intelligente Robotiklösungen bereits in der Praxis leisten, zeigen die folgenden Beispiele.

Intelligentes Handling-System bei ZF

Der Technologiekonzern ZF stand vor der Herausforderung, die Werkstückzufuhr einer großvolumigen Frässtation, in der Zahnräder produziert werden, zu automatisieren. Im Werkprozess werden Metallringe aus einer Kiste entnommen und auf ein Förderband gelegt, um später in die Produktion der Zahnräder einzufließen. Die Schwierigkeit: Der Produktionsschritt ist sehr variantenreich, da sich die Ringe in der angelieferten Gitterbox verschieben und dadurch zufällig angeordnet sind. Auch Platzierung und Form der Box variieren. Wechselnde Lichtverhältnisse stellen eine zusätzliche Herausforderung dar. Außerdem ist die Oberfläche der Ringe metallisch glänzend, teilweise ölverschmiert oder korrodiert, was eine klassische Automatisierung unmöglich machte.

Heute ist die KI-Steuerung MIRAI und ein Cobot vom Modell UR10e bei ZF in einer automatisierten Werkstückaufnahme im Einsatz. Mit seiner eigenen Steuerung bringt der Cobot sich über den Ringen in der Kiste in Position. Nun übernimmt das MIRAI-System die Kontrolle: Es bewegt den Roboter selbstständig zum nächsten Ring und bringt den Greifer in die korrekte dreidimensionale Greifposition. Danach übernimmt der UR10e wieder, nimmt den Ring auf und bewegt ihn zum Ablegen auf das Förderband. Das komplette Einrichten des Roboters dauerte lediglich wenige Tage – MIRAI löste in kürzester Zeit ein lang bestehendes Problem.

BSH sucht mit KI nach Kältemittellecks

An ihrem spanischen Standort stellt die BSH Hausgeräte GmbH Kühl- und Gefrierschränke her. Im Herstellungsprozess muss das Unternehmen die Kupferrohrleitungen der Kühlschränke auf Leckagen testen. Für die sogenannte Dichtheitsprüfung wird eine Schnüffelsonde entlang der Kupferrohrleitungen und Kompressoren geführt, um Lötstellen auf austretendes Gas und Kältemittel zu prüfen. Das Besondere: Jede Rückseite der hergestellten Kühlschränke ist einzigartig, was Position, Farbe und Form der Lötpunkte angeht. Für einen herkömmlichen Roboter sind solche Varianzen ein unüberwindbares Hindernis. Der monotone Prüfprozess blieb dem Menschen vorbehalten – bis jetzt.

Den Prüfprozess übernimmt bei BSH nun eine Robotik-Komplettlösung den Prüfprozess. Dank der integrierten Robotersteuerung MIRAI ist es dem Roboter möglich, alle zu prüfenden Lötstellen verlässlich zu identifizieren und die Schnüffelsonde millimetergenau heranzuführen – unabhängig von Position, Form oder Farbe. Das System reagiert in Echtzeit auf seine Umwelt und handhabt selbst unvorhergesehene Abweichungen präzise. Die Roboterfähigkeiten wurden von Mitarbeitenden bei BSH durch menschliche Demonstration in nur wenigen Stunden trainiert. Weder Programmier- noch KI-Kenntnisse waren erforderlich. BSH konnte mit der Automatisierungslösung die laufenden Betriebskosten senken und Wartungen und Fehlerbehebungen reduzieren.

Neue Technologien als Wettbewerbsvorteil

Die Beispiele zeigen, dass Unternehmen mit KI sehr viel bewirken können: KI ermöglicht mehr Flexibilität, Unabhängigkeit, Effizienz und nicht zuletzt Resilienz. Nicht unwichtig in Zeiten wie diesen. Neue Technologien sollte dabei als Türöffner zu mehr Automatisierung verstanden werden. Leistungen, die bislang von Menschen oder Maschinen erbracht wurden, können nun von einer Software geliefert werden. Das ist nicht nur vorteilhaft beim drastisch zunehmenden Arbeitskräftemangel. Es erhöht auch die Flexibilität, Nachvollziehbarkeit und Zuverlässigkeit von Produktionsprozessen und verschafft einen dauerhaften Wettbewerbsvorsprung.

Weitere Informationen unter: https://bit.ly/MicropsiIndustries

Robots as helpers in the lettuce harvest

Robot solution for automating the lettuce harvest

Lettuce is a valuable crop in Europe and the USA. But labor shortages make it difficult to harvest this valuable field vegetable, as sourcing sufficient seasonal labor to meet harvesting commitments is one of the sector’s biggest challenges. Moreover, with wage inflation rising faster than producer prices, margins are very tight. In England, agricultural technology and machinery experts are working with IDS Imaging Development Systems GmbH (Obersulm, Germany) to develop a robotic solution to automate lettuce harvesting.

Robot solution for automating the lettuce harvest

The team is working on a project funded by Innovate UK and includes experts from the Grimme agricultural machinery factory, the Agri-EPI Centre (Edinburgh UK), Harper Adams University (Newport UK), the Centre for Machine Vision at the University of the West of England (Bristol) and two of the UK’s largest salad producers, G’s Fresh and PDM Produce.

Within the project, existing leek harvesting machinery is adapted to lift the lettuce clear from the ground and grip it in between pinch belts. The lettuce’s outer, or ‘wrapper’, leaves will be mechanically removed to expose the stem. Machine vision and artificial intelligence are then used to identify a precise cut point on the stem to to neatly separate the head of lettuce.

“The cutting process of an iceberg is the most technically complicated step in the process to automate, according to teammates from G subsidiary Salad Harvesting Services Ltd.”, explains IDS Product Sales Specialist Rob Webb. “The prototype harvesting robot being built incorporates a GigE Vision camera from the uEye FA family. It is considered to be particularly robust and is therefore ideally suited to demanding environments. “As this is an outdoor application, a housing with IP65/67 protection is required here”, Rob Webb points out.

GV-5280FA

The choice fell on the GV-5280FA-C-HQ model with the compact 2/3″ global shutter CMOS sensor IMX264 from Sony. “The sensor was chosen mainly because of its versatility. We don’t need full resolution for AI processing, so sensitivity can be increased by binning. The larger sensor format means that wide-angle optics are not needed either”, Rob Webb summarized the requirements. In the application, the CMOS sensor convinces with excellent image quality, light sensitivity and exceptionally high dynamic range and delivers almost noise-free, very high-contrast 5 MP images in 5:4 format at 22 fps – even in applications with fluctuating light conditions. The extensive range of accessories, such as lens tubes and trailing cables, is just as tough as the camera housing and the screwable connectors (8-pin M12 connector with X-coding and 8-pin Binder connector). Another advantage: camera-internal functions such as pixel pre-processing, LUT or gamma reduce the required computer power to a minimum.

The prototype of the robotic mower will be used for field trials in England towards the end of the 2021 season.

“We are delighted to be involved in the project and look forward to seeing the results. We are convinced of its potential to automate and increase the efficiency of the lettuce harvest, not only in terms of compensating for the lack of seasonal workers”, affirms Jan Hartmann, Managing Director of IDS Imaging Development Systems GmbH.

Prototype lettuce harvesting robot of Agri-Epicentre (UK)

The challenges facing the agricultural sector are indeed complex. According to a forecast by the United Nations Food and Agriculture Organization (FAO), agricultural productivity will have to increase by almost 50 percent by 2050 compared to 2012 due to the dramatic increase in population. Such a yield expectation means an enormous challenge for the agricultural industry, which is still in its infancy in terms of digitalization compared to other sectors and is already under high pressure to innovate in view of climatic changes and labor shortages. The agriculture of the future is based on networked devices and automation. Cameras are an important building block, and artificial intelligence is a central technology here. Smart applications such as harvesting robots can make a significant contribution to this.

Der ReBeL der Automatisierung: Smarter igus Cobot für 4.970 Euro

Mit dem weltweit ersten Cobot-Kunststoffgetriebe und einem digitalen Ökosystem beschleunigt igus die Low-Cost-Automatisierung – heute schon 20 Projekte pro Woche

Als Herzstück das Getriebe aus Kunststoff – der Cobot ReBeL ist für 4.970 Euro jetzt lieferbar mit einem digitalen Universum für die Low-Cost-Integration in wenigen Tagen. (Quelle: igus GmbH)

Köln, 16. März 2022 – igus liefert ab jetzt den Serviceroboter ReBeL aus – auch als smarte Version. Zu einem Preis von 4.970 Euro für die Plug-and-Play-Variante und mit einem Gewicht von nur rund 8 Kilogramm erhalten Kunden einen der leichtesten Cobots auf dem Markt. Digitale Services wie der RBTXpert und neue Online-Angebote ermöglichen den Kunden komplette Automatisierungslösungen in wenigen Tagen und für wenig Geld.

Der ReBeL der Automatisierung: Smarter igus Cobot für 4.970 Euro Mit dem weltweit ersten Cobot-Kunststoffgetriebe und einem digitalen Ökosystem beschleunigt igus die Low-Cost-Automatisierung – heute schon 20 Projekte pro Woche Köln, 16. März 2022 – igus liefert ab jetzt den Serviceroboter ReBeL aus – auch als smarte Version. Zu einem Preis von 4.970 Euro für die Plug-and-Play-Variante und mit einem Gewicht von nur rund 8 Kilogramm erhalten Kunden einen der leichtesten Cobots auf dem Markt. Digitale Services wie der RBTXpert und neue Online-Angebote ermöglichen den Kunden komplette Automatisierungslösungen in wenigen Tagen und für wenig Geld.

Beim ReBeL setzt igus ganz auf seine motion plastics Expertise: Der Einsatz von Kunststoff macht den Roboter mit 8,2 Kilogramm Eigengewicht zum leichtesten Serviceroboter mit Cobot-Funktion in seiner Klasse. Alle mechanischen Bauteile, aus denen sich der ReBeL zusammensetzt, sind ausnahmslos von igus entwickelt und gefertigt. Seine Traglast beträgt 2 Kilogramm und er besitzt eine Reichweite von 664 Millimetern. Die Wiederholgenauigkeit liegt bei +/- 1 Millimeter bei 7 Picks pro Minute. Das Herzstück ist das weltweit erste industrietaugliche Cobot-Getriebe aus Kunststoff. „Hinter diesen Zahlen stecken 1.041 Tests im hauseigenen Labor seit 2019, bei denen wir tribologische und thermodynamische Tests zu 15 Materialpaarungen und Toleranzketten durchgeführt haben. Eine besonders große Herausforderung war die Wärmeentwicklung in den vollintegrierten Wellgetrieben; sie werden durch den Motor thermisch beeinflusst. In der Entwicklung haben wir uns daher zusätzlich auf größere Motoren und einen besseren Wirkungsgrad konzentriert, um die Wärmeentwicklung deutlich zu verringern“, sagt Alexander Mühlens, Leiter des Geschäftsbereichs Low-Cost-Automation bei igus. „Dadurch konnten wir kontinuierlich Verbesserungen erzielen und am Ende die Zyklenzahl auf zwei Millionen sogar verfünffachen. Das entspricht einer üblichen Lebensdauer von zwei Jahren.”  

Smart Plastics – Volle Transparenz im Betrieb für präventive Wartung
igus hat sein motion plastics Knowhow auch in die Leistungselektronik eingebracht und erstmalig einen Encoder mit Hilfe von Leitplastikbahnen entwickelt. So lassen sich Dreh- und Zyklenzahl, Durchläufe, Temperatur und Strom exakt messen. Dank einer Cloudanbindung mit Webcam stellt ein Dashboard alle generierten Daten übersichtlich live dar. Der Kunde erhält so die volle Transparenz über seinen ReBeL im Betrieb, über Kennzahlen wie Verschleiß, Taktzeit und Stückzahlen.  

Günstige Komplettlösung, schnell integriert
Erhältlich ist der smarte ReBeL in zwei Varianten: einmal als Open Source Version ohne Robotersteuerung, Netzteil und Software für 3.900 Euro bei Stückzahl 1 oder als Plug-and-Play-Variante mit Roboter, Steuerungssoftware und Netzteil für 4.970 Euro bei Stückzahl 1. Gemäß dem igus Ansatz „Build or Buy“ stehen Kunden neben dem Komplettsystem auch die einzelnen ReBeL Wellgetriebe zur Verfügung, in den Durchmessern 80 und 105 Millimeter. Das Drehmoment beträgt 3 Nm (80) beziehungsweise 25 Nm (105) bei 6 RPM, mit einer Übersetzung von 50:1. Der ReBeL ist auf dem Online-Marktplatz RBTX erhältlich. Hier finden Anwender Einzelkomponenten, Integrationsunterstützung sowie Hard- und Software von inzwischen mehr als 40 Partnern – im Wissen, dass alles zu 100 Prozent miteinander kompatibel ist; darunter verschiedenste Roboterkinematiken, Kameras, Software, Gripper, Power Electronics, Motoren, Sensoren und Steuerungen.   Für die Integration per Online-Beratung mit Festpreisgarantie steht für Kunden der RBTXpert bereit: Auf einer 400 Quadratmeter großen Customer Testing Area beraten Experten täglich Kunden per Live-Video und schicken innerhalb von Stunden Lösungsangebote. Typische Hardwarekosten ohne Integration starten bei 8.500 Euro und Komplettlösungen ab 12.500 Euro. „Wir spüren, dass wir Automatisierung noch zugänglicher machen, da wir mit unserem Service RBTXpert allein in Deutschland mehr als 20 Kundenprojekte pro Woche beraten. Deshalb erweitern wir bis Ende März den Service um zehn weitere Online-Berater. International ist das Angebot bereits in sieben Ländern verfügbar, weitere 14 sind in Vorbereitung”, so Alexander Mühlens. „Aus diesen positiven Erfahrungen, den vielen umgesetzten Projekten und den zahlreichen Kundengesprächen heraus entwickelt sich zurzeit ein spannendes Ökosystem an weiteren Services.”  

Universum für die Low-Cost-Automation
In diesem Low-Cost-Automation-Universum dreht sich alles um die individuelle Kundenanwendung. Ziel ist es, mit neuen Angeboten und Businessmodellen die Integration weiter zu vereinfachen. „Wir werden einen App Store zur Verfügung stellen, in dem Anbieter von Low-Cost-Automation und freie Softwareentwickler ihre Software-Ideen einbringen können. Indem sie bestehende Software nutzen, können Anwender ihre Automatisierung noch schneller realisieren. So ist die Anbindung der Roboter an digitale Services wie IFTTT oder smarte Assistenten wie Alexa oder Siri möglich. Der Besucher kann dann beispielsweise in einer Kaffeebar per Sprache seinen Lieblingskaffee ordern und der Roboter schenkt ihn dann aus. Daraus ergeben sich ganz neue Business-Modelle wie Pay-per-Pick, bei dem Nutzer nicht für den Roboter, sondern nur für seine Aufgabe zahlen. Diese neuen Möglichkeiten werden den Robotikmarkt ebenso wie den Alltag nachhaltig verändern“, sagt Mühlens. „Ihnen wollen wir mit dem Low-Cost-Automation-Universum ein Zuhause geben.“

https://www.igus.de/info/build-or-buy-serviceroboter-rebel

Draper Teaches Robots to Build Trust with Humans – new research

New study shows methods robots can use to self-assess their own performance

CAMBRIDGE, MASS. (PRWEB) MARCH 08, 2022

Establishing human-robot trust isn’t always easy. Beyond the fear of automation going rogue, robots simply don’t communicate how they are doing. When this happens, establishing a basis for humans to trust robots can be difficult.

Now, research is shedding light on how autonomous systems can foster human confidence in robots. Largely, the research suggests that humans have an easier time trusting a robot that offers some kind of self-assessment as it goes about its tasks, according to Aastha Acharya, a Draper Scholar and Ph.D. candidate at the University of Colorado Boulder.

Acharya said we need to start considering what communications are useful, particularly if we want to have humans trust and rely on their automated co-workers. “We can take cues from any effective workplace relationship, where the key to establishing trust is understanding co-workers’ capabilities and limitations,” she said. A gap in understanding can lead to improper tasking of the robot, and subsequent misuse, abuse or disuse of its autonomy.

To understand the problem, Acharya joined researchers from Draper and the University of Colorado Boulder to study how autonomous robots that use learned probabilistic world models can compute and express self-assessed competencies in the form of machine self-confidence. Probabilistic world models take into account the impact of uncertainties in events or actions in predicting the potential occurrence of future outcomes.

In the study, the world models were designed to enable the robots to forecast their behavior and report their own perspective about their tasking prior to task execution. With this information, a human can better judge whether a robot is sufficiently capable of completing a task, and adjust expectations to suit the situation.

To demonstrate their method, researchers developed and tested a probabilistic world model on a simulated intelligence, surveillance and reconnaissance mission for an autonomous uncrewed aerial vehicle (UAV). The UAV flew over a field populated by a radio tower, an airstrip and mountains. The mission was designed to collect data from the tower while avoiding detection by an adversary. The UAV was asked to consider factors such as detections, collections, battery life and environmental conditions to understand its task competency.

Findings were reported in the article “Generalizing Competency Self-Assessment for Autonomous Vehicles Using Deep Reinforcement Learning,” where the team addressed several important questions. How do we encourage appropriate human trust in an autonomous system? How do we know that self-assessed capabilities of the autonomous system are accurate?

Human-machine collaboration lies at the core of a wide spectrum of algorithmic strategies for generating soft assurances, which are collectively aimed at trust management, according to the paper. “Humans must be able to establish a basis for correctly using and relying on robotic autonomy for success,” the authors said. The team behind the paper includes Acharya’s advisors Rebecca Russell, Ph.D., from Draper and Nisar Ahmed, Ph.D., from the University of Colorado Boulder.

The research into autonomous self-assessment is based upon work supported by DARPA’s Competency-Aware Machine Learning (CAML) program.

In addition, funds for this study were provided by the Draper Scholar Program. The program gives graduate students the opportunity to conduct their thesis research under the supervision of both a faculty adviser and a member of Draper’s technical staff, in an area of mutual interest. Draper Scholars’ graduate degree tuition and stipends are funded by Draper.

Since 1973, the Draper Scholar Program, formerly known as the Draper Fellow Program, has supported more than 1,000 graduate students pursuing advanced degrees in engineering and the sciences. Draper Scholars are from both civilian and military backgrounds, and Draper Scholar alumni excel worldwide in the technical, corporate, government, academic, and entrepreneurship sectors.

Draper

At Draper, we believe exciting things happen when new capabilities are imagined and created. Whether formulating a concept and developing each component to achieve a field-ready prototype, or combining existing technologies in new ways, Draper engineers apply multidisciplinary approaches that deliver new capabilities to customers. As a nonprofit engineering innovation company, Draper focuses on the design, development and deployment of advanced technological solutions for the world’s most challenging and important problems. We provide engineering solutions directly to government, industry and academia; work on teams as prime contractor or subcontractor; and participate as a collaborator in consortia. We provide unbiased assessments of technology or systems designed or recommended by other organizations—custom designed, as well as commercial-off-the-shelf. Visit Draper at http://www.draper.com.

Robothon® – The Grand Challenge 2022 // Call for Teams

Dear Robothon® Community!

We, the Munich Institute of Robotics and Machine Intelligence (MIRMI) of the Technical University of Munich (TUM), in collaboration with Messe München

and automatica have launched successfully a new high-tech platform calledmunich_i in 2021, an event bringing together the world’s leading thought leaders and personalities from AI and robotics.

munich_i will take place again at the next automatica from June 21-24, 2022 in Munich, therefore

Robothon®, the international competition to develop skills in robot manipulations, will also go into the second round!! 

Robothon® – The Grand Challenge Series focuses on pressing and unsolved challenges of our time and was 2021 held digitally in the run-up to the automatica sprint

with 9 international teams and a renowned Grand Challenge Jury. As a highlight, it ended with the Award Ceremony on June 22, 2021

with 4 winning teams, a total prize money of € 22,500, great recognition and an expansion of our community.

Are you a motivated robotics enthusiast looking for new challenges?

CALL FOR TEAMS is open until March 31, 2022!!

Apply HERE!

KEY FACTS:

  • Robothon® will once again will be held digitally from April 29 to June 1, 2022
  • Special highlight: the Award Ceremony will take place on-site on June 21, 2022, during automatica at the Messe München!

HOW IT WORKS: 

  • Robothon® againwill focus on single-arm robot manipulation
  • The Grand Challenge 2022: disassembly and sorting of e-waste
  • The competition is free of charge 
  • Up to 20 selected teams can participate (2-4 members) 
  • All roboticists (academic and young professionals) are encouraged to apply
  • Teams will need to provide their own robot to complete the challenge remotely
  • Each team will receive an internet connected competition task board by mail
  • The processing period of 1 month starts from receipt of the competition scorecard 
  • Team performances will be evaluated by the Grand Challenge Jury 
  • Prize money awaits the finalists!

HAVEN’T SIGNED UP YET? Apply as a team until March 31, 2022, and visit our website www.robothon-grand-challenge.com to learn more. 

Know someone who should participate? Please help spread the word!

Feel free to email us with any questions at [email protected].

With kind regards,

The Robothon® Team

Barbara Schilling & Peter So (Technical Leader)

Further development of IDS NXT ocean: focus on user-friendliness and AI transparency

All-in-one embedded vision platform with new tools and functions

(PresseBox) (ObersulmAt IDS, image processing with artificial intelligence does not just mean that AI runs directly on cameras and users also have enormous design options through vision apps. Rather, with the IDS NXT ocean embedded vision platform, customers receive all the necessary, coordinated tools and workflows to realise their own AI vision applications without prior knowledge and to run them directly on the IDS NXT industrial cameras. Now follows the next free software update for the AI package. In addition to the topic of user-friendliness, the focus is also on making artificial intelligence clear and comprehensible for the user.

An all-in-one system such as IDS NXT ocean, which has integrated computing power and artificial intelligence thanks to the “deep ocean core” developed by IDS, is ideally suited for entry into AI Vision. It requires no prior knowledge of deep learning or camera programming. The current software update makes setting up, deploying and controlling the intelligent cameras in the IDS NXT cockpit even easier. For this purpose, among other things, an ROI editor is integrated with which users can freely draw the image areas to be evaluated and configure, save and reuse them as custom grids with many parameters. In addition, the new tools Attention Maps and Confusion Matrix illustrate how the AI works in the cameras and what decisions it makes. This helps to clarify the process and enables the user to evaluate the quality of a trained neural network and to improve it through targeted retraining. Data security also plays an important role in the industrial use of artificial intelligence. As of the current update, communication between IDS NXT cameras and system components can therefore be encrypted via HTTPS.

Just get started with the IDS NXT ocean Creative Kit

Anyone who wants to test the industrial-grade embedded vision platform IDS NXT ocean and evaluate its potential for their own applications should take a look at the IDS NXT ocean Creative Kit. It provides customers with all the components they need to create, train and run a neural network. In addition to an IDS NXT industrial camera with 1.6 MP Sony sensor, lens, cable and tripod adapter, the package includes six months’ access to the AI training software IDS NXT lighthouse. Currently, IDS is offering the set in a special promotion at particularly favourable conditions. Promotion page: https://en.ids-imaging.com/ids-nxt-ocean-creative-kit.html.

Learn more: www.ids-nxt.com