Vention demokratisiert die industrielle Automatisierung  mithilfe von NVIDIA-KI-Technologien

MONTREAL/BERLIN, Juni 2024 – Vention, das Unternehmen hinter der  cloudbasierten Manufacturing Automation Platform (MAP), gibt eine Zusammenarbeit  mit NVIDIA bekannt. Das Ziel ist, kleinen und mittleren Unternehmen (KMU) industrielle Automatisierungstechnologie zugänglich zu machen. Um die Cloud Robotik voranzutreiben, sollen KI-Technologien von NVIDIA und beschleunigtes  Computing genutzt werden.  

Die Ankündigung markiert ein Jahr gemeinsamer Bemühungen, künstliche Intelligenz (KI) zu  nutzen, um die Realisierung von industriellen Automatisierungs- und Robotikprojekten – vom  Design bis zum Betrieb – zu vereinfachen.  

Die Vention Plattform ist KI-fähig und basiert auf einem proprietären Datensatz mit mehreren  hunderttausend Roboterzellendesigns, die seit der Gründung des Unternehmens 2016  erstellt wurden. Vention beabsichtigt, dieses einzigartige Potenzial zu nutzen, um das  Benutzererlebnis in der Cloud und beim Edge Computing zu vereinfachen. Die  Zusammenarbeit mit NVIDIA konzentriert sich darauf, mithilfe von KI digitale Zwillinge  deutlich schneller und effizienter zu erstellen, damit Unternehmen ihre Projekte testen  können, bevor sie investieren. Zu den Entwicklungsbereichen gehören generative Designs  für Roboterzellen, Co-Pilot-Programmierung, physikbasierte Simulation und autonome  Roboter.  

In Kombination mit Ventions modularer Hardware und Plug-and-Play  Bewegungssteuerungstechnologie wird die Zusammenarbeit mit NVIDIA modernste KI in  den Vordergrund der Fertigung rücken und darauf abzielen, KMU den Zugang zu industrieller  Automatisierungstechnologie zu erleichtern. Vention ist bereits für seine  benutzerfreundlichen Softwareprodukte und -schnittstellen bekannt und möchte KMU auch  weiterhin Lösungen anbieten, die es ermöglichen, die Automatisierung schneller und  effizienter umzusetzen.  

Eine Reihe neuer Vention-Produkte, die aus dieser Zusammenarbeit hervorgehen, wird voraussichtlich im dritten Quartal 2024 angekündigt. 

„Das Vention Ökosystem wird zusammen mit NVIDIAs Robotertechnologie und KI-Expertise  dazu beitragen, Innovationen in der Fertigungsindustrie entscheidend voranzubringen. Jetzt  können selbst die komplexesten Anwendungsfälle für kleine und mittlere Hersteller  umgesetzt werden.“ – Etienne Lacroix, Gründer und CEO von Vention.  

„Ventions cloudbasierte Roboterplattform, die von NVIDIA KI angetrieben wird, wird es  Herstellern von Industrieanlagen überall ermöglichen, Roboterzellen nahtlos zu entwerfen,  einzusetzen und zu betreiben und so die Branche voranzubringen.“ – Deepu Talla,  Vizepräsident für Robotik und Edge Computing bei NVIDIA. 

Austauschplattform zu Robotern im Alltag

Karlsruhe, 18.06.2024 – Bei einem vom Bundesministerium für Bildung und Forschung (BMBF) ausgerichteten Vernetzungstreffen des Transferzentrums Roboter im Alltag (RimA) am 17. Juni 2024 in Berlin wurde ein Onlineforum mit dazugehöriger Wissensplattform präsentiert, um eine gezielte Auseinandersetzung mit Robotern im Alltag zu ermöglichen und die Bildung einer Community zu fördern. Das vom BMBF mit rund 2,25 Millionen Euro über einen Zeitraum von zirka drei Jahren geförderte Projekt widmet sich der Interaktion zwischen Menschen und Robotern.

Roboter halten Einzug in unseren Alltag, in Form von Staubsaugern in der Wohnung, als Bedienung im Restaurant oder Reinigungsroboter im Bahnhof. Dabei ist den meisten Menschen nicht klar, ob sie – sowohl technisch als auch mental – darauf vorbereitet sind. Denn wie interagiert man eigentlich mit einem fremden Roboter?

Bild: FZI Forschungszentrum Informatik

Community-Building als Weg zu mehr Akzeptanz für Robotik im Alltag

Das RimA-Konsortium, bestehend aus den Projektpartnern FZI Forschungszentrum Informatik, Rheinische Friedrich-Wilhelms-Universität Bonn, Freie Universität Berlin und TÜV SÜD GmbH hat zum Ziel, eine Community aufzubauen, die den Austausch genau zu diesem Thema ermöglicht. So sollen gleichermaßen Forschung und Entwicklung gefördert, aber auch der Stand der Technik transparent gemacht werden. „Am Ende sollen in der RimA-Community Forschende, Industrieakteure und Endanwender gleichermaßen eine Anlaufstelle für ihre Anliegen finden”, stellt FZI-Abteilungsleiter und RimA-Koordinator Tristan Schnell das Projekt vor. Über zahlreiche Maßnahmen wie Workshops und Schulungen, Benchmarking-Events und -Labore, Robotik-Wettbewerbe, ein Online-Forum und eine Wissensplattform sollen Grundlagen geschaffen werden, um Alltagsrobotik zugänglicher zu machen. Schnell: „Die Wissensplattform bietet uns die Möglichkeit, Informationen zum aktuellen Stand der Dinge zielgruppengerecht aufzubereiten und öffentlich zur Verfügung zu stellen.” Dabei geht es neben Informationen zur Mensch-Roboter-Interaktion und existierenden Robotikprodukten auch um Aspekte wie zum Beispiel Möglichkeiten des Einsatzes von Open Source Software, regulatorische Rahmenbedingungen für die Sicherheit, Tools für die Entwicklung eines Geschäftsmodells und die Evaluation von Vergleichskriterien.

Transfer von Forschungsergebnissen zu intuitiven Interaktionsformen

Mit dem Forum erhalten somit alle Interessierten die Möglichkeit, sich zu Themen rund um Robotik in unterschiedlichen Anwendungsbereichen anonym und ergebnisoffen auszutauschen. Aber auch die Kommunikation zwischen Start-ups, den vom BMBF geförderten RA3-Kompetenzzentren und anderen unabhängigen Projekten stehen im Mittelpunkt des Interesses. Ziel des Transferzentrums ist, ein nachhaltiger Anlaufpunkt für die Einordnung des Standes und der Weiterentwicklung von Robotik-Komponenten, -Anwendungen und -Services sowie den Austausch darüber zu sein.

Über die RA3-Fördermaßnahme

Grundlage für die Fördermaßnahme ist das BMBF-Forschungsprogramm zur Mensch-Technik-Interaktion (MTI) „Technik zum Menschen bringen“ im Themenfeld „Digitale Gesellschaft“. Im Rahmen des Vorhabens gilt es, innovative Forschungs- und Entwicklungsvorhaben der Mensch-Technik-Interaktion zu fördern, Assistenzroboter in praxisnahen Anwendungsszenarien umfassend zu erproben und damit einen Beitrag zum künftigen Transfer von Assistenzrobotik in konkrete Einsatzfelder zu leisten.

Zukunftsfähige Lösungen müssen sowohl das individuelle Interaktionsverhalten als auch das Umfeld und technologische Möglichkeiten beachten und sich an gesellschaftlichen Anforderungen an eine „interaktive Assistenzrobotik“ messen lassen. Dadurch sollen flexible und leistungsfähige Lösungen für eine optimale Interaktion von Menschen mit Robotern entwickelt werden. So wird das gesamte Spektrum von Mensch-Roboter-Interaktionen (MRI) für jede Alltagssituation adressiert.

Der Förderschwerpunkt „Roboter für Assistenzfunktionen“ ist vom BMBF als dreiteilige Bekanntmachungsreihe angelegt. In der bereits abgeschlossenen Stufe 1 drehten sich die Projekte um interaktive Grundfertigkeiten. Bei der zweiten Bekanntmachung der Reihe (RA2) ging es um „Interaktionsstrategien“. Aus der dritten BMBF-Bekanntmachung „Roboter für Assistenzfunktionen: Interaktion in der Praxis“ (RA3) werden nun die Zentren für Assistenzrobotik in definierten Anwendungsdomänen zur praxisnahen Erprobung gefördert – die sogenannten RA3-Kompetenzzentren rokit, RuhrBots und ZEN-MRI – sowie das Transferzentrum RimA.

Weiterführende Informationen zum Projekt finden Sie unter RimA – FZI Forschungszentrum Informatik oder www.roboter-im-alltag.org

Large companies are catching up in DIY automation

Montreal/Berlin, 5 June 2024. The technology company Vention has analyzed in a study how companies automate their production independently.  Small businesses are trendsetters in do-it-yourself (DIY) automation, but large companies are catching up. The study is based on anonymized data from over 1,400 corporate users of Vention’s Manufacturing Automation Platform (MAP) worldwide. 

For the second time, Vention publishes the annual study „The State of DIY Industrial Automation“. The focus is on do-it-yourself (DIY) automation, which enables manufacturers of different sizes to automate their production independently using state-of-the-art technologies.  

For the study, Vention evaluated the user behavior of its corporate customers on the Vention cloud platform MAP from January to December 2023. The aim was to capture the current state of DIY automation in companies and to explain how they use the DIY approach for the design, integration and operation of automation components, such as robot cells or cobot palletizers.  

„The trend towards DIY automation continues this year,“ says Etienne Lacroix,  CEO of Vention. „One driver is the shortage of skilled workers, which is becoming increasingly noticeable . The question of how production can be automated quickly and cost-effectively is  currently occupying many companies. We see that small companies  in particular are automating independently. But compared to last year, the number of large  companies using DIY automation is increasing significantly.“  

The most important findings of the study:  

1. Small (< 200 employees (MA)) and medium-sized enterprises („Medium“, < 2,000 employees) were the leading users of automation systems on MAP in 2023, with a share of 48% and 17%, respectively. However, small businesses faced more challenging economic conditions in 2023. As a result, there was a decline of 12% in this segment compared to the previous year (see study, p. 8). 

Large companies („Large“, < 10,000 employees) as well as the academic and government research sector („Academia & Gov Research“) have made significant gains in the use of the DIY approach on MAP (+10% and +4% respectively). Platform technology has made significant progress over the past year, providing more opportunities for high-throughput projects traditionally associated with larger manufacturers or users (see study, p. 8). 

3. In 2023, very large companies („Enterprise“, > 10,000 employees) used the DIY approach more often in their factory floors than any other sector. Accordingly, the number of projects implemented with MAP in this segment has risen – from an average of 4.1 in 2022 to 4.9 projects in 2023 (see study, p. 11).

4. Projects with machine operation applications were the fastest implemented on MAP in 2023. This is likely due to the fact that it is difficult for companies to recruit staff given the ongoing labor shortages. As recent innovations have made CNC integration more accessible, manufacturers are more eager than ever to quickly adopt automated machine operation applications (see study, p. 24).  

5. After two years of record sales (2021 and 2022), the Association for  Advancing Automation (A3) reported a significant 30% decline in robot sales in  North America in 2023. In contrast, robot deployments on MAP saw a notable increase in both  2022 and 2023. In 2023, robot deployments  on MAP grew by about 40% (see study, p. 26). 

The full study can be found here.

United Robotics Group presents new modular uLink series for retail, warehouse logistics and production

  • At VivaTech 2024, the United Robitics Group (URG) will be showing the new product in action – together with other robots from the URG fleet, which are fully adapted to the needs of retailers.
  • uLink is a highly flexible, versatile platform for rapid adaptation and support in logistics and automation.
  • uLink is the first URG solution with an open API for seamless integration with operating systems and greater operational flexibility.

Paris/Bochum, May 22, 2024 – At VivaTech in Paris, the United Robotics Group will be presenting its new service robots from the uLink series for the first time, which are characterized by easy integration, flexible customization and individual extensions. They are suitable for use in retail, warehouse logistics and manufacturing. As the European market leader for service robotics solutions, URG is expanding its CobiotX portfolio worldwide with the latest Cobiot for integrated workflows in the aforementioned segments. The modular platform fits seamlessly into the respective workflows and can be expanded with industry-standard accessories. uLink is designed to simplify operations and increase safety and efficiency in various environments. The unique combination of features sets new standards in the industry – from modular design and open API to 3D LiDAR-based navigation and real-time operational data visualization. 

uLink is equipped with IDE, SDK and fleet management tools and allows the seamless integration and control of various components such as LiDARS, engines or sensors. Thanks to powerful software functions for configuring and managing robot applications, as well as sensors and accessories, the robot can easily handle various logistics challenges in trade and warehousing, which vary depending on the industry, company size and automation requirements. The uLink accessory interface is also modular, so that the usable area can carry a payload of up to 60 kg. The SEER navigation control allows deliveries in a predefined area of up to 400,000 m².

With the help of the plug-and-play mechanism, other accessories such as a locker for Click & Collect or confidential deliveries, a pegboard for the delivery of tools and spare parts, and trays for transporting stock can be integrated into the platform. In addition, partner integrators can develop new accessories to meet specific requirements.

„The retail and logistics sector has been undergoing a profound transformation for years, related to the growth of e-commerce, automation and the shortage of skilled workers in the value chain. Whether it’s shelf replenishers or water-spiders, i.e. those responsible for inventory in warehouses or production: it is important to support the players and offer solutions that meet their specific needs,“ explains Thomas Linkenheil, Co-CEO of the United Robotics Group. „In a highly competitive sector, consumers want a fast and personalized service. Our new logistics solution enables service providers to offer up-to-date customer service without long searches in the warehouse or tedious processes that can cost time and affect customer business.“

First Cobiot with an open API for connectivity and flexibility

Like all CobiotX solutions from the United Robotics Group, uLink is also equipped with a particularly user-friendly user interface. It is based on the no-code principle and enables users without robotics knowledge to quickly integrate into daily operations. In addition, uLink has an open API platform. This allows the solution to communicate with existing operations and other connected systems such as automatic doors or elevators, and also work with other robots and automated guided vehicles such as AMRs and AGVs.

With the launch of uLink, United Robotics Group is expanding its range of robotics solutions for logistics, warehouse management and industrial manufacturing. The robot is intended to be used in retail and logistics environments such as department stores, supermarkets, warehouses and fulfillment centers, but also factories and production facilities as well as airports and healthcare facilities.

The robot is equipped with 3D LiDAR and PL LiDAR systems for maximum precision in mobility. The platform can immediately register changes in the environment such as certain movements or people or machines and react accordingly. It is connected to an online dashboard that facilitates both workflow management and quick decisions between front- and back-of-house teams. 

uLink has a long battery life of up to 14 hours on a single charge. In addition, the solution has an intelligent, wireless charging function that was developed with a well-known German battery manufacturer. This allows it to automatically return to the charging station between individual operations. The robot complies with the highest security and privacy standards, including the EU’s Performance Level D Machinery Directive and GDPR regulations. 

uLink, along with United Robotics Group’s logistics and warehouse management fleet, including RBWatcher and MobilePalletizer, will be on display at the company’s VivaTech booth (Hall 1, Booth G18) in Paris from May 22-25. 

uLink can be rented via the RaaS (Robot as a Service) model of the United Robotics Group from 699 euros / month or purchased for 19,900 euros. 

United Robotics Group stellt neue modulare uLink-Serie für Einzelhandel, Lagerlogistik und Produktion vor

  • Auf der VivaTech 2024 zeigt die United Robitics Group (URG) die Produktneuheit in Aktion – gemeinsam mit anderen Robotern aus der URG-Flotte, die vollständig an die Bedürfnisse des Einzelhandels angepasst sind.
  • uLink ist eine hochflexible, vielseitige Plattform für eine schnelle Anpassung und Unterstützung in Logistik und Automatisierung.
  • uLink ist die erste URG-Lösung mit offener API für eine nahtlose Integration in Betriebssysteme und eine größere betriebliche Flexibilität. 

Paris/Bochum, 22. Mai 2024– Die United Robotics Group stellt auf der VivaTech in Paris erstmalig ihre neuen Serviceroboter aus der uLink-Serie vor, die sich durch einfache Integration, flexible Anpassung und individuelle Erweiterungen auszeichnen. Sie eignen sich für den Einsatz im Handel, der Lagerlogistik sowie im Fertigungsbereich. Als europäischer Marktführer für Servicerobotik-Lösungen erweitert die URG ihr CobiotX-Portfolio weltweit um den neuesten Cobiot für integrierte Arbeitsabläufe in den genannten Segmenten. Die modulare Plattform fügt sich nahtlos in die jeweiligen Workflows ein und kann mit Industriestandard-Zubehör erweitert werden. uLink wurde entwickelt, um Betriebsabläufe zu vereinfachen und die Sicherheit und Effizienz in verschiedenen Umgebungen zu erhöhen. Die einzigartige Kombination von Funktionen setzt neue Standards in der Branche – vom modularen Design und der offenen API bis hin zur 3D-LiDAR-basierten Navigation und der Echtzeit-Betriebsdatenvisualisierung. 

uLink ist mit IDE-, SDK- sowie Flottenmanagement-Tools ausgestattet und erlaubt die nahtlose Integration und Steuerung verschiedener Komponenten wie LiDARS, Motoren oder Sensoren. Dank leistungsstarker Softwarefunktionen für die Konfiguration und Verwaltung von Roboteranwendungen, aber auch mittels Sensoren und entsprechendem Zubehör kann der Roboter verschiedene logistische Herausforderungen im Handel und in der Lagerhaltung problemlos bewältigen, die je nach Branche, Betriebsgröße und Automatisierungsanforderungen variieren. Die uLink-Zubehörschnittstelle ist ebenfalls modular aufgebaut, so dass die Nutzungsfläche eine Nutzlast von bis zu 60 kg tragen kann. Die SEER-Navigationssteuerung erlaubt Lieferungen in einem vordefinierten Bereich von bis zu 400.000 m².

Mit Hilfe des Plug-and-Play-Mechanismus, können weitere Zubehörkomponenten wie ein Schließfach für Click & Collect oder vertrauliche Lieferungen, ein Pegboard für die Lieferung von Werkzeugen und Ersatzteilen sowie Tabletts für den Transport von Lagerbeständen in die Plattform integriert werden. Darüber hinaus können die Partner-Integratoren neue Zubehörteile entwickeln, um spezifische Anforderungen zu erfüllen.

„Der Einzelhandels- und Logistiksektor befindet sich seit Jahren in einem tiefgreifenden Wandel, der mit dem Wachstum des E-Commerce, der Automatisierung und dem Mangel an Fachkräften in der Wertschöpfungskette zusammenhängt. Ob Regalauffüller oder Water-Spider, also Verantwortliche für den Bestand in Lagern oder der Fertigung: Wichtig ist, die Akteure zu unterstützen und Lösungen anzubieten, die den spezifischen Bedürfnissen entsprechen“, erklärt Thomas Linkenheil, Co-CEO der United Robotics Group. „In einem hart umkämpften Sektor wollen die Verbraucher einen zügigen und personalisierten Service. Unsere neue Logistiklösung versetzt Dienstleister in die Lage, einen zeitgemäßen Kundenservice ohne langes Suchen im Warenlager oder mühsame Prozesse anzubieten, die Zeit kosten und das Kundengeschäft beeinträchtigen können.“

Erster Cobiot mit offener API für Konnektivität und Flexibilität

Wie alle CobiotX-Lösungen der United Robotics Group ist auch uLink mit einer besonders benutzerfreundlichen Bedienoberfläche ausgestattet. Sie basiert auf dem No-Code-Prinzip und ermöglicht Anwendern ohne Robotik-Kenntnisse eine schnelle Integration in den täglichen Betrieb. Darüber hinaus verfügt uLink über eine offene API-Plattform. So kann die Lösung mit bestehenden Betriebsabläufen und anderen vernetzten Systemen wie automatischen Türen oder Aufzügen kommunizieren und auch mit anderen Robotern und fahrerlosen Transportfahrzeugen wie AMRs und AGVs zusammenarbeiten.

Mit der Markteinführung von uLink erweitert die United Robotics Group ihr Angebot an Robotik-Lösungen für die Bereiche Logistik, Lagerverwaltung und industrielle Fertigung. Der Roboter soll in Einzelhandels- und Logistikumgebungen wie Kaufhäusern, Supermärkten, Lagerhäusern und Fulfillment-Zentren, aber auch Fabriken und Produktionsstätten sowie Flughäfen und Gesundheitseinrichtungen zum Einsatz kommen.

Der Roboter ist mit 3D-LiDAR- und PL-LiDAR-Systemen für maximale Präzision bei der Mobilität ausgestattet. Die Plattform kann Änderungen in der Umgebung wie bestimmte Bewegungen oder Personen bzw. Maschinen sofort registrieren und entsprechend reagieren. Dabei ist er mit einem Online-Dashboard verbunden, das sowohl das Workflow-Management als auch schnelle Entscheidungen zwischen Front- und Back-of-House-Teams erleichtert. 

uLink hat eine lange Akkulaufzeit von bis zu 14 Stunden mit einer Ladung. Zudem verfügt die Lösung über eine intelligente, kabellose Ladefunktion, die mit einem namhaften deutschen Batteriehersteller entwickelt wurde. Damit kann sie zwischen einzelnen Arbeitsgängen automatisch zur Ladestation zurückkehren. Der Roboter entspricht den höchsten Sicherheits- und Datenschutzstandards, einschließlich der EU-Maschinenrichtlinie „Performance Level D“ sowie den DSGVO-Vorschriften. 

uLink wird zusammen mit der Logistik- und Lagerverwaltungsflotte der United Robotics Group einschließlich RBWatcher und MobilePalletizer vom 22. bis 25. Mai auf dem VivaTech-Stand des Unternehmens (Halle 1, Stand G18) in Paris zu sehen sein. 

uLink kann über das RaaS-Modell (Robot as a Service) der United Robotics Group ab 699 Euro / Monat gemietet oder für 19.900 Euro erworben werden. 

At The Bleeding Edge Of Robotics: 2 Year Milestone For pib

2 years ago, the open source robotics project pib was launched. The goal of pib, the printable intelligent bot anyone can build themselves, is to lower the barriers and make robotics and AI accessible to anyone who is interested. Over the past two years, pib has built an active and dedicated community that supports the project in moving forward. Therefore, a lot has happened since the project launch – time to look back on how far pib has come.

Milestones, Challenges and What Comes Next

It’s not every day that a robot turns two years old, so the team celebrated with a big party. The all new pib documentary was streamed to kick off the event, followed by different stations for guests to experience pib’s newest features hands-on.

pib started out as an idea that slowly took shape in the form of a master thesis and a robotic arm. From there, a humanoid robot was created that can easily be 3D printed with the free 3D print files on the website and then built with the help of the building manuals online. pib offers many ways to implement AI trainings such as voice assistant technology, object detection, imitation and more.

For starters, the pib team and the community have optimized pib’s mobility in a joint effort. The result is impressive: In its newest version, pib can now move its arms at basically all angles.  Another rapidly progressing topic is pib’s digital twin which received a birthday present by the community members that took on this project: The camera now works in the virtual environment, enabling the camera stream to be transmitted to the outside world to be analyzed there and then become the base of control processes.

Talk To Me, pib!

Aside from that, there has been some significant progress in the field of human-machine interaction, particularly focusing on enabling voice-based communication with pib through advanced voice assistant technology. Exploring the potential of natural speech interaction has become a significant area of the team’s current efforts and the project is committed to advancing pib’s capabilities in this direction.

One of the newest features that were revealed at the pib party is communication in a multimodal world. The robot captures an image, analyzes it, and then answers questions in relation to the image. For example, when asking pib “where are we right now?” it interprets the room and its setting and will answer something like “we are in an office space”.

With this new feature, pib was also able to play its first round of Tic Tac Toe. The team drew the gameboard on a whiteboard so that pib was able to analyze the current state of the game and determine the next move with commands such as “place the next X in the top right corner”.

Join The Community

The pib community is rapidly growing and consists of 3D printing, robotics and AI enthusiasts. Whether you’re a rookie or an expert, anyone is invited to join, share their ideas and work on exciting projects together.

Robotik auf dem neuesten Stand: 2 Jahre pib als Meilenstein

Vor zwei Jahren wurde das Open-Source-Robotikprojekt pib ins Leben gerufen. Das Ziel von pib, dem printable intelligent bot zum Selberbauen, ist es, die Hürden zu senken und Robotik und Künstliche Intelligenz für alle Interessierten zugänglich zu machen. In den letzten zwei Jahren hat pib eine aktive und engagierte Community aufgebaut, die das Projekt unterstützt und vorantreibt. Seit dem Start des Projekts ist also viel passiert – Zeit, um zurückzublicken, wie weit pib gekommen ist.

Meilensteine, Herausforderungen und was als Nächstes kommt

Es kommt nicht jeden Tag vor, dass ein Roboter zwei Jahre alt wird, also feierte das Team mit einer großen Party. Zum Auftakt der Veranstaltung wurde die brandneue pib-Dokumentation gestreamt, gefolgt von verschiedenen Stationen, an denen die Gäste die neuesten Funktionen von pib selbst ausprobieren konnten.

pib begann als eine Idee, die in Form einer Masterarbeit und eines Roboterarms langsam Gestalt annahm. Daraus entstand ein humanoider Roboter, der mit den kostenlosen 3D-Druckdateien auf der Website einfach in 3D gedruckt und dann mit Hilfe der online verfügbaren Bauanleitungen gebaut werden kann. pib bietet viele Möglichkeiten zur Implementierung von KI-Trainings wie Sprachassistenten, Objekterkennung, Imitation und mehr.

Zunächst einmal haben das pib-Team und die Community gemeinsam die Beweglichkeit von pib optimiert. Das Ergebnis kann sich sehen lassen: In der neuesten Version kann pib seine Arme nun in praktisch allen Winkeln bewegen.  Ein weiteres sich rasant entwickelndes Thema ist der digitale Zwilling von pib, der von den verantwortlichen Community-Mitgliedern ein Geburtstagsgeschenk erhalten hat: Die Kamera arbeitet nun in der virtuellen Umgebung, so dass das Kamerabild in die Außenwelt übertragen werden kann, um dort analysiert zu werden und dann zur Grundlage von Steuerungsprozessen zu werden.

Sprich mit mir, pib!

Darüber hinaus gab es einige bedeutende Fortschritte im Bereich der Mensch-Maschine-Interaktion, insbesondere bei der sprachbasierten Kommunikation mit pib durch fortschrittliche Sprachassistententechnologie. Das Team sieht großes Potenzial in der natürlichen Sprachinteraktion und arbeitet daran, die Fähigkeiten von pib in dieser Hinsicht noch weiter zu optimieren.

Eine der neuesten Funktionen, die auf der pib-Party vorgestellt wurden, ist die Kommunikation in einer multimodalen Welt. Der Roboter nimmt ein Bild auf, analysiert es und beantwortet dann Fragen im Zusammenhang mit dem Bild. Wenn man pib zum Beispiel fragt: „Wo sind wir gerade?“, interpretiert er den Raum und seine Umgebung und antwortet etwa: „Wir sind in einem Büro“.

Mit dieser neuen Funktion konnte pib auch seine erste Runde Tic Tac Toe spielen. Das Team zeichnete das Spielbrett auf ein Whiteboard, so dass pib in der Lage war, den aktuellen Stand des Spiels zu analysieren und den nächsten Zug mit Befehlen wie „platziere das nächste X in der oberen rechten Ecke“ zu bestimmen.

Join The Community

Die pib-Community wächst schnell und besteht aus 3D-Druck-, Robotik- und KI-Enthusiasten. Ob Anfänger oder Experte – jeder ist eingeladen, mitzumachen, seine Ideen zu teilen und gemeinsam an spannenden Projekten zu arbeiten.

Exploring Elephant Robotics LIMO Cobot

1. Introduction:

This article primarily introduces the practical application of LIMO Cobot by Elephant Robotics in a simulated scenario. You may have seen previous posts about LIMO Cobot’s technical cases, A[LINK]B[LINK]. The reason for writing another related article is that the original testing environment, while demonstrating basic functionality, often appears overly idealized and simplified when simulating real-world applications. Therefore, we aim to use it in a more operationally consistent environment and share some of the issues that arose at that time.

2. Comparing the Old and New Scenarios:

First, let’s look at what the old and new scenarios are like.

Old Scenario: A simple setup with a few obstacles, relatively regular objects, and a field enclosed by barriers, approximately 1.5m*2m in size.

New Scenario: The new scenario contains a wider variety of obstacles of different shapes, including a hollowed-out object in the middle, simulating a real environment with road guidance markers, parking spaces, and more. The size of the field is 3m*3m.

The change in environment is significant for testing and demonstrating the comprehensiveness and applicability of our product.

3. Analysis of Practical Cases:

Next, let’s briefly introduce the overall process.

The process is mainly divided into three modules: one is the functionality of LIMO PRO, the second is machine vision processing, and the third is the functionality of the robotic arm. (For a more detailed introduction, please see the previous article [link].)

LIMO PRO is mainly responsible for SLAM mapping, using the gmapping algorithm to map the terrain, navigate, and ultimately achieve the function of fixed-point patrol.

myCobot 280 M5 is primarily responsible for the task of grasping objects. A camera and a suction pump actuator are installed at the end of the robotic arm. The camera captures the real scene, and the image is processed by the OpenCV algorithm to find the coordinates of the target object and perform the grasping operation.

Overall process:

1. LIMO performs mapping.⇛

2. Run the fixed-point cruising program.⇛

3. LIMO goes to point A ⇛ myCobot 280 performs the grasping operation ⇒ goes to point B ⇛ myCobot 280 performs the placing operation.

4. ↺ Repeat step 3 until there are no target objects, then terminate the program.

Next, let’s follow the practical execution process.

Mapping:

First, you need to start the radar by opening a new terminal and entering the following command:

roslaunch limo_bringup limo_start.launch pub_odom_tf:=false

Then, start the gmapping mapping algorithm by opening another new terminal and entering the command:

roslaunch limo_bringup limo_gmapping.launch

After successful startup, the rviz visualization tool will open, and you will see the interface as shown in the figure.

At this point, you can switch the controller to remote control mode to control the LIMO for mapping.

After constructing the map, you need to run the following commands to save the map to a specified directory:

1. Switch to the directory where you want to save the map. Here, save the map to `~/agilex_ws/src/limo_ros/limo_bringup/maps/`. Enter the command in the terminal:

cd ~/agilex_ws/src/limo_ros/limo_bringup/maps/

2. After switching to `/agilex_ws/limo_bringup/maps`, continue to enter the command in the terminal:

rosrun map_server map_saver -f map1

This process went very smoothly. Let’s continue by testing the navigation function from point A to point B.

Navigation:

1. First, start the radar by entering the following command in the terminal:

roslaunch limo_bringup limo_start.launch pub_odom_tf:=false

2. Start the navigation function by entering the following command in the terminal:

roslaunch limo_bringup limo_navigation_diff.launch

Upon success, this interface will open, displaying the map we just created.

Click on „2D Pose Estimate, “ then click on the location where LIMO is on the map. After starting navigation, you will find that the shape scanned by the laser does not overlap with the map. You need to manually correct this by adjusting the actual position of the chassis in the scene on the map displayed in rviz. Use the tools in rviz to publish an approximate position for LIMO. Then, use the controller to rotate LIMO, allowing it to auto-correct. When the shape of the laser scan overlaps with the shapes in the map’s scene, the correction is complete, as shown in the figure where the scanned shape and the map overlap.

Click on „2D Nav Goal“ and select the destination on the map for navigation.

The navigation test also proceeds smoothly.

Next, we will move on to the part about the static robotic arm’s grasping function.

Identifying and Acquiring the Pose of Aruco Codes

To precisely identify objects and obtain the position of the target object, we processed Aruco codes. Before starting, ensure the specific parameters of the camera are set.

Initialize the camera parameters based on the camera being used.

def __init__(self, mtx: np.ndarray, dist: np.ndarray, marker_size: int):
self.mtx = mtx
self.dist = dist
self.marker_size = marker_size
self.aruco_dict = cv2.aruco.Dictionary_get(cv2.aruco.DICT_6X6_250)
self.parameters = cv2.aruco.DetectorParameters_create()

Then, identify the object and estimate its pose to obtain the 3D position of the object and output the position information.

def estimatePoseSingleMarkers(self, corners):
"""
This will estimate the rvec and tvec for each of the marker corners detected by:
corners, ids, rejectedImgPoints = detector.detectMarkers(image)
corners - is an array of detected corners for each detected marker in the image
marker_size - is the size of the detected markers
mtx - is the camera matrix
distortion - is the camera distortion matrix
RETURN list of rvecs, tvecs, and trash (so that it corresponds to the old estimatePoseSingleMarkers())
"""
marker_points = np.array([[-self.marker_size / 2, self.marker_size / 2, 0],
[self.marker_size / 2, self.marker_size / 2, 0],
[self.marker_size / 2, -self.marker_size / 2, 0],
[-self.marker_size / 2, -self.marker_size / 2, 0]], dtype=np.float32)
rvecs = []
tvecs = []
for corner in corners:
retval, rvec, tvec = cv2.solvePnP(marker_points, corner, self.mtx, self.dist, False,
cv2.SOLVEPNP_IPPE_SQUARE)
if retval:
rvecs.append(rvec)
tvecs.append(tvec)

rvecs = np.array(rvecs)
tvecs = np.array(tvecs)
(rvecs - tvecs).any()
return rvecs, tvecs

The steps above complete the identification and acquisition of the object’s information, and finally, the object’s coordinates are returned to the robotic arm to execute the grasping.

Robotic Arm Movement and Grasping Operation

Based on the position of the Aruco marker, calculate the target coordinates the robotic arm needs to move to and convert the position into a coordinate system suitable for the robotic arm.

def homo_transform_matrix(x, y, z, rx, ry, rz, order="ZYX"):
rot_mat = rotation_matrix(rx, ry, rz, order=order)
trans_vec = np.array([[x, y, z, 1]]).T
mat = np.vstack([rot_mat, np.zeros((1, 3))])
mat = np.hstack([mat, trans_vec])
return mat

If the Z-axis position is detected as too high, it will be corrected:

if end_effector_z_height is not None:  
p_base[2] = end_effector_z_height

After the coordinate correction is completed, the robotic arm will move to the target position.

# Concatenate x, y, z, and the current posture into a new array
new_coords = np.concatenate([p_base, curr_rotation[3:]])
xy_coords = new_coords.copy()

Then, control the end effector’s API to suction the object.

The above completes the respective functions of the two robots. Next, they will be integrated into the ROS environment.

#Initialize the coordinates of point A and B
    goal_1 = [(2.060220241546631,-2.2297520637512207,0.009794792000444471,0.9999520298742676)] #B
    goal_2 = [(1.1215190887451172,-0.002757132053375244,-0.7129997613218174,0.7011642748707548)] #A
    #Start navigation and link the robotic arm
    map_navigation = MapNavigation()
    arm = VisualGrasping("10.42.0.203",9000)
    print("connect successful")

    arm.perform_visual_grasp(1,-89)
    # Navigate to location A and perform the task
        for goal in goal_1:
        x_goal, y_goal, orientation_z, orientation_w = goal
        flag_feed_goalReached = map_navigation.moveToGoal(x_goal, y_goal, orientation_z, orientation_w)
        if flag_feed_goalReached:
            time.sleep(1)
            # executing 1 grab and setting the end effector's Z-axis height to -93.
            arm.unload()
            print("command completed")
        else:
            print("failed")

4. Problems Encountered

Mapping Situation:

When we initially tried mapping without enclosing the field, frequent errors occurred during navigation and localization, and it failed to meet our requirements for a simulated scenario.

Navigation Situation:

In the new scenario, one of the obstacles has a hollow structure.

During navigation from point A to point B, LIMO may fail to detect this obstacle and assume it can pass through, damaging the original obstacle. This issue arises because LIMO’s radar is positioned low, scanning only the empty space. Possible solutions include adjusting the radar’s scanning range, which requires extensive testing for fine-tuning, or adjusting the radar’s height to ensure the obstacle is recognized as impassable.

Robotic Arm Grasping Situation:

In the video, it’s evident that our target object is placed on a flat surface. The grasping did not consider obstacle avoidance for the object. In the future, when setting special positions for grasping, this situation needs to be considered.

5. Conclusion

Overall, LIMO Cobot performed excellently in this scenario, successfully meeting the requirements. The entire simulated scenario covered multiple core areas of robotics, including motion control of the robotic arm, path planning, machine vision recognition and grasping, and radar mapping navigation and fixed-point cruising functions of the mobile chassis. By integrating these functional modules in ROS, we built an efficient automated process, showcasing LIMO Cobot’s broad adaptability and advanced capabilities in complex environments.

Credits

Elephant Robotics

Elephant Robotics

ABB erweitert Portfolio an modularen Großrobotern

Mit der Einführung der neuen Modelle IRB 7710 und IRB 7720 setzt ABB Robotics den Ausbau ihres Portfolios an modularen Großrobotern fort. Zusammen mit den kürzlich vorgestellten Modellen IRB 5710-IRB 5720 und IRB 6710-IRB 6740 umfasst das Angebot nun insgesamt 46 Varianten mit Traglasten zwischen 70 kg und 620 kg und bietet Kunden ein Höchstmaß an Flexibilität, Auswahl und Leistung.

„Unternehmen setzen zunehmend auf neue Technologien und Komponenten, um ihre Produktivitäts- und Nachhaltigkeitsziele zu erreichen. Daher haben wir unser Angebot an modularen Großrobotern so konzipiert, dass Kunden die am besten geeigneten Roboter und Varianten für einen effizienten Betrieb auswählen können“, erklärt Marc Segura, Leiter der Robotics-Division bei ABB. „Wir verfügen über das umfassendste Portfolio an Mechatronik-Plattformen: Industrierobotern, Cobots und AMR auf dem Markt. Die neuen Roboter erweitern dieses Angebot und helfen unseren Kunden dabei, dem Arbeitskräftemangel entgegenzuwirken, ihre Wettbewerbsfähigkeit zu sichern und gleichzeitig nachhaltig zu sein.“

Die neuen ABB-Roboter IRB 7710 und IRB 7720 sind in 16 Varianten erhältlich und unterstützen Anwendungen in unterschiedlichen Branchen. So können Hersteller von Elektro-, Hybrid- und Verbrennerfahrzeugen aus einer breiten Palette von ABB-Robotern die ideale Variante für verschiedene Anwendungen wählen – angefangen von der Pressenautomatisierung über die Karosseriefertigung und Batterieproduktion bis hin zur Endmontage. Die Roboter eignen sich perfekt für Montageaufgaben mit hohen Traglasten wie Giga-Casting, Hochgeschwindigkeits-Pressenbeschickung und -Palettierung sowie für hochpräzise Kontaktanwendungen wie maschinelles Bearbeiten und Rührreibschweißen.

Die ABB OmniCore™-Steuerung sorgt für eine erstklassige Bewegungssteuerung der Roboter mit einer Bahngenauigkeit von 0,6 mm. Das gilt auch, wenn mehrere Roboter mit Geschwindigkeiten von bis zu 1.600 mm/s Lasten von bis zu 620 kg bewegen. Kunden profitieren zudem von einer Reduzierung der Zykluszeiten um bis zu 25 Prozent bei einer gleichzeitigen Verbesserung der Produktivität und Qualität. In der Automobilindustrie ermöglicht der IRB 7710 mit der neuesten OmniCore-Steuerung eine Steigerung der Produktionsleistung von robotergestützten Pressenlinien von 12 auf 15 Hübe pro Minute zur Fertigung von 900 Teilen pro Stunde. Im Bausektor können die neuen Roboter das Wachstum im Bereich des modularen Bauens unterstützen, indem sie zum Beispiel zur Fertigung von Stahlrahmen und zur Oberflächenbearbeitung eingesetzt werden und so zur Steigerung der Geschwindigkeit und Qualität beitragen.

Das energieeffiziente Design des IRB 7710 in Kombination mit der regenerativen Technologie der OmniCore-Steuerung senkt den Energiebedarf um bis zu 30 Prozent, während das integrierte Power Pack eine Energierückspeisung ins Netz ermöglicht.

Elephant Robotics stellt myArm-Roboter der M&C-Serie vor

Entdecken Sie die Roboter der myArm M&C-Serie für vielseitige, leistungsstarke Lösungen in der Robotik, die eine präzise Steuerung und vielfältige Anwendungen bieten.


SHENZHEN, GUANGDONG, CHINA, 10. Mai 2024 /EINPresswire.com/ — Die Forschung zur verkörperten Intelligenz als kritischer Zweig der künstlichen Intelligenz ist bestrebt, Roboter mit neuen Fähigkeiten für präzise Bewegungssteuerung, autonome Entscheidungsfindung auf hohem Niveau und nahtlose Mensch-Maschine-Interaktion auszustatten.

Vor diesem Hintergrund hat Elephant Robotics kürzlich die Roboter der M&C-Serie myArm vorgestellt. Diese leistungsstarken und kostengünstigen Leichtbauroboter unterstützen Forscher und Entwickler sowohl bei der Datenerfassung als auch bei der Ausführung und treiben die Fortschritte in der Technologie der verkörperten Intelligenz und ihrer praktischen Anwendungen voran.

Die Roboter der myArm M&C-Serie wurden sorgfältig entwickelt, um die unterschiedlichen Bedürfnisse der Benutzer zu erfüllen, wobei Flexibilität und Anpassungsfähigkeit im Vordergrund stehen. Sie spielen eine zentrale Rolle in verschiedenen Forschungs- und Anwendungsszenarien und sind damit die ideale Robotiklösung für Bildungs- und Forschungszwecke.

myArm C650

The myArm C650 ist ein universelles 6-DOF-Gerät zur Erfassung von Roboterbewegungsinformationen, das entwickelt wurde, um die vielfältigen Anforderungen von Bildung, Forschung und Industrie bei der Erfassung und Analyse von Roboterbewegungsdaten zu erfüllen. Mit seinem leichten Design von nur 1,8 kg verfügt der myArm C650 über einen horizontalen Arbeitsradius von 650 mm, wodurch die Trägheitskräfte während des Betriebs minimiert werden, um die Reaktionsgeschwindigkeit und Präzision zu verbessern.

Ausgestattet mit hochpräzisen digitalen Servomotoren und 4096-Bit-Encodern an allen 6 Gelenken ahmt der myArm C650 die Bewegung des menschlichen Arms mit bemerkenswerter Genauigkeit nach und ermöglicht so eine Vielzahl von Aufgaben. Seine intuitive Steuerungsmethode mit Doppelfinger-Fernbedienung und zwei anpassbaren Tasten unterstützt Aufzeichnungsfunktionen für eine präzise Befehlsausführung und sofortiges Feedback zum Roboterverhalten. Diese Flexibilität macht den myArm C650 zur idealen Wahl für die präzise Bewegungsverfolgung und Datenerfassung in verschiedenen experimentellen und pädagogischen Umgebungen. Mit einer beeindruckenden Informationserfassungsgeschwindigkeit von bis zu 50 Hz ist es für die Entwicklung von Roboteralgorithmen und Hochschuleinrichtungen unverzichtbar geworden und bietet Echtzeit-Datenunterstützung für komplexe Steuerungssysteme.

Bei Fernsteuerungsanwendungen zeichnet sich der myArm C650 durch eine hervorragende Leistung aus, unabhängig von der Komplexität der Konfiguration des Roboters. Darüber hinaus erweitert die Kompatibilität mit Python und ROS in Verbindung mit Open-Source-Demonstrationsdateien für die Fernsteuerung den Anwendungsbereich und ermöglicht eine nahtlose Integration mit fortschrittlichen Roboterplattformen wie dem myArm M750, myCobot Pro 630 und Mercury B1.

Der myArm C650 setzt einen neuen Standard für Vielseitigkeit und Leistung bei der Erfassung von Roboterbewegungsdaten und ermöglicht es Benutzern, das volle Potenzial fortschrittlicher Robotik in verschiedenen Bereichen auszuschöpfen.

myArm M750

Der myArm M750 ist ein universeller, intelligenter 6-DOF-Roboterarm. Es erfüllt nicht nur die Nachfrage nach hochpräziser Roboterbewegungssteuerung, sondern eignet sich besonders für die Verifizierung von Roboterbewegungsalgorithmen auf Einstiegsniveau und praktische Lehrszenarien. Seine standardisierte mechanische Armstruktur bietet Studenten und Anfängern eine ideale Lernplattform, um die Grundprinzipien und Anwendungen der Roboterkinematik zu verstehen.

Der myArm M750 wurde für eine präzise Bewegungssteuerung und -verifizierung entwickelt und eignet sich hervorragend für Anwendungen, die eine strenge Betriebsgenauigkeit erfordern, wie z. B. Präzisionsmontage, Feinmanipulation und Qualitätsüberwachung. Ausgestattet mit hochpräzisen digitalen Servomotoren in Industriequalität und fortschrittlichen Steuerungsalgorithmen bietet der myArm M750 eine außergewöhnliche Drehmomentsteuerung und Positionsgenauigkeit und unterstützt eine Nenntragfähigkeit von 500 g und eine Spitzenlast von bis zu 1 kg.

Die Vielseitigkeit des myArm M750 erstreckt sich auch auf das Endeffektor-Design, das mit einem standardmäßigen Parallelgreifer und einem Vision-Modul ausgestattet ist, das dem Benutzer grundlegende Greif- und Erkennungsfunktionen bietet. Darüber hinaus bietet der myArm M750 Kompatibilität mit einer Reihe von optionalem Zubehör, was seine Anwendungsszenarien und Anpassungsfähigkeit an verschiedene Aufgaben erheblich erweitert.

myArm M&C Teleoperation Roboterarm-Kit

DasTeleoperation Robotic Arm Kit stellt einen Sprung nach vorne in der Robotik-Innovation dar und bietet eine fortschrittliche Lösung, die auf die Fernsteuerung und Echtzeit-Interaktion durch modernste Teleoperationstechnologie zugeschnitten ist. Durch die nahtlose Integration der Vielseitigkeit des myArm C650 mit den präzisen Steuerungsfunktionen des myArm M750 bildet dieses Kit eine dynamische und anpassungsfähige Plattform, die für eine Vielzahl von Forschungs-, Bildungs- und kommerziellen Anwendungen geeignet ist.

Das Kit wurde entwickelt, um menschliches Verhalten nachzuahmen, und ermöglicht es Forschern und Entwicklern, Fernsteuerungssysteme und Roboterbewegungsplanungsmodelle ähnlich dem ALOHA-Roboter zu validieren und zu testen. Das myArm M&C Kit verfügt über Datenerfassungs- und Steuerungsfunktionen auf Millisekundenebene, Echtzeit-Widerstandssteuerungsfunktionen und kollaborative Betriebsfunktionen mit mehreren Robotern und erleichtert die Ausführung komplexer Aufgaben, einschließlich fortschrittlicher Simulationen menschlichen Verhaltens. Diese Technologie zeigt nicht nur die Präzision und Effizienz von Robotern bei der Nachahmung menschlicher Handlungen, sondern treibt auch die Forschung und Entwicklung in der Robotertechnologie zur Simulation menschlichen Verhaltens und zur Ausführung alltäglicher Aufgaben voran.

Darüber hinaus stattet die integrierte KI-Technologie Roboter mit Lern- und Anpassungsfähigkeit aus, ermöglicht autonome Navigation, Objekterkennung und komplexe Entscheidungsfähigkeiten und erschließt so ein enormes Anwendungspotenzial in verschiedenen Forschungsbereichen.

myArm M&C Embodied humanoid Robot Compound Kit

Das Mobile ALOHA-Projekt der Stanford University hat aufgrund seiner bahnbrechenden Fortschritte in der Robotiktechnologie weltweite Aufmerksamkeit erregt. Es hat ein fortschrittliches System entwickelt, das es Benutzern ermöglicht, komplexe zweiarmige Aufgaben durch menschliche Demonstrationen auszuführen und so die Effizienz von nachgeahmten Lernalgorithmen durch Datenakkumulation und kollaboratives Training zu verbessern. Das Mobile ALOHA-System zeigt seine Vielseitigkeit, indem es verschiedene reale Aufgaben nahtlos ausführt, vom Reinigen verschütteter Getränke über das Kochen von Garnelen bis hin zum Waschen von Bratpfannen. Diese Innovation markiert nicht nur einen bedeutenden Meilenstein in der Robotik, sondern ebnet auch den Weg für eine Zukunft, in der Mensch und Roboter harmonisch koexistieren.

Dieses Kit wurde von Stanfords Mobile ALOHA-Projekt inspiriert und verwendet das gleiche mobile Tracer-Fahrgestell. Mit einer Open-Source-Philosophie, minimalistischem Design, modularem Aufbau und robuster lokaler Community-Unterstützung dient dieses Kit als kostengünstige Lösung für die Echtzeit-Roboterteleoperation und -steuerung und spiegelt die Fähigkeiten von Mobile ALOHA zu einem erschwinglicheren Preis wider.

Dieses Kit wurde entwickelt, um den Bedürfnissen kleiner und mittlerer Unternehmen sowie Bildungs- und Forschungseinrichtungen gerecht zu werden, und bietet einen erschwinglicheren Preis, benutzerfreundliche Funktionen und einen einfachen Zugang zu modernster Robotertechnologie.

Die Roboter der myArm M&C-Serie sind eine vielseitige Robotiklösung, die unterschiedliche Anforderungen erfüllt, von der Grundlagenforschung bis hin zur Ausführung komplizierter Aufgaben. In Kombination mit optionalen Kits passen sie sich nahtlos an verschiedene Anwendungsszenarien an, von der Präzisionsfertigung über medizinische Hilfe bis hin zu Bildung, Schulung und Haushaltsunterstützung. Die Roboter der myArm M&C-Serie zeichnen sich durch zuverlässige und leistungsstarke Lösungen aus, die Zuverlässigkeit und Exzellenz versprechen. Die Aufnahme des Embodied Humanoid Robot Compound Kit und des Quadruped Bionic Robot Compound Kit erweitert die Möglichkeiten in der Robotik weiter, fördert die interdisziplinäre Erforschung und fördert Innovationen.