MYBOTSHOP nimmt mit leistungsstarkem Kettenfahrzeug Fahrt auf

Autonomes Fahren ist schon lange keine Zukunftstechnologie mehr. Doch nicht nur im PKW auf der Straße soll alsbald auf den Fahrer verzichtet werden. So hat auch MYBOTSHOP, der deutsche Vertriebspartner für Robotik, Sensorik und Automatisierungstechnologie, ein neues Gefährt im Programm. Mit dem weiterentwickelten MBS ROVO 2 führt das Unternehmen aus Nordrhein-Westfalen ein Kettenfahrzeug auf dem Robotermarkt ein, das den meisten Umwelteinflüssen standhält und die Kosteneffizienz in Unternehmen steigern soll.

Neben der Basis-Version im bald erhältlichen MYBOTSHOP-grün, gibt es das Kettenfahrzeug auch als voll konfigurierbare und auf Kundenwünsche zugeschnittene Premium-Version. Dabei profitiert der Endkunde von der jahrelangen Erfahrung und Spezialisierung im Bereich der Anwendungsentwicklung und Forschung, die hausintern bei MYBOTSHOP umgesetzt wird. Das bedeutet, dass Zusatzelemente komplett konfigurierbar und bei MYBOTSHOP auf Anfrage erhältlich sind. Somit bekommt der Endkunde dann ein komplett mit Software aufgespieltes und in Haus getestetes Produkt ausgeliefert. Und auch während der Nutzung steht MYBOTSHOP mit seinem Support und zur Wartung beratend zur Seite. Für die ROS-basierte Programmierung wird eine vollständige Dokumentation als Support auf der Website zur Verfügung gestellt.

Das geländegängige und wassergeschützte Fahrzeug (IP 65) überwindet souverän verschiedene Untergründe wie Schlamm, Schnee und Eis, Kies, Schotter und Sand. Ermöglicht wird dies durch den niedrigen Anpressdruck, der auf der Kettenlänge basiert. Die Akkulaufzeit liegt derzeit bei ca. 8 h (abhängig von Geschwindigkeit und Belastung) und die maximale Geschwindigkeit des Fahrzeugs bei knapp 20 km/h. Optional kann ein Modul für die Schnellladefunktion erworben werden. Mit einer Traglast von bis zu 500 kg bietet sich das Fahrzeug besonders als Transportplattform an. Die Zugkraft liegt bei knapp 2 t und via optionaler Anhängerkupplung lassen sich Anhänger und Fahrzeuge problemlos ziehen.

Mittels der externen Spannungsversorgung lassen sich Zusatzverbraucher wie Roboterarme, Kameras, 3D-LiDAR und weitere Komponenten anschließen. Gerade der Ouster 3D-LiDAR bietet sich für das Mapping an, das beim autonomen Fahren unausweichlich ist. Die via Ouster 3D-LiDAR detailgetreue erstellte 3D-Punktwolke basiert auf bis zu 128 Lagen bei einer Winkelauflösung von nur 0,18° und erfüllt dabei alle relevanten Datenschutz-Vorschriften.
Ein Roboterarm, wie der 6-achsige Universal Robots UR-3, ermöglicht unter anderem als Allrounder-Arm die mobile Manipulation.
Empfehlenswert ist die Nutzung eines HOKUYO UAM-05LP – einem sogenannten Safety LiDAR. Dies bedeutet, dass er durch seine TÜV-Süd-Zertifizierung, bzw. seinem redundanten Aufbau, unter anderem in Roboter-Mensch Applikationen eingesetzt werden darf. Dabei arbeitet das System nach dem so genannten ToF-Prinzip (Time of Flight) wobei die Zeit des emittierten Lichts gemessen wird. Infolge dessen sind maximale Messzeiten von 60 ms möglich.
Die verwendete Stereolabs ZED ist eine performante 3D-Kamera für einen breiten Anwendungsbereich. So verfügt diese Kamera über zwei 4 MP Kameras, wodurch 2 K-Aufnahmen (4416 x 1242 px) mit einer Framerate von bis zu 100 Hz ermöglicht werden.

Mit dem MBS ROVO 2 kann MYBOTSHOP ein Produkt anbieten, das durch geringen Wartungsaufwand und eine lange Lebensdauer überzeugt – Preis und Leistung stimmen hier überein. Aufgrund jahrelanger Erfahrung, erprobter Technik, permanenter Weiterentwicklung und Verwendung qualitativ hochwertiger Komponenten im Fahrzeug rentieren sich die Anschaffungskosten in Höhe von 40.000 EUR (UVP). MYBOTSHOP Firmengründer Daniel Kottlarz schöpft aus der autonomen Zukunft und künstlichen Intelligenz das Potenzial, Arbeitsschritte und Prozessabläufe zu vereinfachen und die Kosten-Nutzen-Effizienz zu steigern. Ebenso können Mitarbeiter im gefährlichen Arbeitsumgebungen reduziert und deren Sicherheit unterstützt werden.

https://www.mybotshop.de/

Better gripping with intelligent picking robots

Researchers from Germany and Canada work on new AI methods for picking robots.

 ISLANDIA, NY, July 7, 2021 — Production, warehouse, shipping – where goods are produced, stored, sorted or packed, picking also takes place. This means that several individual goods are removed from storage units such as boxes or cartons and reassembled. With the FLAIROP (Federated Learning for Robot Picking) project Festo and researchers from the Karlsruhe Institute of Technology (KIT), together with partners from Canada, want to make picking robots smarter using distributed AI methods. To do this, they are investigating how to use training data from multiple stations, from multiple plants, or even companies without requiring participants to hand over sensitive company data. 

“We are investigating how the most versatile training data possible from multiple locations can be used to develop more robust and efficient solutions using artificial intelligence algorithms than with data from just one robot,“ says Jonathan Auberle from the Institute of Material Handling and Logistics (IFL) at KIT. In the process, items are further processed by autonomous robots at several picking stations by means of gripping and transferring. At the various stations, the robots are trained with very different articles. At the end, they should be able to grasp articles from other stations that they have not yet learned about. „Through the approach of federated learning, we balance data diversity and data security in an industrial environment,“ says the expert.

Powerful algorithms for industry and logistics 4.0

Until now, federated learning has been used predominantly in the medical sector for image analysis, where the protection of patient data is a particularly high priority. Consequently, there is no exchange of training data such as images or grasp points for training the artificial neural network. Only pieces of stored knowledge – the local weights of the neural network that tell how strongly one neuron is connected to another – are transferred to a central server. There, the weights from all stations are collected and optimized using various criteria. Then the improved version is played back to the local stations and the process repeats. The goal is to develop new, more powerful algorithms for the robust use of artificial intelligence for industry and Logistics 4.0 while complying with data protection guidelines.

“In the FLAIROP research project, we are developing new ways for robots to learn from each other without sharing sensitive data and company secrets. This brings two major benefits: we protect our customers‘ data, and we gain speed because the robots can take over many tasks more quickly. In this way, the collaborative robots can, for example, support production workers with repetitive, heavy, and tiring tasks”, explains Jan Seyler, Head of Advanced Develop. Analytics and Control at Festo SE & Co. KG During the project, a total of four autonomous picking stations will be set up for training the robots: Two at the KIT Institute for Material Handling and Logistics (IFL) and two at the Festo SE company based in Esslingen am Neckar.

Start-up DarwinAI and University of Waterloo from Canada are further partners

“DarwinAI is thrilled to provide our Explainable (XAI) platform to the FLAIROP project and pleased to work with such esteemed Canadian and German academic organizations and our industry partner, Festo. We hope that our XAI technology will enable high-value human-in-the-loop processes for this exciting project, which represents an important facet of our offering alongside our novel approach to Federated Learning.  Having our roots in academic research, we are enthusiastic about this collaboration and the industrial benefits of our new approach for a range of manufacturing customers”, says Sheldon Fernandez, CEO, DarwinAI.

“The University of Waterloo is ecstatic to be working with Karlsruhe Institute of Technology and a global industrial automation leader like Festo to bring the next generation of trustworthy artificial intelligence to manufacturing.  By harnessing DarwinAI’s Explainable AI (XAI) and Federated Learning, we can enable AI solutions to help support factory workers in their daily production tasks to maximize efficiency, productivity, and safety”, says Dr. Alexander Wong, Co-director of the Vision and Image Processing Research Group, University of Waterloo, and Chief Scientist at DarwinAI.

About FLAIROP

The FLAIROP (Federated Learning for Robot Picking) project is a partnership between Canadian and German organizations. The Canadian project partners focus on object recognition through Deep Learning, Explainable AI, and optimization, while the German partners contribute their expertise in robotics, autonomous grasping through Deep Learning, and data security.

  • KIT-IFL: consortium leadership, development grasp determination, development automatic learning data generation.
  • KIT-AIFB: Development of Federated Learning Framework
  • Festo SE & Co. KG: development of picking stations, piloting in real warehouse logistics
  • University of Waterloo (Canada): Development object recognition
  • Darwin AI (Canada): Local and Global Network Optimization, Automated Generation of Network Structures

Visit www.festo.com/us for more information on Festo products and services.

About Festo

Festo is a leading manufacturer of pneumatic and electromechanical systems, components, and controls for process and industrial automation. For more than 40 years, Festo Corporation has continuously elevated the state of manufacturing with innovations and optimized motion control solutions that deliver higher performing, more profitable automated manufacturing and processing equipment.

Connect with Festo: Facebook, LinkedIn, Twitter and YouTube

QUADRUPED A1 – Vierbeiniger Roboter vereint künstliche Intelligenz und ausgereifte Bewegungsabläufe

Das neu gegründete Unternehmen QUADRUPED Robotics führt als erstes und derzeit einziges deutsches Unternehmen voll modifizierbare mehrbeinige Roboter in den europäischen Markt ein. Dabei stellt diese Form der Roboter eine Neuheit dar: die Vierbeiner kombinieren künstliche Intelligenz mit neuen Bewegungsabläufen und einer individuell anpassbaren Ausstattung.

Der Roboter A1 der Linie QUADRUPED basiert auf dem Robot Operating System (ROS.org) und lässt sich somit auf seine Umgebung und Anforderung anpassen. Doch auch schon die Grundausstattung ermöglicht einen breiten Anwendungsbereich.
Mittels KI-gesteuerter und tiefenerkennender Smart-Kamera lassen sich HD-Aufnahmen in Echtzeit und an ein Endgerät übertragen. Gleichzeitig bietet die integrierte Mehraugen-Kamera die Echtzeit-Verfolgung von Objekten in Sichtweite, Gestenerkennung und auf bestimmte Bewegungsmuster folgend die Zielpersonenverfolgung.
Grundlage zur Erarbeitung einer Umgebungskarte ist das visuelle SLAM. QUADRUPED A1 berechnet Wege, Hindernisse, Strecken und Navigationspunkte. Dies führt zu einer visions-basierten autonomen Hindernisvermeidung. Zusätzlich erkennt der QUADRUPED A1 auch Hindernisformen und es erfolgt eine Anpassung der Körperposition. Sollte es doch zu einem Aufprall oder Sturz kommen, ermöglicht der fortschrittliche dynamische Balancier-Algorithmus das Gleichgewicht schnell wiederherzustellen. Weitere Messdaten sowie dynamischeres Verhalten können durch die Integration zusätzlicher Sensorik, wie die eines 3D-LiDAR oder weiterer Kameramodule, erreicht werden.

Im QUADRUPED A1 ist der einzigartige patentierte sensible Fußkontakt verbaut. Jeder der vier Füße kann einzeln und individuell angesteuert werden. Durch die smarten Aktuatoren sind präzises Auftreten sowie verschiedene Gangart geboten. Das System basiert auf einem von QUADRUPED Robotics entwickelten Low-Level-Control, das zu jedem Zeitpunkt die Position samt Drehmoment und Stromaufnahme auslesen kann. Das Fußende ist wasser- und staubdicht und kann nach Abnutzung leicht ausgetauscht werden.
Der A1 überzeugte durch seine zuletzt gemessene Höchstgeschwindigkeit von 11,8 km/h (3,3 m/s), welche für einen Roboter dieser Art einmalig ist. Zudem kann er Lasten bis zu 5 kg tragen.

Für vereinfachte Wartungsarbeiten wurde bei dem Roboter auf eine stabile und leichte Karosseriestruktur geachtet. Der A1 verfügt über einen externen 24 V Stromeingang und 5 V-/12 V-/19 V-Spannungsversorgung, die den Einsatz zusätzlicher externer Geräte ermöglicht. Weitere externe Schnittstellen sind 4 USB-, 2 HDMI-, 2 Ethernet-Anschlüsse.
Ausgestattet ist er mit einer leistungsstarken redundanten Steuerung: Low-Level-Control zur CAN-Kommunikation mit den smarten Aktuatoren und NVIDIA Xavier für die Berechnung bzw. Messdatenauswertung. Die aktuelle Laufzeit von ca. 1,5 Stunden variiert je nach Anwendung.

Zusatz-Equipment ist bei QUADRUPED Robotics erhältlich und wird auf Wunsch mit implementierten Software-Packages ausgeliefert. Durch die hausinterne Forschung und Entwicklung kann der Endkunde ein fertiges und getestetes Produkt bestellen. Ein weiterer Service ist die Bereitstellung der vollständigen Dokumentation auf der Website www.docs.quadruped.de. Darüber hinaus werden dort auch vollständige Simulationsumgebungen auf Basis von Webots & Gazebo zum Download bereitgestellt, die zu Anwendungstests genutzt werden können.

QUADRUPED Robotics ist eine Ausgründung der MYBOTSHOP uG, die als etablierter Vertriebs- und Entwicklungspartner in den Bereichen Robotik, Sensorik und Automatisierungstechnik entstand. Firmengründer Daniel Kottlarz schöpft aus dem Potenzial der vierbeinigen und autonomen Roboter die Chance, den Menschen in besonders gefährlichen Einsatzbereichen und Situationen zu entlasten und mittels der autonomen Roboter Gefahrensituationen abzuwehren.

Vielfältige DIY-Projekte auf der Maker Faire digital

Hannover, 8. Juni 2021 — Die digitale Maker Faire Hannover am 18. Juni 2021 von 11 bis 16 Uhr bietet jede Menge Inspiration und neues Wissen aus der Maker-Community. Die Teilnahme ist nach vorheriger Registrierung kostenlos.

„Wir freuen uns über die große Resonanz. 90 Makerinnen und Maker haben sich angemeldet und stellen ihre spannenden Erfindungen oder Projekte vor und laden zum Wissensaustausch und Netzwerken ein“, erklärt Kristina Fischer, Projektleiterin der Maker Faire. “Damit können wir einen bunten Querschnitt der Maker-Szene abbilden.”

Einer der Maker ist Michael Schulz. Er stellt in einem der virtuellen Ausstellungsbereiche „Mickey’s Flightdeck“ vor, ein originalgetreues Boeing-737-800-Cockpit. Seine Leidenschaft für Flugsimulatoren teilt der Wedemärker mit 4200 Followern auf seinem YouTube-Kanal und nun auch auf der Maker Faire.

Der Stuttgarter Ingenieur Guido Burger präsentiert seine selbst gebaute CO2-Ampel, die über die Luftqualität in geschlossenen Räumen informiert. Das Bauen und Programmieren seiner DIY-Variante kann in unterschiedlichste Schulfächer integriert werden.

Johannes Střelka-Petz ist der Erfinder der einzigartigen Braille-Tastatur „Oskar“. „Oskar“ ist ein Open-Source-Programm, das mit acht Tasten funktioniert und es ermöglicht, viermal schneller und zweimal genauer zu schreiben als herkömmliche Tastaturen für sehbehinderte und blinde Menschen.  

Auch Teilnehmende und Gewinner*innen des Jugend-forscht-Wettbewerbs zeigen ihre Projekte auf der Maker Faire: Jennifer Schott, Schülerin des Marion-Dönhoff-Gymnasiums, stellt ein selbst konstruiertes Elektrolyse-Verfahren vor. Es gelang der Nienburgerin, eine Low-Cost-Anlage zur Gewinnung von Wasserstoff-Knallgas zu entwickeln. Caroline Musin, Amelie Aulinger und Georg Delp aus Rosenheim haben sich den Stomabeutel-Alarm ausgedacht. Dieser Alarm informiert Patient*innen oder die zuständigen Pfleger*innen rechtzeitig vor dem Überlaufen des Beutels.

Der Nonprofit-Verein selfm.aid betreibt die Skills Factory auf Samos in Griechenland und ist ebenfalls zu Gast auf der Maker Faire. Gegründet wurde die selfm.aid-Initiative von der aus Hochfelden in der Schweiz stammenden Sozialarbeiterin Julia Minder und dem gelernten Maurer Simon Bader.

Welchen Zweck muss Kleidung in unserer hoch-digitalisierten Welt erfüllen? Dieser Frage gehen Fashion-Designerin Nicole Scheller und Informatiker Marcel Göbe vom Leipziger Fashion Label nach, sie präsentieren eine technisch orientierte Modekollektion, die die Privatsphäre der Träger*innen schützen soll.

Weitere Maker sind unter anderem Michael Hack, der die Online-Veranstaltung für den Launch der „The German Kurbelkiste“ nutzt, und das IANUS Peace Lab, das Strategien für ein friedliches Miteinander entwickelt hat.  Darüber hinaus stellt die Make-Redaktion spannende Projekte aus dem Magazin vor und ist über den Live-Chat für alle Maker und die, die es werden wollen, ansprechbar. Coole, überzeugende DIY-Ideen bekommen hier die Chance auf Veröffentlichung und sollen andere inspirieren.

Informationen zu Ausstellenden, Projekten und dem weiteren Programm gibt es unter https://maker-faire.de/hannover/

Interessierte können sich hier kostenlos registrieren.

Wandelbots – No-Code Robotics – – Kurzinterview

Sebastian von Robots-Blog konnte ein kurzes Interview mit Annelie Harz von Wandelbots führen. Erfahrt im Interview was Wandelbots ist und warum demnächst vielleicht das Programmieren überflüssig wird.

Robots-Blog: Wer bist du und was ist deine Aufgabe bei Wandelbots?

Annelie: Mein Name ist Annelie und ich arbeite als Marketing Managerin bei Wandelbots.

Robots-Blog: Welcher Roboter aus Wissenschaft, Film oder Fernsehen ist dein Lieblingsroboter?

Annelie: Tatsächlich Wall-E. Ein kleiner Roboter, der Gutes tut und einfach nur liebenswert ist.

Robots-Blog: Was ist Wandelbots und woher kommt der Name?

Annelie: Der Name beschreibt den WANDEL der RoBOTik. Denn das ist genau das, was wir tun. Den Umgang mit Robotern, der heute nur einem kleinem Kreis von Experten vorbehalten ist, ermöglichen wir jedem. Unsere langfristige Firmenvision lautet: “Every robot in every company and every home runs on Wandelbots”. Und das verspricht einen großen Wandel in verschiedensten Ebenen – angefangen für uns bei der Industrie.

Robots-Blog: An wen richtet sich euer Produkt und was brauche ich dafür?

Annelie: Unser Produkt richtet sich derzeit an Kunden aus der Industrie. Hierbei kann unsere Software – Wandelbots Teaching – bei der Programmierung verschiedenster Applikationen wie z.B. Schweißen oder Kleben helfen ohne, dass man eine Zeile Code schreiben muss. Sie ist so einfach und intuitiv designed, dass wirklich jeder mit ihr arbeiten kann, um einem Roboter ein gewünschtes Ergebnis beizubringen. Dies funktioniert durch das Zusammenspiel einer App und eines Eingabegerätes, dem TracePen. Dieser hat die Form eines großen Stiftes, mit dem Nutzende dem Roboter am Bauteil beispielhaft einen gewünschten Pfad vorzeichnen können. Aber auch mit Bildungsträgern arbeiten wir zusammen. Sie sind es, die die nächste Generation von Roboterexperten ausbilden. Da darf unser Produkt natürlich nicht fehlen (Annelie grinst) Und langfristig sind wir – das steckt ja schon in unserer Vision – davon überzeugt, dass Roboter auch als kleine Helfer im Privatleben Einzug halten werden.

Robots-Blog: Welches Feature ist besonders erwähnenswert?/Was kann kein anderer?

Annelie: Unser Produkt arbeitet roboterhersteller-unabhängig. In der Robotik hat jeder Hersteller über die Jahre seine eigene proprietäre Programmiersprache entwickelt. Das macht die Kommunikation zwischen Mensch und Maschinen sehr schwierig. Wir wollen hingegen ein Tool schaffen, mit dem jeder Mensch mit jedem Roboter arbeiten kann – ganz unabhängig von Programmiersprache und Hersteller. Robotik soll dem Anwender unseres Produktes Spaß machen. Dank der hohen Usability und der Bedienung unserer App via iPad ist das heute schon möglich. Und über die nächste Zeit kommen applikationsspezifische Editionen in unsere Plattform – aktuell arbeiten wir beispielsweise an einer Appversion für das Roboterschweißen.

Robots-Blog: Muss ich dann überhaupt noch Programmieren lernen?

Annelie: Nein. Wie eben erklärt muss man mit dieser sogenannten No-Code Technologie nicht mehr programmieren lernen. Es ist einfach, intuitiv und nutzerfreundlich, selbst für Laien. Selbstverständlich muss man aber, vor allem aus Sicherheitsgründen, immer ein gewisses Grundverständnis über Robotik verfügen. Die Gefährdungen durch Roboter sollte man nie unterschätzen, deswegen arbeitet unser Produkt immer nach den jeweiligen herstellerspezifischen Sicherheitsvorgaben.

Robots-Blog: Welche Roboter werden unterstützt? Ich habe einen Rotrics DexArm und einen igus Robolink DP-5; kann ich diese auch verwenden?

Annelie: Wir wollen kurz nach dem Markteintritt natürlich erst einmal die Robotik in der Industrie, beispielsweise der Automobilbranche, flexibler und einfacher machen. Dafür integrieren wir die größten Robotermarken nach und nach in unsere Plattform. Kleinere Robotermarken, die eine oder mehrere Nischen abdecken, werden wir mit Sicherheit auch noch integrieren. Oder – noch besser – dank unseres Software Development Kits für die Roboterintegration können das Roboterhersteller demnächst sogar selbst.

Robots-Blog: Was kostet euer Produkt?

Annelie: Unser Produkt wird über ein Lizenzmodell als Subscription angeboten, wie es im Software as a Service Business üblich ist oder auch klassisch zum Kauf. Die aktuellen Preise für die unterschiedlichen Editionen könnt Ihr auf unserer Website finden (und dort bestimmt noch spannende weitere Inhalte finden)

Virtual Reality Ballett in 360 Grad: KUKA Roboter auf der Bühne des Staatstheaters Augsburg

Mensch und Maschine tanzen gemeinsam auf einer virtuellen Ballett-Bühne: Ein KUKA Industrieroboter ist einer der Hauptdarsteller dieses ungewöhnlichen Stückes des Staatstheaters Augsburg. Die 360-Grad-Inszenierung verfolgen die Zuschauer mittels Virtual Reality Brille von zuhause aus.

Foto: Jan-Pieter Fuhr (https://staatstheater-augsburg.de/pressefotos_kinesphere)

Normalerweise kommt der KR IONTEC des Augsburger Automatisierungsspezialisten in der industriellen Produktion für Aufgaben wie Schweißen, Palettieren oder Montieren zum Einsatz. Doch als Leihgabe für das Staatstheater Augsburg tritt der Roboter diesmal auf einer Theaterbühne mit 17 Tänzerinnen und Tänzern in Interaktion. Der Fokus der Inszenierung liegt auf dem Thema Mensch-Maschine-Interaktion, technische Programmierung steht dabei menschlichem Bewusstsein gegenüber. 

Die Premiere ist am 10. September 2021, ab diesem Tag wird „kinesphere“ bestellbar sein. Das Stück ist als innovative Ballett-Erfahrung Teil der Virtual-Reality-Inszenierungen des Staatstheaters Augsburg. Die VR-Brillen werden deutschlandweit zum Publikum nach Hause geliefert. Die Zuschauerinnen und Zuschauer können vom heimischen Sofa aus in die 360-Grad-Aufführung eintauchen.

Technologie und Kunst verbinden

Es ist nicht das erste Mal, dass KUKA Industrieroboter außerhalb von Produktionshallen in der Kulturszene zum Einsatz kommen. So verbindet das Ars Electronica Festival im österreichischen Linz die Themenfelder Kunst, Technologie und Gesellschaft. Dabei zeigte unter anderem die Ausstellung „Kreative Robotik“ – eine Kooperation mit KUKA – die Industrieroboter abseits der Fabrikhallen und beschäftigte sich mit ihnen als Werkzeug kreativen Ausdrucks.

2019 tanzte der Choreograph und Tänzer Huang Yi während eines Festivals in Düsseldorf mit einem KR CYBERTECH. Und im Jüdischen Museum in Berlin beschrieb ein KUKA Roboter im Rahmen einer Kunstinstallation mit Schreibfeder und Tinte in der Geschwindigkeit menschlicher Handschrift eine rund 80 Meter lange Papierrolle mit hebräischen Buchstaben.

GinoBot by Engino – Base model with Gripper

Today I built the base model with a gripper and sent my feedback to the developers. It’s already really great product but there are always things to tweak or make better. Do not miss to support it on Kickstarter!

Weiterlesen

Rotrics DexArm knows how to visit its favourite website

Rotrics DexArm Robotarm visiting its favourite website robots-blog.com. Having a robot arm is fun! Find the latest News on robots, drones, AI, robotic toys and gadgets at robots-blog.com

https://www.mybotshop.de/Rotrics-DexArm

RBTXpert von igus: Remote Integration für kostengünstige Automatisierung zum Festpreis

Neuer Service hilft Kunden bei der schnellen Umsetzung ihres Automatisierungsprojektes und sorgt für schnellen ROI


Köln, 20. Mai 2021 – Günstig automatisieren und von einem schnellen Return of Invest profitieren – aber wie? Vor dieser Frage stehen häufig nicht nur Automatisierungs-Einsteiger. Der RBTXpert unterstützt ab sofort dabei, das geplante Projekt zum Erfolg zu bringen. Der neue Service hilft, die richtigen Low-Cost-Komponenten auszuwählen, prüft die Machbarkeit und steht bei der Inbetriebnahme zur Seite.

Alle Möglichkeiten der Low-Cost-Robotik auf einer Plattform zu bündeln, transparent und einfach zu bedienen: Das ist das Ziel von RBTX.com. Auf der Online-Plattform haben Nutzer die Möglichkeit, sich mit nur wenigen Klicks eine eigene kostengünstige Roboterlösung zusammenzustellen. Doch nicht alle Anwender wissen von Anfang an, was sie genau für ihr Automatisierungsprojekt benötigen. „Für den Kunden steht erst einmal seine individuelle Anwendung im Mittelpunkt. Und er weiß, welche Aufgaben automatisiert werden sollen“, sagt Jens Klärner, Product Owner RBTX. „Der neue RBTXpert hilft ihm jetzt, die richtigen Komponenten dafür zu finden und die preisgünstigste Lösung, die sicher funktioniert.“

Automatisierung leicht gemacht mit dem RBTXpert

Am Anfang einer jeden Beratung steht die Frage „Was will ich automatisieren?“. Dazu wählt der Interessent einfach seinen kostenlosen Wunschtermin mit dem RBTXpert und beschreibt schließlich im Video-Call sein Vorhaben. Der Experte kümmert sich anschließend um das „Wie“. Im Remote-Termin wird gemeinsam die Machbarkeit geprüft, indem live die Vorteile unterschiedlicher Roboterkinematiken und Zubehör getestet werden. Anschließend erstellt der RBTXpert ein verbindliches Festpreisangebot. Dafür hat igus auf 400 Quadratmetern eine „Customer Testing Area“ aufgebaut. Hier lässt sich die Umsetzung der geplanten Automatisierung testen und optimieren. Per Video kann der Kunde daran mitwirken. Noch besser wird es, wenn der er das zu bewegende Teil danach für weitere Versuche zu igus schickt. Am Ende der kostenlosen Beratung steht die Gewissheit über die Machbarkeit des Automatisierungsprojektes und ein Angebot mit Festpreis. Entscheidet sich der Kunde für eine Realisierung werden im Anschluss die Komponenten geliefert. Bei der Inbetriebnahme hilft der RBTXpert Service erneut als Teil des Projektumfangs. „Unsere typischen Projekte haben 8.000 Euro Hardwarekosten und circa 20 Stunden Integrationsaufwand“, erklärt Alexander Mühlens, Leiter Geschäftsbereich Low Cost Automation bei igus. „Mit dem Service zielen wir auf Anwendungen mit Hardwarekosten zwischen 3.000 bis 25.000 Euro und einem Integrationsaufwand von unter 100 Stunden. Komplexere Projekte, die sich mit Low Cost Automation und dem RBTXpert heute noch nicht umsetzen lassen, nehmen wir in unserenEntwicklungsplan auf“, so Alexander Mühlens weiter.

Online-Marktplatz bietet große Low-Cost-Robotik-Auswahl

Zur Auswahl steht dafür auf RBTX.com eine breite Auswahl an Low-Cost-Automation-Produkten. Das elektro-mechanische Grundgerüst bilden dabei unter anderem Gelenkarmroboter, Deltaroboter und kartesische Roboter von igus, aber auch Roboter von anderen Anbietern. Diese Basis erweitern dann Einzelkomponenten verschiedener Hersteller, etwa Greifer, Kameras und Steuerungen. Das Produktangebot wird kontinuierlich erweitert: Zum Beispiel mit igus Neuheiten wie dem vollintegrierten ReBeL Tribo-Wellgetriebe mit Motor, Absolutwert-Encoder, Kraftregelung und Controller. Mit den drylin Scara-Robotern steht ab Sommer ein modular aufgebauter Roboter mit vier Freiheitsgraden zur Verfügung. „Das zeigt: RBTX wird immer größer und attraktiver für Kunden ebenso wie Anbieter von Low-Cost-Automation und bringt beide Seiten zusammen“, unterstreicht Jens Klärner. „Der Kunde hat dabei immer die Sicherheit, dass alle unterschiedlichen Komponenten auch problemlos miteinander funktionieren. Der RBTXpert erweitert dieses Angebot und unterstützt dabei, dass es die individuell richtige Auswahl ist. Damit wird der Einstieg in eine kostengünstige Automatisierung mit einem schnellen Return on Investment für Viele jetzt noch einfacher.“