Hackathon bei igus: „Künstliche Intelligenz trifft Robotics“

Fraunhofer-Institute, Lamarr Institut, igus und Uni Bonn entwickeln Sprachmodell für kostengünstige Automatisierungslösungen in der Kommissionierung


Köln, 1. Oktober 2024 – Mitte September fand bei igus in Köln ein Hackathon statt. Unter dem Motto „Künstliche Intelligenz trifft Robotics“ arbeiteten 17 Teilnehmer in drei interdisziplinären Teams daran, fortschrittliche Automatisierungslösungen für die Logistik zu entwickeln. Ziel des Hackathons war es, mithilfe eines großen KI-basierten Sprachmodells (Large Language Models, kurz: LLM) eine automatisierte Methode zum Verpacken von Pizzen zu schaffen. Die Veranstaltung fand in Zusammenarbeit mit dem Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS, der Universität Bonn, dem Lamarr Institut und dem Fraunhofer-Institut für Materialfluss und Logistik IML statt.

20-mal Tonno, 10-mal Salami und 25-mal Margherita: So lautet die Bestellung des Supermarkts um die Ecke bei einem großen Hersteller von TK-Pizzen. Das klingt nach einer einfachen Aufgabe, ist jedoch immer noch Handarbeit, die aktuell manuell erledigt wird. Eine einfache und wenig anspruchsvolle Arbeit, für die sich oftmals kein Personal findet. Eine Lösung hierfür entwickelten 17 Teilnehmer der Fraunhofer Institute IAIS und IML, des Lamarr-Instituts für Maschinelles Lernen und Künstliche Intelligenz sowie Mitarbeitende der Universität Bonn innerhalb eines 5-tägigen Hackathons bei igus in Köln. Und zwar mithilfe von kosteneffizienter „Low Cost Robotic“ made in Cologne. Die Aufgabe des Hackathons lautete: Entwickelt eine Automatisierungslösung, die mithilfe von Künstlicher Intelligenz (KI) die Pizzen automatisch verpackt. Die Herausforderung bestand darin, einen Roboter so zu steuern, dass er über Sprachanweisungen direkt von Mitarbeitenden die richtigen Produkte erkennt, greift und in Mischpakete verpackt. Durch die Kombination von Generativen KI (GenAI) und Robotik sollte eine Lösung entwickelt werden, die diese repetitive Arbeit effizienter und kostengünstiger gestaltet.

Automatisierung der Industrie mit KI und kostengünstiger Robotik
Während des Hackathons arbeiteten drei Teams an einem realen Use Case, bei dem ein ReBeL Roboterarm vor einem Förderband mit verschiedenen Pizzaprodukten platziert wurde. Mithilfe einer Webcam und einem KI-basierten Segmentierungssystem (Segment Anything Model, SAM) erkannten die Systeme die verschiedenen Produkte auf dem Förderband und identifizierten ihre Position. Das Sprachmodell ordnete diese Objekte den gewünschten Produkten zu, basierend auf den natürlichsprachlichen Anweisungen. Anschließend legte der Roboter die Produkte in die Boxen, indem er die Anweisungen des Sprachmodells befolgte.

Alexander Zorn vom Fraunhofer IAIS zeigte sich begeistert von den Ergebnissen des Hackathons: „Wir freuen uns sehr, mit dem igus Robotik-Know-how reale Proof-of-Concepts für Kunden in der Industrie zu entwickeln. Die Kombination von Künstlicher Intelligenz und Robotik bietet enorme Potenziale, um Arbeitsprozesse zu automatisieren und effizienter zu gestalten.“ Auch Alexander Mühlens, Prokurist und Leiter der Abteilung Low Cost Automation bei der igus GmbH, betonte die Bedeutung des Hackathons: „Die Zusammenarbeit mit den Instituten gibt uns die Möglichkeit, unseren Kunden zu zeigen, was alles mithilfe von KI und Low-Cost-Robotic möglich ist. Unser Traum ist es, Roboter über einen Sprachbefehl einfach steuern zu können, und das in jeder Anwendung.“ Der Hackathon zeigte, dass durch den Einsatz von LLMs und Robotik viele weitere Automatisierungsmöglichkeiten denkbar sind, wie beispielsweise das gleichzeitige Packen mehrerer Boxen, das Sortieren von Produkten nach speziellen Anweisungen oder das Überprüfen von Inhaltsstoffen auf Allergene mithilfe von Kamerasystemen. Die erfolgreiche Zusammenarbeit zwischen igus, dem Fraunhofer IAIS, dem Lamarr-Institut der Universität Bonn und dem Fraunhofer IML unterstreicht das Potenzial dieser Technologien für die industrielle Automatisierung.

**Über die Partner**

Das Fraunhofer IAIS ist eines der führenden Forschungsinstitute auf den Gebieten Künstliche Intelligenz (KI), Maschinelles Lernen und Big Data, während die Universität Bonn als Zentrum für Künstliche Intelligenz und Robotik bekannt ist. Das Fraunhofer IML in Dortmund brachte seine Fachexpertise in der Logistikautomatisierung und im Materialfluss ein. Während das Lamarr-Institut führend in der internationalen KI-Forschung und dem Maschinellen Lernen ist.    

Der neue HORST1000 G2 von fruitcore robotics

Der stärkste Industrieroboter seiner Klasse

Konstanz, 08.10.2024 – Nach dem erfolgreichen Markteintritt von HORST1500, dem ersten Industrieroboter der neuen Generation an Digital Robots, hat fruitcore robotics auf der Motek in Stuttgart erstmals HORST1000 G2 vorgestellt. Der zweite Roboter dieser neuen Generation kombiniert innovative Antriebstechnologie mit intuitiver Bedienung und AI Copilot. HORST1000 G2 ist schnell zu installieren und zu programmieren – er erfordert kein Expertenwissen – und bietet zudem die besten Lebensdauerkosten am Markt.

Technologie-Führerschaft durch innovative Antriebstechnologie

Mit einer Traglast von bis zu 16 kg ist HORST1000 G2 der stärkste Roboter seiner Größenklasse am Markt. Der Roboter zeichnet sich, wie auch HORST1500, durch eine einzigartige, patentierte Antriebstechnologie aus, die wartungsfrei und besonders kosteneffizient ist und so die Lebensdauerkosten deutlich senkt. Eine 6-jährige Garantie auf den Antriebsstrang unterstreicht die Zuverlässigkeit und Wirtschaftlichkeit des Systems.

„Unsere Technologie vereint Innovation und wirtschaftlichen Mehrwert, um Automatisierung für eine breite Anwenderbasis zugänglich zu machen“, sagt Jens Riegger, Geschäftsführer (CEO) von fruitcore robotics. „Unternehmen, die auf unsere Roboter setzen, erzielen bereits nach wenigen Monaten einen beeindruckenden ROI und verschaffen sich einen klaren Wettbewerbsvorteil.“

Intelligente Steuerung und sichere Mensch-Maschine-Interaktion

Ein Highlight der neuen Digital Robot Generation ist der in der Steuerungssoftware integrierte AI Copilot, der den Roboter mit kognitiven Fähigkeiten ausstattet. Diese Technologie erlaubt es Anwendern, in Echtzeit mit dem Roboter zu kommunizieren und komplexe Aufgaben durch KI-Unterstützung schnell und präzise zu lösen. Der AI Copilot vereinfacht nicht nur den Support, sondern hilft auch bei spezifischen Programmieraufgaben. Das erhöht die Flexibilität weiter und reduziert die Abhängigkeit von Experten deutlich.

Darüber hinaus verfügt HORST1000 G2 über fortschrittliche Sicherheitslösungen, die für den sicheren Einsatz mit Menschen ausgelegt sind. Der Roboter kann, wie alle Roboter von fruitcore robotics, mit sicherreduzierter Geschwindigkeit und Sicherheitssensoren auch ohne Schutzzaun betrieben werden. Zudem ist er als sofort einsetzbares Solution Kit erhältlich, das alle Sicherheitsanforderungen erfüllt und wertvolle Zeit bei der CE-Konformität spart.

Optimiert für Maschinenbeschickung und raue Umgebungen

Mit einer Reichweite von 1141 mm und einer Traglast von bis zu 16 kg ist HORST1000 G2 für Aufgaben in der Maschinenbeschickung und im Teilehandling optimiert. Er bewegt mühelos schwere Tools und Bauteile über den gesamten Arbeitsbereich. Der Roboter ist mit der Schutzart IP54 ausgestattet. Das macht ihn ideal für raue Produktionsumgebungen.

Dank seiner kompakten Bauweise kann HORST1000 G2 nah an Maschinen heranfahren und tief in die Maschinen eingreifen, was die Flexibilität in beengten Produktionsumgebungen erheblich steigert. Der Roboter bearbeitet Trays mit einer Arbeitsfläche von bis zu 450 x 900 mm oder in quadratischer Form von bis zu 520 x 520 mm.

Durch intelligente Software-Features lassen sich verschiedene Maschinen-Fertigungsprogramme für unterschiedliche Arbeitsaufträge flexibel verwalten. Die reibungslose Einbindung von Maschinenfunktionen, wie der automatischen Türöffnung sowie die Kommunikation mit Spannmitteln bieten eine besonders effiziente Lösung für CNC-Maschinen. Zudem steigert die verbesserte Achsbeschleunigung die Effizienz beim Handling schwerer Teile und beim Einsatz ausladender Greifer.

Sofort einsatzbereit für CNC-Maschinen in der Metallverarbeitung

In Kombination mit dem Automatisierungsmodul für das Be- und Entladen von Maschinen bietet HORST1000 G2 eine sofort einsatzbereite Lösung, die speziell für das Be- und Entladen von Maschinen entwickelt wurde. „Das ermöglicht eine schnelle Implementierung in Produktionslinien, bei der nur 15 % des üblichen Projektaufwands anfallen“, erklärt Jens Riegger. Dank vorhandener Schnittstellen zu den meisten CNC-Maschinenherstellern lässt sich der Roboter nahtlos integrieren.

In der metallverarbeitenden Medizintechnik kommt der Roboter zur Herstellung chirurgischer Instrumente zum Einsatz, wo er effizient CNC-Fräs- oder Drehmaschinen belädt und entlädt oder Fertigungsprozesse vorbereitet. Auch in der metallverarbeitenden Automobilindustrie wird er für das Be- und Entladen von Maschinen eingesetzt oder sorgt bei Mess- und Prüftechnikaufgaben für gleichbleibend hohe Qualität.

IDS Showcases Groundbreaking 2D, 3D, and AI-Based Vision Systems at SPS 2024 in Nuremberg, Germany

Innovative Industrial Cameras for Robotics and Process Automation to Take Center Stage at Stand 6-36

Industrial cameras are indispensable for automation – whether with 2D, 3D or AI

Detecting the smallest errors, increasing throughput rates, preventing wear – industrial cameras provide important information for automated processes. IDS will be demonstrating which technologies and products are particularly relevant at SPS / Smart Production Solutions in Nuremberg, Germany, from 12 to 14 November. If you want to experience how small cameras can achieve big things, stand 6-360 is the right place to visit.

IDS presents a wide range of applications, from visualisation to picking and OCR

Around 1,200 companies will be represented in a total of 16 exhibition halls at the trade fair for smart and digital automation. IDS will be taking part for the first time, focussing on industrial image processing for robotics, process automation and networked systems. Philipp Ohl, Head of Product Management at IDS, explains: „Automation and cameras? They go together like a lock and key. Depending on the task, very different qualities are required – such as particularly high-resolution images, remarkably fast cameras or models with integrated intelligence.“ Consequently, the products and demo systems that the company will be showcasing at SPS are highly diverse.

The highlights of IDS can be divided into three categories: 2D, 3D and AI-based image processing. The company will be presenting uEye Live, a newly developed product line. These industrial-grade monitoring cameras enable live streaming and are designed for the continuous monitoring and documentation of processes. IDS will also be introducing a new event-based sensor that is recommended for motion analyses or high-speed counting. It enables the efficient detection of rapid changes through continuous pixel-by-pixel detection instead of the usual sequential image-by-image analysis.

With over 25 years of experience, IDS is one of the key players in the image processing market

In the 3D cameras product segment, IDS will be demonstrating the advantages of the new stereo vision camera Ensenso B for precise close-range picking tasks as well as a prototype of the first time-of-flight camera developed entirely in-house. Anyone interested in robust character recognition will also find what they are looking for at the trade fair stand: Thanks to DENKnet OCR, texts and symbols on surfaces can be reliably identified and processed. IDS will be exhibiting at SPS, stand 6-360.

More information: https://en.ids-imaging.com/sps-2024.html

Vention stellt KI-fähigen Automatisierungscontroller für  Robotik- und Industrieanwendungen auf Demo Day vor

Montreal/Berlin, 18. September 2024 – Vention, das Unternehmen hinter der  cloud-basierten Manufacturing Automation Platform (MAP), stellt auf seinem heutigen Demo Day in Berlin eine neue KI-Anwendung vor. MachineMotion AI ist der erste KI fähige Automatisierungscontroller mit beschleunigter Computertechnologie von  NVIDIA.  

Als Herzstück des Hardware- und Software-Ökosystems von Vention schließt  MachineMotion AI die Lücke zwischen herkömmlichen speicherprogrammierbaren  Steuerungen (SPS) und modernen Roboterprogrammierumgebungen. Der Controller der  dritten Generation wurde entwickelt, um die Konzeption und Bereitstellung von  Roboteranwendungen für produzierende Unternehmen jeder Größe erheblich zu  vereinfachen.  

MachineMotion AI basiert auf der NVIDIA Jetson-Plattform für Edge-KI und -Robotik. Der  Controller entwickelt KI-fähige Roboter mit NVIDIA GPU-beschleunigter Pfadplanung weiter  und bietet die Möglichkeit, 2D-/3D-Wahrnehmungsmodelle auszuführen, die in synthetischen  und physischen Umgebungen trainiert wurden.  

MachineMotion AI ist mit führenden Robotermarken (z.B. Universal Robots, FANUC und  ABB) kompatibel und lässt sich per Plug-and-Play mit Hunderten von Bewegungsgeräten  und Sensoren verbinden – von Förderbändern und Aktuatoren bis hin zu Sicherheitsgeräten,  Computer-Vision-Systemen, Telepräsenzkameras und mehr.  

„Wir sind auf dem Weg, die industrielle Automatisierung zu demokratisieren und bauen dabei  das umfassendste Unternehmen für industrielle Automatisierung und Robotik auf. Die  heutigen Ankündigungen festigen Ventions Position als intuitivste Plattform für  Automatisierung und Robotik und zeigen gleichzeitig die fortschrittlichen Funktionen, die  Experten in der Branche benötigen“, sagt Etienne Lacroix, Gründer und CEO von Vention. 

Weitere Informationen zu der Zusammenarbeit mit NVIDIA finden Sie hier. Demo Day in Berlin (18.9.) 

Der diesjährige europäische Demo Day findet am 18.9. ab 14 Uhr in der Vention Europazentrale in Berlin statt. Etienne Lacroix, Gründer und CEO von Vention, wird vor Ort  sein und für Pressegespräch zur Verfügung stehen. Mehr Informationen zum Event in Berlin  finden Sie hier. 

Über Vention  

Vention hilft Unternehmen, ihre Produktionsbereiche durch eine demokratisierte  Benutzererfahrung in nur wenigen Tagen zu automatisieren. Mit der digitalen  Fertigungsautomatisierungsplattform MAP von Vention können Kunden automatisierte  Geräte direkt über ihren Webbrowser entwerfen, bestellen und bereitstellen. Vention hat  seinen Hauptsitz in Montreal und Niederlassungen in Berlin und Boston. Die über 300  Mitarbeiter betreuen mehr als 4.000 Kunden auf fünf Kontinenten und in 25  Fertigungsindustrien.

VEX IQ V2 Education Kit HowTo Fernsteuerung/Controller mit Brain koppeln

VEX IQ Education Kit V2 Unboxing auf Deutsch

siehe auch meinen Vergleich zur ersten Generation: https://robots-blog.com/2024/08/22/unterschiede-zwischen-vex-iq-1st-generation-und-vex-iq-2nd-generation/

Successful Kickstarter campaign: MD Robot Kit promotes creativity and education in robotics

MangDang’s Kickstarter project „MD Robot Kit: Unlock your AI Robot Engineering Dream Job“ aims to promote the creativity and technical know-how of robotics enthusiasts. It offers two main robots, each addressing different needs and interests.

The first robot, the Mini Pupper, is available in several versions, including Mini Pupper 1, Mini Pupper 2, and the 2G and 2GA models. This robot is a low-cost, personal quadruped kit that comes with open-source software. The Mini Pupper supports multimodal generative AI platforms such as OpenAI’s ChatGPT, Google’s Gemini, and AWS’s Claude. It is also compatible with ROS1 and ROS2, which expands its capabilities in the areas of SLAM (Simultaneous Localization and Mapping) and navigation. The integration of OpenCV allows the robot to perform deep learning with cameras. Thanks to the use of Raspberry Pi and Arduino, the Mini Pupper offers high adaptability and expandability, making it ideal for developers who want to realize their own projects.

The second robot presented is the Turtle Robot, which will be available soon. This robot is specifically aimed at schools, homeschooling families, and robot enthusiasts. While detailed specifications have not yet been fully released, it is clear that the Turtle Robot also aims to support learning and creativity in the field of robotics.

The campaign itself has set a funding goal of 9000€ and has clearly exceeded it with a sum of just under 19000€, which corresponds to over 200% of the original goal. The campaign runs from September 5, 2024 to October 5, 2024 and has attracted 80 supporters so far. A standout feature of the MD Robot Kits is their open-source nature, which allows users to assemble the robots in less than an hour. This makes them particularly accessible to a wide range of audiences, ranging from educational institutions to DIY enthusiasts. The project is designed not only to impart technical knowledge, but also to promote the joy of creating and customizing robots.

1. Mini Pupper:

  • Versions: Mini Pupper 1 (2021), Mini Pupper 2 (2022), Mini Pupper 2G & 2GA.
  • Design: A low-cost, personal quadruped kit with open-source software.
  • Features: Supports multimodal generative AI such as OpenAI’s ChatGPT, Google’s Gemini, and AWS’s Claude. It is compatible with ROS1 and ROS2 for SLAM & navigation and is based on OpenCV for deep learning with cameras.
  • Extensibility: Uses Raspberry Pi and Arduino, which allows for high adaptability.
  • Open-source platform: The Mini Pupper supports the Robot Operating System (ROS) and offers features such as SLAM (Simultaneous Localization and Mapping) and navigation. It is equipped with lidar and camera sensors that allow it to map its surroundings and move autonomously
  • Technical specifications: The robot has 12 degrees of freedom, made possible by advanced servo motors. These motors provide feedback on acceleration and force, which allows precise control.
  • Hardware and expandability: The Mini Pupper uses the Raspberry Pi 4B or the Raspberry Pi Compute Module 4 as the central processing unit and is equipped with an ESP32 as a microcontroller. It has an IPS display with a resolution of 240 x 320 pixels, a microphone, speakers and a touch sensor.
  • Adaptability: Thanks to its open-source nature, the Mini Pupper can be modified deeply. Users can add their own modules and customize the robot for different projects, such as tracking objects in space.
  • Education and community: The Mini Pupper is ideal for schools and homeschooling families. It comes with comprehensive guidance and resources to help you get started with robotics. Users can become part of a global community to share ideas and get support.
  • Price and availability: As part of the Kickstarter campaign, the Mini Pupper will be offered in different versions, with the base model costing around 479 euros. Delivery is scheduled to begin in February, with supporters aware of the financial risk of crowdfunding campaigns.

2. Turtle Robot:

  • Open-source project: The Turtle Robot is based on Arduino and is an open-source project that supports the integration of generative AI. This allows users to customize and expand the robot.
  • Affordability: The Turtle Robot is a low-cost learning platform for multimodal generative AI and comes at an introductory price of 60% off $99. This makes it particularly attractive to educational institutions and DIY enthusiasts.
  • Ease of use: The robot is designed to be set up and put into operation within a week. This makes it easier for beginners to start learning and experimenting quickly.
  • Support and resources: MangDang offers comprehensive support across multiple channels, as well as access to all code and design files via a GitHub repository. Users can print the STL design files and contribute their own ideas.
  • Multimodal Generative AI: The Turtle Robot uses advanced AI technologies that enable continuous voice interactions. The AI can remember previous conversations and give personalized answers based on them.
  • Application examples: There are two Arduino projects that can be used with the Turtle Robot: one for testing individual functions and another that performs all functions via voice control.
  • Availability: The Turtle Robot was available as part of the Kickstarter campaign until October 2024 and will be available in an online store after that.

https://www.kickstarter.com/projects/mdrobotkits/md-robot-kits-open-source-support-your-genai-creativity?ref=txm87x

Neue Funktionen für VEXcode 4.0 verfügbar

VEX Robotics hat VEXcode für ein neues Jahr des Programmierens aktualisiert! VEXcode 4.0 für VEX IQ, VEX EXP und VEX V5 bringt den Benutzern einige aufregende neue Funktionen! Diese Bemühungen zielen darauf ab, die Benutzererfahrung zu optimieren und zusätzliche Optionen für die Barrierefreiheit zu unterstützen. Entdecken Sie die neuen Funktionen für jede Plattform unten und in den begleitenden VEX Library-Artikel!

Neue Funktionen in VEXcode IQ 4.0

VEXcode IQ 4.0 führt wichtige Updates ein. Zu den bemerkenswerten Ergänzungen gehören Switch Blocks, die einen nahtlosen Übergang von blockbasierter zu textbasierter Codierung auf einem physischen Roboter ermöglichen, verbesserte Speicher- und Ladefunktionen für webbasierte VEXcodeund neue Barrierefreiheitsoptionen wie „Blöcke vorlesen“. Diese Updates wurden entwickelt, um die Benutzererfahrung zu optimieren und Anfänger und fortgeschrittene Benutzer zu unterstützen.

Erfahren Sie hier mehr über diese Updates: https://kb.vex.com/hc/en-us/articles/29278709186708-New-Features-in-VEXcode-IQ-4-0

Neue Funktionen in VEXcode EXP 4.0

VEXcode EXP 4.0 bietet umfassende Updates, die das Bildungserlebnis für Lehrer und Schüler verbessern sollen. Diese Version bietet volle Unterstützung für den CTE Workcell, der eine nahtlose Integration von Industrierobotik in den Unterricht ermöglicht. Die neue Funktion „Blöcke wechseln“ ermöglicht einen reibungslosen Übergang von blockbasierter zu textbasierter Codierung und erleichtert so fortgeschrittenes Lernen. Darüber hinaus ermöglichen webbasierte drahtlose Projekt-Downloads effizientere Arbeitsabläufe, indem sie es Benutzern ermöglichen, direkt über ihren Webbrowser eine Verbindung zu einem EXP Brain herzustellen. Verbesserte Barrierefreiheitsfunktionen wie (Vor-)Leseblöcke, anpassbare Stimmen und kontrastreiche Themen machen VEXcode inklusiver und benutzerfreundlicher. Der aktualisierte AI Vision Sensor unterstützt jetzt AprilTags und AI Classifications, wodurch die autonomen Fähigkeiten verbessert werden. Mit diesen Verbesserungen unterstützt VEXcode EXP 4.0 weiterhin eine breite Palette von Bildungsanforderungen, von Anfängern bis hin zu fortgeschrittenen Roboterprogrammierungen.

Erfahren Sie hier mehr über diese Updates: https://kb.vex.com/hc/en-us/articles/29373428548372-New-Features-in-VEXcode-V5-4-0

New Features Available for VEXcode 4.0

VEX Robotics updated VEXcode for a new year of coding! VEXcode 4.0 for VEX IQVEX EXP, and VEX V5 brings users some exciting new features! These efforts aim to streamline user experience and support added accessibility options. Explore the new features for each platform below and in their accompanying VEX Library articles!

New Features in VEXcode IQ 4.0

VEXcode IQ 4.0 introduces major updates. Notable additions include Switch Blocks, which enable a seamless transition from block-based to text-based coding on a physical robot, enhanced save and load features for web-based VEXcode, and new accessibility options like Read Blocks Aloud. These updates are designed to streamline the user experience and support beginners and advanced users.

Learn more about these updates here: https://kb.vex.com/hc/en-us/articles/29278709186708-New-Features-in-VEXcode-IQ-4-0

New Features in VEXcode EXP 4.0

VEXcode EXP 4.0 offers comprehensive updates designed to elevate the educational experience for teachers and students. This release includes full support for the CTE Workcell, enabling seamless integration of industrial robotics into the classroom. The new Switch Blocks feature allows for a smooth transition from block-based to text-based coding, facilitating advanced learning. Additionally, web-based wireless project downloads enable more efficient workflows by allowing users to connect to an EXP Brain directly from their web browser. Enhanced accessibility features like Read Blocks Aloudcustomizable voices, and high-contrast themes make VEXcode more inclusive and user-friendly. The updated AI Vision Sensor now supports AprilTags and AI Classifications, enhancing autonomous capabilities. With these enhancements, VEXcode EXP 4.0 continues to support a wide range of educational needs, from introducing beginners to advanced robotic programming.

Learn more about these updates here: https://kb.vex.com/hc/en-us/articles/29373428548372-New-Features-in-VEXcode-V5-4-0

Argo – Your AI Smart Companion Robot

Guess what? There’s a new robot in town: Argo, the AI Smart Companion Robot for your home! „How is it possible that in 2024 we still don’t have personal robots in our homes?“ 

This very question sparked the creation of Argo. And who better to tackle this challenge than three innovators who have built driverless cars, drones, rockets, and space robotic arms? Their vision: to create the smart personal home robot we’ve been waiting for! 

Argo excels in three main areas: 

INTELLIGENCE: ChatGPT-level conversational abilities, smart home integration (domotics) and autonomous navigation to move and follow you around your home.

SECURITY: 24/7 video surveillance, autonomous patrolling to check every room, motion detection for intruders, and even gas leak monitoring. 

ENTERTAINMENT: From playing your favorite music to autonomously delivering drinks, Argo makes everyday life more enjoyable, with fun features like the morning alarm or the ed-tech games for your kids. 

But that’s just the start. To explore all of Argo’s features, visit their website: argorobot.it

The intuition behind Argo is that today we still have basic vocal assistants, static boxes used just to set timers, play music. In some years, we will have humanoid robots doing laundry and cooking for us. Will we switch overnight from Alexa to fully humanoid robots? Probably not. Argo is that essential step in between, and it will keep evolving day by day. 

So Argo isn’t just „Alexa on wheels.“ With its mobility, interactive animations and true conversational AI, Argo delivers an entirely different user experience: one that feels more alive and engaging than simply talking to a static device. 

As the famous roboticist Tomotaka Takahashi once said: „Having people talk to a brick doesn’t work, which is why Siri hasn’t succeeded.“ 

So Argo is an interactive companion, your AI chatty buddy and your infinite source of knowledge! 

Sure, we’ve seen other unfortunate attempts in home robots before, like Kuri or Jibo, which were true pioneers. However, the technology back then wasn’t quite there. AI, LLMs and autonomous navigation systems were still in their infancy. Today, we have the tools to push the boundaries even further and at a fraction of the cost. 

When you compare Argo to other robots on the market like Vector or Loona, while impressive, they tend to lean more toward toy-like design and functionality. And then there’s Amazon Astro, a high-tech marvel, but at $1,600 its price tag doesn’t align with the value it offers. Argo strikes the perfect balance: it’s more sophisticated, less of a toy and significantly more affordable, targeting a $499 price point. 

We’re seeing tech giants like Amazon and Apple (project J595) getting serious about this space, and it’s clear that smarter home robots are coming. Argo is here to be part of that revolution!

Do you want to share your ideas about home robots? Fill this quick survey to help Argo guys to craft the best home robot for you: https://forms.gle/MmNLc15wH5invino9