Get your own Rick and Morty Butter Bot!

https://circuitmess.com/pages/butter-bot-teaser

fischertechnik Lernfabrik 4.0 an der Universität in Potsdam: Neuronale Netzwerke in der Fertigungssteuerung mit fischertechnik optimieren

Die Forschung zur Anwendung von Künstlicher Intelligenz in der Produktionssteuerung wird an der Universität in Potsdam mit einer Fabriksimulationsanlage von fischertechnik simuliert. 

Die fischertechnik Lernumgebung dient zum Lernen und Begreifen von Industrie-4.0-Anwendungen in der Berufsschule und Ausbildung sowie zum Einsatz für Forschung, Lehre und Entwicklung an Universitäten, in Betrieben und IT-Abteilungen. (Bild © fischertechnik)

Marcus Grum ist Juniorprofessor für Wirtschaftsinformatik, insbesondere für KI-basierte Anwendungssysteme. Er beugt sich über ein ungefähr ein mal ein Meter großes Modell aus fischertechnik Bausteinen. Fasziniert schaut er zu, wie ein roter Holzstein von einem kleinen Hochregallager aus über ein Transportband zu verschiedenen Fertigungsstätten transportiert wird. Das Simulationsmodell von fischertechnik wird an Universitäten und in der Ausbildung eingesetzt, um den Bestellprozess, den Produktionsprozess und den Lieferprozess in digitalisierten und vernetzten Prozessschritten abzubilden.

An der Universität Potsdam wurde die fischertechnik Lernfabrik 4.0 in Kombination mit anderen Simulationstools und einem neuronalen Zwilling dazu verwendet, globale Fertigungssteuerungsprozesse nachzustellen. In einer Forschungsreihe wurde beispielsweise eine Marmeladenproduktion simuliert. Es wurde angenommen, dass Produkte weltweit an vier verschiedenen Fertigungsstätten gefertigt werden, die jedoch über unterschiedliche IT-Systeme verfügen. 

Beleuchtet wurden sämtliche Prozesse, vom Beschaffen der Früchte bis hin zum Vertrieb an den Kunden. Die fischertechnik Lernfabrik 4.0 stellte eine von vier der vernetzten haptischen Fertigungsstationen dar. In der Anlage wurde der Prozess vom Einlagern der Früchte über das Einführen in die Kochmaschine zur Marmeladeherstellung bis hin zur Befüllung der Gläser und 
das Ausliefern der Produkte simuliert. Das haptische Modell wurde an ein neuronales Netzwerk (ANN – Artificial Neural Network) angeschlossen. „Damit führten wir Versuchsreihen und Experimente durch, die valide Ergebnisse liefern und Produktionsineffizienzen aufzeigen. Wir können aus diesen Ergebnissen ableiten, wie derartige Ineffizienzen vermieden werden können“, erklärt Prof. Grum. Der Jungwissenschaftler wurde im vergangenen Jahr von der Stiftung Werner-von-Siemens-Ring für die Entwicklung eines methodischen Ansatzes geehrt, der es ermöglicht, Maschinen- und Geschäftsprozesse mit Hilfe von künstlichen neuronalen Netzen (KNN) zu modellieren.

Die zukünftige Forschung wird sich mit der empirischen Überprüfung der Anweisungen von neuronalen Netzen und entsprechenden Managementinterventionen befassen, die in realen Echtzeitproduktionen entstehen. „Auch hier wird die Fabriksimulationsanlage von fischertechnik zum Einsatz kommen“, sagt Prof. Grum.

Weiterführende Informationen zu den fischertechnik Fabriksimulationsanlagen: Simulationsmodelle für Industrie und Hochschulen – fischertechnik

Hackathon bei igus: „Künstliche Intelligenz trifft Robotics“

Fraunhofer-Institute, Lamarr Institut, igus und Uni Bonn entwickeln Sprachmodell für kostengünstige Automatisierungslösungen in der Kommissionierung


Köln, 1. Oktober 2024 – Mitte September fand bei igus in Köln ein Hackathon statt. Unter dem Motto „Künstliche Intelligenz trifft Robotics“ arbeiteten 17 Teilnehmer in drei interdisziplinären Teams daran, fortschrittliche Automatisierungslösungen für die Logistik zu entwickeln. Ziel des Hackathons war es, mithilfe eines großen KI-basierten Sprachmodells (Large Language Models, kurz: LLM) eine automatisierte Methode zum Verpacken von Pizzen zu schaffen. Die Veranstaltung fand in Zusammenarbeit mit dem Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS, der Universität Bonn, dem Lamarr Institut und dem Fraunhofer-Institut für Materialfluss und Logistik IML statt.

20-mal Tonno, 10-mal Salami und 25-mal Margherita: So lautet die Bestellung des Supermarkts um die Ecke bei einem großen Hersteller von TK-Pizzen. Das klingt nach einer einfachen Aufgabe, ist jedoch immer noch Handarbeit, die aktuell manuell erledigt wird. Eine einfache und wenig anspruchsvolle Arbeit, für die sich oftmals kein Personal findet. Eine Lösung hierfür entwickelten 17 Teilnehmer der Fraunhofer Institute IAIS und IML, des Lamarr-Instituts für Maschinelles Lernen und Künstliche Intelligenz sowie Mitarbeitende der Universität Bonn innerhalb eines 5-tägigen Hackathons bei igus in Köln. Und zwar mithilfe von kosteneffizienter „Low Cost Robotic“ made in Cologne. Die Aufgabe des Hackathons lautete: Entwickelt eine Automatisierungslösung, die mithilfe von Künstlicher Intelligenz (KI) die Pizzen automatisch verpackt. Die Herausforderung bestand darin, einen Roboter so zu steuern, dass er über Sprachanweisungen direkt von Mitarbeitenden die richtigen Produkte erkennt, greift und in Mischpakete verpackt. Durch die Kombination von Generativen KI (GenAI) und Robotik sollte eine Lösung entwickelt werden, die diese repetitive Arbeit effizienter und kostengünstiger gestaltet.

Automatisierung der Industrie mit KI und kostengünstiger Robotik
Während des Hackathons arbeiteten drei Teams an einem realen Use Case, bei dem ein ReBeL Roboterarm vor einem Förderband mit verschiedenen Pizzaprodukten platziert wurde. Mithilfe einer Webcam und einem KI-basierten Segmentierungssystem (Segment Anything Model, SAM) erkannten die Systeme die verschiedenen Produkte auf dem Förderband und identifizierten ihre Position. Das Sprachmodell ordnete diese Objekte den gewünschten Produkten zu, basierend auf den natürlichsprachlichen Anweisungen. Anschließend legte der Roboter die Produkte in die Boxen, indem er die Anweisungen des Sprachmodells befolgte.

Alexander Zorn vom Fraunhofer IAIS zeigte sich begeistert von den Ergebnissen des Hackathons: „Wir freuen uns sehr, mit dem igus Robotik-Know-how reale Proof-of-Concepts für Kunden in der Industrie zu entwickeln. Die Kombination von Künstlicher Intelligenz und Robotik bietet enorme Potenziale, um Arbeitsprozesse zu automatisieren und effizienter zu gestalten.“ Auch Alexander Mühlens, Prokurist und Leiter der Abteilung Low Cost Automation bei der igus GmbH, betonte die Bedeutung des Hackathons: „Die Zusammenarbeit mit den Instituten gibt uns die Möglichkeit, unseren Kunden zu zeigen, was alles mithilfe von KI und Low-Cost-Robotic möglich ist. Unser Traum ist es, Roboter über einen Sprachbefehl einfach steuern zu können, und das in jeder Anwendung.“ Der Hackathon zeigte, dass durch den Einsatz von LLMs und Robotik viele weitere Automatisierungsmöglichkeiten denkbar sind, wie beispielsweise das gleichzeitige Packen mehrerer Boxen, das Sortieren von Produkten nach speziellen Anweisungen oder das Überprüfen von Inhaltsstoffen auf Allergene mithilfe von Kamerasystemen. Die erfolgreiche Zusammenarbeit zwischen igus, dem Fraunhofer IAIS, dem Lamarr-Institut der Universität Bonn und dem Fraunhofer IML unterstreicht das Potenzial dieser Technologien für die industrielle Automatisierung.

**Über die Partner**

Das Fraunhofer IAIS ist eines der führenden Forschungsinstitute auf den Gebieten Künstliche Intelligenz (KI), Maschinelles Lernen und Big Data, während die Universität Bonn als Zentrum für Künstliche Intelligenz und Robotik bekannt ist. Das Fraunhofer IML in Dortmund brachte seine Fachexpertise in der Logistikautomatisierung und im Materialfluss ein. Während das Lamarr-Institut führend in der internationalen KI-Forschung und dem Maschinellen Lernen ist.    

Der neue HORST1000 G2 von fruitcore robotics

Der stärkste Industrieroboter seiner Klasse

Konstanz, 08.10.2024 – Nach dem erfolgreichen Markteintritt von HORST1500, dem ersten Industrieroboter der neuen Generation an Digital Robots, hat fruitcore robotics auf der Motek in Stuttgart erstmals HORST1000 G2 vorgestellt. Der zweite Roboter dieser neuen Generation kombiniert innovative Antriebstechnologie mit intuitiver Bedienung und AI Copilot. HORST1000 G2 ist schnell zu installieren und zu programmieren – er erfordert kein Expertenwissen – und bietet zudem die besten Lebensdauerkosten am Markt.

Technologie-Führerschaft durch innovative Antriebstechnologie

Mit einer Traglast von bis zu 16 kg ist HORST1000 G2 der stärkste Roboter seiner Größenklasse am Markt. Der Roboter zeichnet sich, wie auch HORST1500, durch eine einzigartige, patentierte Antriebstechnologie aus, die wartungsfrei und besonders kosteneffizient ist und so die Lebensdauerkosten deutlich senkt. Eine 6-jährige Garantie auf den Antriebsstrang unterstreicht die Zuverlässigkeit und Wirtschaftlichkeit des Systems.

„Unsere Technologie vereint Innovation und wirtschaftlichen Mehrwert, um Automatisierung für eine breite Anwenderbasis zugänglich zu machen“, sagt Jens Riegger, Geschäftsführer (CEO) von fruitcore robotics. „Unternehmen, die auf unsere Roboter setzen, erzielen bereits nach wenigen Monaten einen beeindruckenden ROI und verschaffen sich einen klaren Wettbewerbsvorteil.“

Intelligente Steuerung und sichere Mensch-Maschine-Interaktion

Ein Highlight der neuen Digital Robot Generation ist der in der Steuerungssoftware integrierte AI Copilot, der den Roboter mit kognitiven Fähigkeiten ausstattet. Diese Technologie erlaubt es Anwendern, in Echtzeit mit dem Roboter zu kommunizieren und komplexe Aufgaben durch KI-Unterstützung schnell und präzise zu lösen. Der AI Copilot vereinfacht nicht nur den Support, sondern hilft auch bei spezifischen Programmieraufgaben. Das erhöht die Flexibilität weiter und reduziert die Abhängigkeit von Experten deutlich.

Darüber hinaus verfügt HORST1000 G2 über fortschrittliche Sicherheitslösungen, die für den sicheren Einsatz mit Menschen ausgelegt sind. Der Roboter kann, wie alle Roboter von fruitcore robotics, mit sicherreduzierter Geschwindigkeit und Sicherheitssensoren auch ohne Schutzzaun betrieben werden. Zudem ist er als sofort einsetzbares Solution Kit erhältlich, das alle Sicherheitsanforderungen erfüllt und wertvolle Zeit bei der CE-Konformität spart.

Optimiert für Maschinenbeschickung und raue Umgebungen

Mit einer Reichweite von 1141 mm und einer Traglast von bis zu 16 kg ist HORST1000 G2 für Aufgaben in der Maschinenbeschickung und im Teilehandling optimiert. Er bewegt mühelos schwere Tools und Bauteile über den gesamten Arbeitsbereich. Der Roboter ist mit der Schutzart IP54 ausgestattet. Das macht ihn ideal für raue Produktionsumgebungen.

Dank seiner kompakten Bauweise kann HORST1000 G2 nah an Maschinen heranfahren und tief in die Maschinen eingreifen, was die Flexibilität in beengten Produktionsumgebungen erheblich steigert. Der Roboter bearbeitet Trays mit einer Arbeitsfläche von bis zu 450 x 900 mm oder in quadratischer Form von bis zu 520 x 520 mm.

Durch intelligente Software-Features lassen sich verschiedene Maschinen-Fertigungsprogramme für unterschiedliche Arbeitsaufträge flexibel verwalten. Die reibungslose Einbindung von Maschinenfunktionen, wie der automatischen Türöffnung sowie die Kommunikation mit Spannmitteln bieten eine besonders effiziente Lösung für CNC-Maschinen. Zudem steigert die verbesserte Achsbeschleunigung die Effizienz beim Handling schwerer Teile und beim Einsatz ausladender Greifer.

Sofort einsatzbereit für CNC-Maschinen in der Metallverarbeitung

In Kombination mit dem Automatisierungsmodul für das Be- und Entladen von Maschinen bietet HORST1000 G2 eine sofort einsatzbereite Lösung, die speziell für das Be- und Entladen von Maschinen entwickelt wurde. „Das ermöglicht eine schnelle Implementierung in Produktionslinien, bei der nur 15 % des üblichen Projektaufwands anfallen“, erklärt Jens Riegger. Dank vorhandener Schnittstellen zu den meisten CNC-Maschinenherstellern lässt sich der Roboter nahtlos integrieren.

In der metallverarbeitenden Medizintechnik kommt der Roboter zur Herstellung chirurgischer Instrumente zum Einsatz, wo er effizient CNC-Fräs- oder Drehmaschinen belädt und entlädt oder Fertigungsprozesse vorbereitet. Auch in der metallverarbeitenden Automobilindustrie wird er für das Be- und Entladen von Maschinen eingesetzt oder sorgt bei Mess- und Prüftechnikaufgaben für gleichbleibend hohe Qualität.

IDS Showcases Groundbreaking 2D, 3D, and AI-Based Vision Systems at SPS 2024 in Nuremberg, Germany

Innovative Industrial Cameras for Robotics and Process Automation to Take Center Stage at Stand 6-36

Industrial cameras are indispensable for automation – whether with 2D, 3D or AI

Detecting the smallest errors, increasing throughput rates, preventing wear – industrial cameras provide important information for automated processes. IDS will be demonstrating which technologies and products are particularly relevant at SPS / Smart Production Solutions in Nuremberg, Germany, from 12 to 14 November. If you want to experience how small cameras can achieve big things, stand 6-360 is the right place to visit.

IDS presents a wide range of applications, from visualisation to picking and OCR

Around 1,200 companies will be represented in a total of 16 exhibition halls at the trade fair for smart and digital automation. IDS will be taking part for the first time, focussing on industrial image processing for robotics, process automation and networked systems. Philipp Ohl, Head of Product Management at IDS, explains: „Automation and cameras? They go together like a lock and key. Depending on the task, very different qualities are required – such as particularly high-resolution images, remarkably fast cameras or models with integrated intelligence.“ Consequently, the products and demo systems that the company will be showcasing at SPS are highly diverse.

The highlights of IDS can be divided into three categories: 2D, 3D and AI-based image processing. The company will be presenting uEye Live, a newly developed product line. These industrial-grade monitoring cameras enable live streaming and are designed for the continuous monitoring and documentation of processes. IDS will also be introducing a new event-based sensor that is recommended for motion analyses or high-speed counting. It enables the efficient detection of rapid changes through continuous pixel-by-pixel detection instead of the usual sequential image-by-image analysis.

With over 25 years of experience, IDS is one of the key players in the image processing market

In the 3D cameras product segment, IDS will be demonstrating the advantages of the new stereo vision camera Ensenso B for precise close-range picking tasks as well as a prototype of the first time-of-flight camera developed entirely in-house. Anyone interested in robust character recognition will also find what they are looking for at the trade fair stand: Thanks to DENKnet OCR, texts and symbols on surfaces can be reliably identified and processed. IDS will be exhibiting at SPS, stand 6-360.

More information: https://en.ids-imaging.com/sps-2024.html

Vention stellt KI-fähigen Automatisierungscontroller für  Robotik- und Industrieanwendungen auf Demo Day vor

Montreal/Berlin, 18. September 2024 – Vention, das Unternehmen hinter der  cloud-basierten Manufacturing Automation Platform (MAP), stellt auf seinem heutigen Demo Day in Berlin eine neue KI-Anwendung vor. MachineMotion AI ist der erste KI fähige Automatisierungscontroller mit beschleunigter Computertechnologie von  NVIDIA.  

Als Herzstück des Hardware- und Software-Ökosystems von Vention schließt  MachineMotion AI die Lücke zwischen herkömmlichen speicherprogrammierbaren  Steuerungen (SPS) und modernen Roboterprogrammierumgebungen. Der Controller der  dritten Generation wurde entwickelt, um die Konzeption und Bereitstellung von  Roboteranwendungen für produzierende Unternehmen jeder Größe erheblich zu  vereinfachen.  

MachineMotion AI basiert auf der NVIDIA Jetson-Plattform für Edge-KI und -Robotik. Der  Controller entwickelt KI-fähige Roboter mit NVIDIA GPU-beschleunigter Pfadplanung weiter  und bietet die Möglichkeit, 2D-/3D-Wahrnehmungsmodelle auszuführen, die in synthetischen  und physischen Umgebungen trainiert wurden.  

MachineMotion AI ist mit führenden Robotermarken (z.B. Universal Robots, FANUC und  ABB) kompatibel und lässt sich per Plug-and-Play mit Hunderten von Bewegungsgeräten  und Sensoren verbinden – von Förderbändern und Aktuatoren bis hin zu Sicherheitsgeräten,  Computer-Vision-Systemen, Telepräsenzkameras und mehr.  

„Wir sind auf dem Weg, die industrielle Automatisierung zu demokratisieren und bauen dabei  das umfassendste Unternehmen für industrielle Automatisierung und Robotik auf. Die  heutigen Ankündigungen festigen Ventions Position als intuitivste Plattform für  Automatisierung und Robotik und zeigen gleichzeitig die fortschrittlichen Funktionen, die  Experten in der Branche benötigen“, sagt Etienne Lacroix, Gründer und CEO von Vention. 

Weitere Informationen zu der Zusammenarbeit mit NVIDIA finden Sie hier. Demo Day in Berlin (18.9.) 

Der diesjährige europäische Demo Day findet am 18.9. ab 14 Uhr in der Vention Europazentrale in Berlin statt. Etienne Lacroix, Gründer und CEO von Vention, wird vor Ort  sein und für Pressegespräch zur Verfügung stehen. Mehr Informationen zum Event in Berlin  finden Sie hier. 

Über Vention  

Vention hilft Unternehmen, ihre Produktionsbereiche durch eine demokratisierte  Benutzererfahrung in nur wenigen Tagen zu automatisieren. Mit der digitalen  Fertigungsautomatisierungsplattform MAP von Vention können Kunden automatisierte  Geräte direkt über ihren Webbrowser entwerfen, bestellen und bereitstellen. Vention hat  seinen Hauptsitz in Montreal und Niederlassungen in Berlin und Boston. Die über 300  Mitarbeiter betreuen mehr als 4.000 Kunden auf fünf Kontinenten und in 25  Fertigungsindustrien.

Successful Kickstarter campaign: MD Robot Kit promotes creativity and education in robotics

MangDang’s Kickstarter project „MD Robot Kit: Unlock your AI Robot Engineering Dream Job“ aims to promote the creativity and technical know-how of robotics enthusiasts. It offers two main robots, each addressing different needs and interests.

The first robot, the Mini Pupper, is available in several versions, including Mini Pupper 1, Mini Pupper 2, and the 2G and 2GA models. This robot is a low-cost, personal quadruped kit that comes with open-source software. The Mini Pupper supports multimodal generative AI platforms such as OpenAI’s ChatGPT, Google’s Gemini, and AWS’s Claude. It is also compatible with ROS1 and ROS2, which expands its capabilities in the areas of SLAM (Simultaneous Localization and Mapping) and navigation. The integration of OpenCV allows the robot to perform deep learning with cameras. Thanks to the use of Raspberry Pi and Arduino, the Mini Pupper offers high adaptability and expandability, making it ideal for developers who want to realize their own projects.

The second robot presented is the Turtle Robot, which will be available soon. This robot is specifically aimed at schools, homeschooling families, and robot enthusiasts. While detailed specifications have not yet been fully released, it is clear that the Turtle Robot also aims to support learning and creativity in the field of robotics.

The campaign itself has set a funding goal of 9000€ and has clearly exceeded it with a sum of just under 19000€, which corresponds to over 200% of the original goal. The campaign runs from September 5, 2024 to October 5, 2024 and has attracted 80 supporters so far. A standout feature of the MD Robot Kits is their open-source nature, which allows users to assemble the robots in less than an hour. This makes them particularly accessible to a wide range of audiences, ranging from educational institutions to DIY enthusiasts. The project is designed not only to impart technical knowledge, but also to promote the joy of creating and customizing robots.

1. Mini Pupper:

  • Versions: Mini Pupper 1 (2021), Mini Pupper 2 (2022), Mini Pupper 2G & 2GA.
  • Design: A low-cost, personal quadruped kit with open-source software.
  • Features: Supports multimodal generative AI such as OpenAI’s ChatGPT, Google’s Gemini, and AWS’s Claude. It is compatible with ROS1 and ROS2 for SLAM & navigation and is based on OpenCV for deep learning with cameras.
  • Extensibility: Uses Raspberry Pi and Arduino, which allows for high adaptability.
  • Open-source platform: The Mini Pupper supports the Robot Operating System (ROS) and offers features such as SLAM (Simultaneous Localization and Mapping) and navigation. It is equipped with lidar and camera sensors that allow it to map its surroundings and move autonomously
  • Technical specifications: The robot has 12 degrees of freedom, made possible by advanced servo motors. These motors provide feedback on acceleration and force, which allows precise control.
  • Hardware and expandability: The Mini Pupper uses the Raspberry Pi 4B or the Raspberry Pi Compute Module 4 as the central processing unit and is equipped with an ESP32 as a microcontroller. It has an IPS display with a resolution of 240 x 320 pixels, a microphone, speakers and a touch sensor.
  • Adaptability: Thanks to its open-source nature, the Mini Pupper can be modified deeply. Users can add their own modules and customize the robot for different projects, such as tracking objects in space.
  • Education and community: The Mini Pupper is ideal for schools and homeschooling families. It comes with comprehensive guidance and resources to help you get started with robotics. Users can become part of a global community to share ideas and get support.
  • Price and availability: As part of the Kickstarter campaign, the Mini Pupper will be offered in different versions, with the base model costing around 479 euros. Delivery is scheduled to begin in February, with supporters aware of the financial risk of crowdfunding campaigns.

2. Turtle Robot:

  • Open-source project: The Turtle Robot is based on Arduino and is an open-source project that supports the integration of generative AI. This allows users to customize and expand the robot.
  • Affordability: The Turtle Robot is a low-cost learning platform for multimodal generative AI and comes at an introductory price of 60% off $99. This makes it particularly attractive to educational institutions and DIY enthusiasts.
  • Ease of use: The robot is designed to be set up and put into operation within a week. This makes it easier for beginners to start learning and experimenting quickly.
  • Support and resources: MangDang offers comprehensive support across multiple channels, as well as access to all code and design files via a GitHub repository. Users can print the STL design files and contribute their own ideas.
  • Multimodal Generative AI: The Turtle Robot uses advanced AI technologies that enable continuous voice interactions. The AI can remember previous conversations and give personalized answers based on them.
  • Application examples: There are two Arduino projects that can be used with the Turtle Robot: one for testing individual functions and another that performs all functions via voice control.
  • Availability: The Turtle Robot was available as part of the Kickstarter campaign until October 2024 and will be available in an online store after that.

https://www.kickstarter.com/projects/mdrobotkits/md-robot-kits-open-source-support-your-genai-creativity?ref=txm87x

Argo – Your AI Smart Companion Robot

Guess what? There’s a new robot in town: Argo, the AI Smart Companion Robot for your home! „How is it possible that in 2024 we still don’t have personal robots in our homes?“ 

This very question sparked the creation of Argo. And who better to tackle this challenge than three innovators who have built driverless cars, drones, rockets, and space robotic arms? Their vision: to create the smart personal home robot we’ve been waiting for! 

Argo excels in three main areas: 

INTELLIGENCE: ChatGPT-level conversational abilities, smart home integration (domotics) and autonomous navigation to move and follow you around your home.

SECURITY: 24/7 video surveillance, autonomous patrolling to check every room, motion detection for intruders, and even gas leak monitoring. 

ENTERTAINMENT: From playing your favorite music to autonomously delivering drinks, Argo makes everyday life more enjoyable, with fun features like the morning alarm or the ed-tech games for your kids. 

But that’s just the start. To explore all of Argo’s features, visit their website: argorobot.it

The intuition behind Argo is that today we still have basic vocal assistants, static boxes used just to set timers, play music. In some years, we will have humanoid robots doing laundry and cooking for us. Will we switch overnight from Alexa to fully humanoid robots? Probably not. Argo is that essential step in between, and it will keep evolving day by day. 

So Argo isn’t just „Alexa on wheels.“ With its mobility, interactive animations and true conversational AI, Argo delivers an entirely different user experience: one that feels more alive and engaging than simply talking to a static device. 

As the famous roboticist Tomotaka Takahashi once said: „Having people talk to a brick doesn’t work, which is why Siri hasn’t succeeded.“ 

So Argo is an interactive companion, your AI chatty buddy and your infinite source of knowledge! 

Sure, we’ve seen other unfortunate attempts in home robots before, like Kuri or Jibo, which were true pioneers. However, the technology back then wasn’t quite there. AI, LLMs and autonomous navigation systems were still in their infancy. Today, we have the tools to push the boundaries even further and at a fraction of the cost. 

When you compare Argo to other robots on the market like Vector or Loona, while impressive, they tend to lean more toward toy-like design and functionality. And then there’s Amazon Astro, a high-tech marvel, but at $1,600 its price tag doesn’t align with the value it offers. Argo strikes the perfect balance: it’s more sophisticated, less of a toy and significantly more affordable, targeting a $499 price point. 

We’re seeing tech giants like Amazon and Apple (project J595) getting serious about this space, and it’s clear that smarter home robots are coming. Argo is here to be part of that revolution!

Do you want to share your ideas about home robots? Fill this quick survey to help Argo guys to craft the best home robot for you: https://forms.gle/MmNLc15wH5invino9 

Erfolgreiche Kickstarter-Kampagne: MD Robot Kit fördert Kreativität und Bildung in der Robotik

Das Kickstarter-Projekt „MD Robot Kit: Unlock your AI Robot Engineering Dream Job“ von MangDang zielt darauf ab, die Kreativität und das technische Know-how von Robotik-Enthusiasten zu fördern. Es bietet zwei Hauptroboter, die jeweils unterschiedliche Bedürfnisse und Interessen ansprechen.

Der erste Roboter, der Mini Pupper, ist in mehreren Versionen erhältlich, darunter Mini Pupper 1, Mini Pupper 2 sowie die Modelle 2G und 2GA. Dieser Roboter ist ein kostengünstiges, persönliches Quadruped-Kit, das mit Open-Source-Software ausgestattet ist. Der Mini Pupper unterstützt multimodale generative KI-Plattformen wie ChatGPT von OpenAI, Gemini von Google und Claude von AWS. Zudem ist er mit ROS1 und ROS2 kompatibel, was seine Fähigkeiten in den Bereichen SLAM (Simultaneous Localization and Mapping) und Navigation erweitert. Die Integration von OpenCV ermöglicht es dem Roboter, Deep Learning mit Kameras durchzuführen. Dank der Nutzung von Raspberry Pi und Arduino bietet der Mini Pupper eine hohe Anpassungsfähigkeit und Erweiterbarkeit, was ihn ideal für Entwickler macht, die ihre eigenen Projekte realisieren möchten.

Der zweite vorgestellte Roboter ist der Turtle Robot, der bald verfügbar sein wird. Dieser Roboter richtet sich speziell an Schulen, Homeschooling-Familien und Roboter-Enthusiasten. Während detaillierte Spezifikationen noch nicht vollständig veröffentlicht wurden, ist klar, dass der Turtle Robot ebenfalls darauf abzielt, das Lernen und die Kreativität im Bereich der Robotik zu unterstützen.

Die Kampagne selbst hat ein Finanzierungsziel von 9000€ gesetzt und dieses mit einer erreichten Summe von knapp 19000€ , was über 200% des ursprünglichen Ziels entspricht, deutlich übertroffen. Die Kampagne läuft vom 5. September 2024 bis zum 5. Oktober 2024 und zog bisher 80 Unterstützer an. Ein herausragendes Merkmal der MD Robot Kits ist ihre Open-Source-Natur, die es den Nutzern ermöglicht, die Roboter in weniger als einer Stunde zusammenzubauen. Dies macht sie besonders zugänglich für eine breite Zielgruppe, die von Bildungseinrichtungen bis hin zu DIY-Enthusiasten reicht. Das Projekt ist darauf ausgelegt, nicht nur technisches Wissen zu vermitteln, sondern auch die Freude an der Schaffung und Anpassung von Robotern zu fördern.

Roboter

1. Mini Pupper:

  • Versionen: Mini Pupper 1 (2021), Mini Pupper 2 (2022), Mini Pupper 2G & 2GA.
  • Design: Ein kostengünstiges, persönliches Quadruped-Kit mit Open-Source-Software.
  • Funktionen: Unterstützt multimodale generative KI wie ChatGPT von OpenAI, Gemini von Google und Claude von AWS. Es ist kompatibel mit ROS1 und ROS2 für SLAM & Navigation und basiert auf OpenCV für Deep Learning mit Kameras.
  • Erweiterbarkeit: Nutzt Raspberry Pi und Arduino, was hohe Anpassungsfähigkeit ermöglicht.
  • Open-Source-Plattform: Der Mini Pupper unterstützt das Robot Operating System (ROS) und bietet Funktionen wie SLAM (Simultaneous Localization and Mapping) und Navigation. Er ist mit Lidar- und Kamerasensoren ausgestattet, die es ihm ermöglichen, seine Umgebung zu kartieren und sich autonom zu bewegen.
  • Technische Spezifikationen: Der Roboter verfügt über 12 Freiheitsgrade, die durch fortschrittliche Servomotoren ermöglicht werden. Diese Motoren bieten Feedback zu Beschleunigung und Kraft, was eine präzise Steuerung erlaubt.
  • Hardware und Erweiterbarkeit: Der Mini Pupper nutzt den Raspberry Pi 4B oder das Raspberry Pi Compute Module 4 als zentrale Recheneinheit und ist mit einem ESP32 als Mikrocontroller ausgestattet. Er verfügt über ein IPS-Display mit einer Auflösung von 240 x 320 Pixeln, ein Mikrofon, Lautsprecher und einen Touch-Sensor.
  • Anpassungsfähigkeit: Dank seiner Open-Source-Natur kann der Mini Pupper tiefgreifend modifiziert werden. Nutzer können eigene Module hinzufügen und den Roboter für verschiedene Projekte anpassen, wie z.B. das Verfolgen von Objekten im Raum.
  • Bildung und Community: Der Mini Pupper ist ideal für Schulen und Homeschooling-Familien geeignet. Er wird mit umfassenden Anleitungen und Ressourcen geliefert, die den Einstieg in die Robotik erleichtern. Nutzer können Teil einer globalen Community werden, um Ideen auszutauschen und Unterstützung zu erhalten.
  • Preis und Verfügbarkeit: Im Rahmen der Kickstarter-Kampagne wird der Mini Pupper in verschiedenen Versionen angeboten, wobei das Basismodell etwa 479 Euro kostet. Die Auslieferung soll im Februar beginnen, wobei Unterstützer das finanzielle Risiko von Crowdfunding-Kampagnen beachten sollten.

2. Turtle Robot:

  • Open-Source-Projekt: Der Turtle Robot basiert auf Arduino und ist ein Open-Source-Projekt, das die Integration von generativer KI unterstützt. Dies ermöglicht den Nutzern, den Roboter individuell anzupassen und zu erweitern.
  • Erschwinglichkeit: Der Turtle Robot ist eine kostengünstige Lernplattform für multimodale generative KI und wird zu einem Einführungspreis von 60% Rabatt auf 99 US-Dollar angeboten. Dies macht ihn besonders attraktiv für Bildungseinrichtungen und DIY-Enthusiasten.
  • Benutzerfreundlichkeit: Der Roboter ist so konzipiert, dass er innerhalb einer Woche aufgebaut und in Betrieb genommen werden kann. Dies erleichtert es Anfängern, schnell mit dem Lernen und Experimentieren zu beginnen.
  • Unterstützung und Ressourcen: MangDang bietet umfassende Unterstützung über verschiedene Kanäle sowie Zugang zu allen Code- und Design-Dateien über ein GitHub-Repository. Nutzer können die STL-Design-Dateien ausdrucken und ihre eigenen Ideen einbringen.
  • Multimodale Generative KI: Der Turtle Robot nutzt fortschrittliche KI-Technologien, die kontinuierliche Sprachinteraktionen ermöglichen. Die KI kann sich an frühere Gespräche erinnern und darauf basierend personalisierte Antworten geben.
  • Anwendungsbeispiele: Es gibt zwei Arduino-Projekte, die mit dem Turtle Robot genutzt werden können: eines zum Testen einzelner Funktionen und ein weiteres, das alle Funktionen über Sprachsteuerung ausführt.
  • Verfügbarkeit: Der Turtle Robot war im Rahmen der Kickstarter-Kampagne bis Oktober 2024 erhältlich und wird danach in einem Online-Shop verfügbar sein.

https://www.kickstarter.com/projects/mdrobotkits/md-robot-kits-open-source-support-your-genai-creativity?ref=txm87x

Thanks to AI, the new educational robot MAKEBLOCK mBot2 can even be controlled via facial expressions and reproduces feelings

The mBot2 programming robot replaces the globally successful mBot1 after 8 years and inspires with state-of-the-art sensor technology, new motors and a brand new AI control board in a familiar design. For children, teachers and tinkerers who want to learn more about computer science, STEM, IoT, AI and block-based coding through play

Ubstadt-Weiher, 29.04.2021 – Over the past eight years, the educational robot mBot from MAKEBLOCK has not only taught millions of children, students, teachers and aspiring programmers complex STEM (science, technology, engineering, mathematics) relationships in a playful way, but also put a smile on their faces after completing successful missions. And the success story continues with the new mBot2: Under the carefully modified shell, which is now made of robust aluminum, concentrated state-of-the-art technology is packed that enables countless new programming and application possibilities. The most striking thing at first glance are the next-generation ultrasonic sensors, which look at you in bright blue. Who can resist this seductive look? The blue „eyes“ are not only suitable for precise distance measurement, they also convey emotions with the help of the controllable ambient lighting. The mBot2 almost seeks eye contact with the little programmers, because AI image recognition can be used to control speed via facial expressions, for example.

The „brain“ of the mBot2 is the powerful CyberPi microcontroller with integrated color display, speaker, microphone, light sensor, gyroscope, RGB display and more. The built-in WiFi and Bluetooth module allows you to connect to the Internet for smart functions such as speech recognition, speech synthesis, LAN broadcast and uploading data to Google Sheets. The mBot2 is currently the most exciting toy robot to build yourself (only a screwdriver required), versatile expandable and with great design freedom in programming, which also makes the inner workings of a robot tangible: Available now for an RRP of 139 EUR (incl. VAT) in the Solectric online shop.

mBot2 communicates with its environment – powered by CyberPi

One of the most important innovations of the mBot2 compared to the previous version is its network capability with the help of the CyberPi microcomputer. The programmable powerhouse, in combination with the mBlock coding editor, is a practical learning aid for computer science and AI education and sets hardly any limits to children’s play instinct. Teachers have the option of using Google Classroom, for example, to conduct interactive and advanced lessons in which several mBot2 communicate with each other via the Internet. In this way, the data from various devices can be collected, visualized and processed and initial programming for AI and IoT (Internet of Things) applications can be learned. 

„The small educational robot mBot2 makes programming child’s play and encourages children to play creatively and interactively,“ explains Alexander Hantke, Head of Solectric Education. „For children who are interested in electronics, robotics and programming, the mBot2 is the ideal gift. Especially when children realize how other family members are also enthusiastic about the topic, they are often carried away by it. But it’s also important to let children make their own mistakes with the mBot2 in order to keep the fun factor high over a long period of time.“

The CyberPi controller with a 1.44″ full-color display for displaying data, images and other information can be used not only as the robot’s data center, but also as a handheld device such as a game controller or monitoring device. The built-in memory and operating system make it possible to store and manage up to eight programs in the controller. 

It gets really exciting when connecting multiple mBots2 creates a local network of robots that communicate with each other, share information, and perform tasks. If the mBot2 are connected to the Internet, they can perform advanced functions such as voice recognition, connect to a cloud or retrieve weather information. Maximum precision in controlling the rotation, speed and position of the wheels and the robot is promised by the 3-axis gyroscope installed in the CyberPi and the accelerometer for the optical encoder motors, which have a torque of 1.5 kg-cm, a maximum speed of 200 rpm and a detection accuracy of 1°.

mBlock – the powerful coding platform for easy entry into computer science and STEM lessons

The programmable robot helps kids learn how to code step-by-step through interactive drag-and-drop software. With the extensive tutorials and the included project cases, the young explorers can start with graphical programming and use the programming languages Scratch or Arduino C with one click. The mBlock software is compatible with Windows, macOS, Linux and Chromebook and also supports Android and iOS. Together with mBlock, the mBot2 becomes a powerful tool to get in touch with advanced technologies such as AI, IoT, and data science. Students start with block-based coding and move on to Python coding as they gain experience. The Python Editor supports the young programmers with smart functions such as intelligent autocomplete and syntax highlighting.

Extensible with mBuild modules and Makeblock components

The mBot2 can extend the radius of action with more than 60 different mBuild modules and connect up to 10 different sensors, motors, LEDs or other components in series at the same time. A micro-controller unit (MCU) is built into each module, which allows the modules to be connected without prior disconnection or a specific order. Meanwhile, add-on packages are also available for this programmable robot for children (not included) to teach programming, robotics, electronics and construction, while students can program and execute interactive missions through hands-on learning. 

The mBot2 is equipped with a 2,500 mAh battery in the so-called mBot2 Shield, which can be conveniently charged via a USB C cable. The mBot2 Shield also has two connectors for encoder motors, two connectors for DC motors, and four connectors for servos. Some of the servo connectors can be connected to LED strips and analog/digital Arduino sensors.

For more information, please visit the Solectric online store: https://shop.solectric.de/educational/makeblock/mbot/3729/makeblock-mbot-2?c=4807