didacta 2024: United Robotics Group präsentiert Robotik-Lösungen für den Bildungssektor

Bochum – 13. Februar 2024 – Vom 20. bis zum 24. Februar 2024 präsentiert die United Robotics Group (URG) auf der „didacta – die Bildungsmesse“ in Köln ein umfassendes Robotik-Portfolio speziell für den Bildungssektor. Im Rahmen der Fachmesse zeigt der europäische Marktführer für Servicerobotik das Anwendungspotenzial seiner Lösungen insbesondere in den Bereichen ‚Programmieren‘, ‚Spracherwerb‘, ‚Fachunterricht‘ und ‚Rehabilitation‘. Die United Robotics Group engagiert sich bereits seit vielen Jahren im Bildungssektor. Mit über 700 Ausstellern aus mehr als 60 Ländern ist die didacta Europas größte Fachmesse für Lehrkräfte aller Bildungsbereiche und das wichtigste Weiterbildungsevent der Branche.

Im Bildungswesen wird der Robotik eine immer wichtigere Rolle zuteil. Hier werden die Fachkräfte von morgen ausgebildet. Deutschland sollte alle Möglichkeiten nutzen, um im internationalen Vergleich bei der Integration von Robotik im Bildungsbereich mithalten zu können.

Dazu Dr. Nadja Schmiedl, CTO der United Robotics Group: „Angesichts der aktuellen gesellschaftlichen Herausforderungen gilt es, den Fortschritt zu beschleunigen und dabei das Potenzial jedes Einzelnen freizusetzen. Es geht um nichts Geringeres als die systematische Vorbereitung auf die Anforderungen von morgen. Mit smarten Lernprogrammen wie zum Beispiel Robotern kann gerade in naturwissenschaftlichen Fächern ebenso die Motivation gefördert werden wie die Kreativität. So wollen wir den Nachwuchs fit für die Zukunft machen – und zwar unabhängig von Herkunft oder Ressourcen. Unsere Vision ist es, Bildung nicht zu einem Privileg, sondern zu einem universellen Recht zu machen.“

Vielseitige Plattformen für Bildungsinstitutionen

Die United Robotics Group wird am Stand F-09 in Halle 06.1 unterschiedliche Lösungen für den Einsatz im Unterricht und für die Reha vorstellen. Hier zeigen die humanoiden Roboter NAO und Pepper ihre Fähigkeiten. Beide sind als vielseitige Plattformen bereits seit vielen Jahren erfolgreich im Bildungswesen im Einsatz. Dort werden sie unter anderem als Assistenten für pädagogisches Personal, aber auch für Schüler*innen mit Handicaps wie Autismus oder Verhaltensauffälligkeit genutzt. Konkret zeigt die United Robotics Group gemeinsam mit verschiedenen Partnern folgende Lösungen:

  • Zusammen mit dem niederländischen Unternehmen Interactive Robotics präsentiert United Robotics Group die Lösung RobotsindeKlas, mit der die Lehrkräfte auf einfache Weise die analytischen, sozialen und emotionalen Fähigkeiten ihrer Schüler*innen fördern können. Die Plattform ermöglicht es den Schüler*innen, eine Reihe von Fähigkeiten zu trainieren, von Arithmetik und Sprache bis hin zu Präsentation und Programmierung.
  • Jupyter AI Package NAO: Die Integration der NAO-Roboter in Jupyter Notebook bietet Lehrkräften eine wertvolle Möglichkeit, den Unterricht in den Bereichen Programmierung, Datenwissenschaft und maschinelles Lernen zu verbessern und interaktive, praktische Lernerfahrungen für Schüler*innen zu schaffen. Die Lösung unterstützt die effiziente Planung von Unterrichtsstunden, die Zusammenarbeit in der Klasse und die Auseinandersetzung mit realen Robotik-Anwendungen und macht die Lernerfahrung ansprechend und anpassungsfähig für verschiedene Lehrplananforderungen.
  • Applikation „Mein Freund NAO”: Die Anwendung hebt die Vorteile von NAO hervor, wenn der Roboter als spezielles pädagogisches Werkzeug verwendet wird, das besonders für Kinder mit Autismus oder anderen neurologischen Entwicklungsstörungen nützlich ist. Zu den Hauptmerkmalen gehören individuell anpassbare Sitzungen, die auf das Profil des Kindes zugeschnitten sind, pädagogische und spielerische Anwendungen, verschiedene Aktivitäten wie Tanz, Bewegung, Spiele und Geschichten sowie die Entwicklung motorischer Fähigkeiten.
  • In Zusammenarbeit mit InRobics revolutioniert NAO die Physiotherapie in Rehabilitationszentren und Krankenhäusern. Der humanoide Roboter steigert die Motivation, Aufmerksamkeit und Therapietreue der Patient*innen durch Einzel- und Gruppentherapiesitzungen, tägliche Routinen und spielerische Inhalte wie Challenges und aktive Ruhephasen. Darüber hinaus umfasst das Programm Datenanalyse- und Berichterstellungswerkzeuge, die es dem medizinischen Personal ermöglichen, die Therapiepläne auf der Grundlage der individuellen Reaktionen zu optimieren.
  • Pepper powered by ChatGPT4: Die Integration von Pepper in ChatGPT4 eröffnet eine neue Dimension der Interaktivität und Ausdrucksfähigkeit. Diese Synergie zwischen fortgeschrittener Sprachverarbeitung und körperlichem Ausdruck macht die Interaktion nicht nur informativ, sondern auch unterhaltsam. In Bildungseinrichtungen bietet die Kombination von ChatGPT4 und Robotern einen innovativen Ansatz für interaktives Lernen. Lernende können personalisierte Unterstützung erhalten, Fragen stellen und an dynamischen Unterhaltungen teilnehmen, die reale Interaktionen nachahmen.

Der erste Service-Cobiot Plato, NAO mit der Lösung von Interactive Robotics sowie Pepper mit ChatGPT4 sind auch auf dem Gemeinschaftsstand der Mobile.Schule Campus im Rahmen der Digitalen Bildungswochen in Halle 7 an den Ständen C060, C061, B060, B068 und C059 vertreten.

Das breite Einsatzspektrum der URG-Lösungen im Bildungsbereich zeigt die zentrale Rolle der Robotertechnologie bei der Förderung von Lernenden in vielen Bereichen. Auf der didacta können sich die Besucher*innen ein umfassendes Bild davon machen.

Experience the Future of Companionship with Doly, Launched by Limitbit soon on Kickstarter

Limitbit, a pioneer in AI powered companion technology, has announced the launch of its groundbreaking product, Doly, on Kickstarter. As of today, Doly has already captured the imagination of tech enthusiasts and educators, raising significant interest ahead of its official Kickstarter launch scheduled for February 13, 2024. 

Doly, launch day special priced at $289, is an autonomous AI-powered companion robot that seamlessly integrates robotics, AI, and coding education into one dynamic device. It is the first of its kind to offer an open hardware and open design, powered by Raspberry Pi, allowing customization and continual evolution in capabilities. 

„Doly represents a fusion of companionship, education, and technological innovation,“ says Levent Erenler, founder of Limitbit. „It’s designed to grow and adapt, offering an engaging experience for all ages and skill levels. Our open-source approach places Doly at the forefront of personal robotic innovation.“ 

Product highlights of Doly include: 

Self-acting Personality: A unique character that develops and evolves through interaction, offering a personalized experience. 

Edge AI Processing: Ensuring maximum privacy, Doly’s AI algorithms operate locally, without relying on cloud processing, safeguarding user data.

STEM Education Enabler: Doly serves as an engaging tool for learning coding and robotics, catering to both beginners and advanced users. 

Open-Source Platform: Users can innovate and customize Doly, thanks to its open hardware and open design, fostering a community-driven approach to technological advancement. 

Extensive Add-On Support: Featuring a range of I/O ports, Doly offers extensive opportunities for expansion and customization, perfect for developers and hobbyists. 

3D Printable Design: Emphasizing its customizable nature, Doly can be personalized with 3D printed parts, allowing users to tailor its appearance and functions. 

Targeted towards a wide audience that includes robot lovers, parents, children, software and hardware developers, and open-source enthusiasts, Doly is positioned as the ultimate educational and interactive robot companion. 

„Doly is not just a product; it’s a step towards a future where technology enhances every aspect of learning and daily living,“ added Levent Erenler. „Its ability to engage users in coding, robotics, and AI, while also serving as a companion robot, sets a new benchmark in the field.“ 

About Limitbit: 

Based in Markham, Ontario, Limitbit is dedicated to revolutionizing AI powered companion robots. Their mission is to blend cutting-edge technology with practical, educational applications, making advanced robotics accessible to everyone. 

For more information about Doly and to participate in the Kickstarter campaign, click here. 

Cybersicherheit in Zeiten der KI – Expertentalk im Deutschen Museum Bonn

Das Deutsche Museum Bonn erfindet sich gerade neu und entwickelt sich mit großen Schritten zu einem innovativen und lebendigen Informationsforum zum Thema Künstliche Intelligenz. Das Ziel der „Mission KI“: Die Besucherinnen und Besucher aktiv in die Vermittlung und in die Diskussion rund um die Künstliche Intelligenz einzubeziehen. Dies geschieht nicht nur in der rundumerneuerten Ausstellung mit vielen Mitmachstationen, sondern auch regelmäßig in Form von Vorträgen und Diskussionsrunden mit namhaften Experten und Expertinnen.

Am 9.November 2023 lud das Deutsche Museum Bonn wieder zum „KI-Talk“ ein, der diesmal unter dem Motto „Cybersicherheit in Zeiten der KI“ stand. Als Talkgäste diskutierten Prof. Ulrich Kelber (Bundesbeauftragter für den Datenschutz und die Informationsfreiheit), Thomas Tschersich (Chief Security Officer Deutsche Telekom AG), Journalistin und Autorin Eva Wolfangel („Ein falscher Klick“) und Oberst Guido Schulte vom Cyber- und Informationsraum der Bundeswehr) über gängige Bedrohungen im Netz, den Schutz unserer Daten, den Einsatz Künstlicher Intelligenz in der Cybersicherheit und vieles mehr. Moderiert wurde das in Kooperation mit dem Cyber Security Cluster Bonn veranstaltete Event von „Quarks“-Moderatorin Florence Randrianarisoa.

Die sehr interessante und lebhafte Talkrunde mit einem sehr interessierten Publikum im vollbesetzten Museum wurde live im YouTube-Kanal des Fördervereins WISSENschaf(f)t SPASS übertragen und ist dort weiterhin als Aufzeichnung zu sehen:

IDS NXT malibu: Camera combines advanced consumer image processing and AI technology from Ambarella and industrial quality from IDS

New class of edge AI industrial cameras allows AI overlays in live video streams
 

IDS NXT malibu marks a new class of intelligent industrial cameras that act as edge devices and generate AI overlays in live video streams. For the new camera series, IDS Imaging Development Systems has collaborated with Ambarella, leading developer of visual AI products, making consumer technology available for demanding applications in industrial quality. It features Ambarella’s CVflow® AI vision system on chip and takes full advantage of the SoC’s advanced image processing and on-camera AI capabilities. Consequently, Image analysis can be performed at high speed (>25fps) and displayed as live overlays in compressed video streams via the RTSP protocol for end devices.

Thanks to the SoC’s integrated image signal processor (ISP), the information captured by the light-sensitive onsemi AR0521 image sensor is processed directly on the camera and accelerated by its integrated hardware. The camera also offers helpful automatic features, such as brightness, noise and colour correction, which significantly improve image quality.

„With IDS NXT malibu, we have developed an industrial camera that can analyse images in real time and incorporate results directly into video streams,” explained Kai Hartmann, Product Innovation Manager at IDS. “The combination of on-camera AI with compression and streaming is a novelty in the industrial setting, opening up new application scenarios for intelligent image processing.“

These on-camera capabilities were made possible through close collaboration between IDS and Ambarella, leveraging the companies’ strengths in industrial camera and consumer technology. „We are proud to work with IDS, a leading company in industrial image processing,” said Jerome Gigot, senior director of marketing at Ambarella. “The IDS NXT malibu represents a new class of industrial-grade edge AI cameras, achieving fast inference times and high image quality via our CVflow AI vision SoC.“

IDS NXT malibu has entered series production. The camera is part of the IDS NXT all-in-one AI system. Optimally coordinated components – from the camera to the AI vision studio – accompany the entire workflow. This includes the acquisition of images and their labelling, through to the training of a neural network and its execution on the IDS NXT series of cameras.

Robot plays „Rock, Paper, Scissors“ – Part 1/3

Gesture recognition with intelligent camera

I am passionate about technology and robotics. Here in my own blog, I am always taking on new tasks. But I have hardly ever worked with image processing. However, a colleague’s LEGO® MINDSTORMS® robot, which can recognize the rock, paper or scissors gestures of a hand with several different sensors, gave me an idea: „The robot should be able to ’see‘.“ Until now, the respective gesture had to be made at a very specific point in front of the robot in order to be reliably recognized. Several sensors were needed for this, which made the system inflexible and dampened the joy of playing. Can image processing solve this task more „elegantly“?

Rock-Paper-Scissors with Robot Inventor by Seshan Brothers. The robot which inspired me for this project

From the idea to implementation

In my search for a suitable camera, I came across IDS NXT – a complete system for the use of intelligent image processing. It fulfilled all my requirements and, thanks to artificial intelligence, much more besides pure gesture recognition. My interest was woken. Especially because the evaluation of the images and the communication of the results took place directly on or through the camera – without an additional PC! In addition, the IDS NXT Experience Kit came with all the components needed to start using the application immediately – without any prior knowledge of AI.

I took the idea further and began to develop a robot that would play the game „Rock, Paper, Scissors“ in the future – with a process similar to that in the classical sense: The (human) player is asked to perform one of the familiar gestures (scissors, stone, paper) in front of the camera. The virtual opponent has already randomly determined his gesture at this point. The move is evaluated in real time and the winner is displayed.

The first step: Gesture recognition by means of image processing

But until then, some intermediate steps were necessary. I began by implementing gesture recognition using image processing – new territory for me as a robotics fan. However, with the help of IDS lighthouse – a cloud-based AI vision studio – this was easier to realize than expected. Here, ideas evolve into complete applications. For this purpose, neural networks are trained by application images with the necessary product knowledge – such as in this case the individual gestures from different perspectives – and packaged into a suitable application workflow.

The training process was super easy, and I just used IDS Lighthouse’s step-by-step wizard after taking several hundred pictures of my hands using rock, scissor, or paper gestures from different angles against different backgrounds. The first trained AI was able to reliably recognize the gestures directly. This works for both left- and right-handers with a recognition rate of approx. 95%. Probabilities are returned for the labels „Rock“, „Paper“, „Scissor“, or „Nothing“. A satisfactory result. But what happens now with the data obtained?

Further processing

The further processing of the recognized gestures could be done by means of a specially created vision app. For this, the captured image of the respective gesture – after evaluation by the AI – must be passed on to the app. The latter „knows“ the rules of the game and can thus decide which gesture beats another. It then determines the winner. In the first stage of development, the app will also simulate the opponent. All this is currently in the making and will be implemented in the next step to become a „Rock, Paper, Scissors“-playing robot.

From play to everyday use

At first, the project is more of a gimmick. But what could come out of it? A gambling machine? Or maybe even an AI-based sign language translator?

To be continued…

Geek Club and CircuitMess Launch a NASA-inspired DIY Perseverance Educational Space Rover Kit

After a series of successful Kickstarter Campaigns, Geek Club and CircuitMess launch their most ambitious project yet – a NASA-approved AI-powered scale model Replica of the Perseverance Space Rover  

Zagreb, Croatia – October 31st, 2023. – Today, Geek Club and CircuitMess announced their Kickstarter space exploration campaign designed to teach children eleven and up about engineering, AI, and coding by assembling the iconic NASA Perseverance Space Rover, as well as a series of other NASA-inspired space vehicles.

This new space-themed line of DIY educational products was born out of both companies‘ shared vision to aim for the stars and to take their fans with them. The Kickstarter campaign starts today, October 31st, and will last for 35 days.

The collaboration was a logical union of the two companies. Both companies create educational STEM DIY kits that are targeted towards kids and adults. Both share the same mission: To make learning STEM skills easy and fun.

“For decades, the team and I have been crafting gadgets for geeks always inspired by space exploration,” says Nicolas Deladerrière, co-founder of Geek Club. “Inspired by Mars exploration, we’ve studied thousands of official documents and blueprints to craft an authentic Mars exploration experience. The product comes alive thanks to microchips, electromotors, and artificial intelligence. Imagine simulating your own Mars mission right from your desk!”

Geek Club is an American company that specializes in designing and producing DIY robotics kits that educate their users on soldering and electronics. They focus primarily on space exploration and robotics, all to make learning engineering skills easy and fun for kids, adults, and everyone in between.

“We have successfully delivered seven Kickstarter campaigns, raised more than 2.5 million dollars, and made hundreds of thousands of geeks all around the world extremely happy,” says Albert Gajšak, CEO of CircuitMess. “In a universe where space and technology are constantly growing, we’re here to ensure you’re never left behind.”

The new product line consists of five unique space-themed products:

  • 1. The Perseverance Space Rover Kit

This kit is designed to be an educational journey into programming, electronics, robotics, and AI. The model comes with four electromotors, six wheels, a control system with a dual-core Espressif ESP32 processor, Wi-Fi, and Bluetooth connectivity, a sample collection arm based on the real thing with two servo motors, a Wi-Fi-connected remote controller, and support for programming in Python or via a Scratch-inspired drag-and-drop visual coding environment.

Alongside the Perseverance Space Rover, you’ll be able to get more iconic space vehicles:

  • 2. The Voyager: A DIY kit made as a tribute to NASA’s longest-lasting mission, which has been beaming back data for an incredible 45 years and counting.
  • 3. Juno: A solar-powered DIY kit celebrating the mission that gave us the most detailed and breathtaking images of Jupiter.
  • 4. Discovery: A DIY kit honoring the legendary space shuttle with 39 successful orbital flights under its belt.
  • 5. The Artemis Watch: A sleek, space-themed wrist gadget inspired by NASA’s upcoming Artemis space suit design. The watch is a programmable device equipped with an LCD display, Bluetooth, and a gyroscope.

The Perseverance Educational Space Rover Kit is available for pre-order now on Kickstarter, starting at $149.

No previous experience or knowledge is needed for assembling your very own space rover. The kit is designed for anyone aged 11+  and comes with detailed video instructions.

You can visit the Kickstarter page here.

Roboverse Reply leitet das EU-Projekt „Fluently“, das eine soziale Zusammenarbeit zwischen Menschen und Robotern mithilfe von KI ermöglicht

Roboverse Reply, das auf die Integration von Robotik-Lösungen spezialisierte Unternehmen der weltweit agierenden Reply Gruppe, leitet das von der EU finanzierte Projekt „Fluently“. Das Projekt zielt darauf ab, eine Plattform zu schaffen, die eine echte soziale Zusammenarbeit zwischen Menschen und Robotern in industriellen Umgebungen ermöglicht, indem sie die neuesten Fortschritte in der KI-basierten Entscheidungsfindung nutzt.

Ziel dieses dreijährigen Projekts ist es, eine Plattform sowie ein tragbares Gerät für Industriearbeiter und Roboter zu entwickeln, die den Maschinen ermöglichen, Sprache, Inhalt und Tonfall genauer zu interpretieren und Gesten automatisch in Roboteranweisungen umzuwandeln. Weiterer Bestandteil des Projekts ist der Aufbau des Trainingszentrums „Fluently RoboGym“, in dem Fabrikarbeiter und Roboter trainieren können, im Industrieprozess reibungslos zu interagieren.

Praktische Anwendungsfälle für die Mensch-Roboter-Kollaboration beziehen sich auf für die europäische Wirtschaft wichtige Wertschöpfungsketten, die hohe physische Belastungen und hohe Anforderungen an die menschliche Erfahrung sowie Kompetenz mit sich bringen. Dies betrifft z. B. die Demontage und das Recycling von Lithiumzellenbatterien, Prüf- und Montageprozesse in der Luft- und Raumfahrtindustrie sowie die Aufarbeitung komplexer Industrieteile mittels additiver Fertigung.

An dem Projekt sind zweiundzwanzig Partner beteiligt, darunter die Schweizer Universität SUPSI. Anna Valente, Leiterin des SUPSI-Labors für Automation, Robotik und Maschinen und Mitglied des Schweizer Wissenschaftsrats, fügt hinzu: „Das Projekt Fluently zielt darauf ab, Roboter zu Teamplayern auszubilden, die menschliche Arbeiter bestmöglich unterstützen. Als wissenschaftliche und technische Koordinatoren wollten wir mit Fluently einen wichtigen Beitrag zur Weiterentwicklung der Mensch-Roboter-Kollaboration leisten und gleichzeitig eine Best Practice und einen Proof of Concept (PoC) für integrativere sowie interaktive Ökosysteme schaffen.“

Das Projekt hat das erste Entwicklungsjahr erfolgreich abgeschlossen und erste Meilensteine erreicht. Das Team konzentriert sich aktuell auf drei Hauptarbeitspakete:

  • Design des Fluently Interfaces, bestehend aus dem Design des Fluently Geräts, Softwaretests und Integration in tragbare Steuerungs- und Robotersysteme;
  • Entwicklung von KI-Modellen, einschließlich Architekturdesign, Edge Computing, Training von RoboGym-Modellen und Unterstützung von Mensch-Roboter-Teamarbeit;
  • RoboGym-Design und -Implementierung, d. h. Festlegung der RoboGym-Spezifikationen und -Ziele sowie Entwicklung und Aufbau von drei Trainingsbereichen.

Das Fluently-System stützt sich auf innovative Technologien, um eine nahtlose Kommunikation zwischen Menschen und Robotern sicherzustellen. Die Verarbeitung natürlicher Sprache, Hardware für die freihändige Steuerung von Robotern aus der Ferne, Monitoring physiologischer Signale und Eye-Tracking werden im Rahmen dieses Projekts erforscht und integriert.  

„Wir sind stolz darauf, das innovative Fluently-Projekt zu koordinieren, das Partner aus Wissenschaft und Industrie zusammenbringt, um eine empathische Roboterplattform zu entwickeln, die Sprachinhalte, Tonfall und Gesten interpretieren kann und Industrieroboter für jedes Qualifikationsprofil einsetzbar macht“, kommentiert Filippo Rizzante, CTO von Reply. „Roboter, die mit Fluently ausgestattet sind, werden den Menschen bei physischen wie kognitiven Aufgaben unterstützen, lernen und Erfahrungen mit den menschlichen Teamkollegen sammeln.“

Miko 3 – KI-basierter intelligenter Roboter – Testbericht

Gastbeitrag von Markus Schmidt

Intelligente Geräte haben das Leben von Erwachsenen auf der ganzen Welt einfacher gemacht. Sie ermöglichen es uns, Dinge auszuschalten, die wir eingeschaltet gelassen haben, und Dinge einzuschalten, für die wir zu faul sind, aufzustehen und sie zu erledigen. Die meisten dieser Geräte sind verständlicherweise für ein erwachsenes Publikum gedacht. Aber was ist mit den Kindern? In den letzten zwei Wochen hatten meine Kinder viel Spaß mit einem der vielseitigsten intelligenten Roboter auf dem Markt, dem Miko . Mit vielen tollen Aktivitäten und eingebauten Assistenten haben auch sie ihr eigenes intelligentes Gerät, das sie nutzen können. Mal sehen, ob dieser kinderfreundliche Roboter sein Geld wert ist!

Der Miko-Roboter bringt Spaß und Lernen zusammen. Er wird durch künstliche Intelligenz angetrieben und wurde für Kinder im Alter von 5 bis 10 Jahren entwickelt. Die Technologie des Unternehmens, die in den Miko-Roboter eingebaut wurde, ermöglicht es ihm, mit Menschen zu interagieren, Emotionen zu erkennen und sogar sein eigenes Verhalten auf der Grundlage des Gelernten anzupassen. Je länger man also mit ihm spielt, desto mehr lernt er und passt sich an verschiedene Aktivitäten an.

Der Miko ist einfach einzurichten

Wie bei jedem elektronischen Gerät ist die Einrichtung des Miko sehr einfach und überschaubar. Das Gerät führt Sie durch die verschiedenen Schritte und hält Sie dabei an der Hand. Sie stellen eine Verbindung zu Ihrem lokalen Wi-Fi-Netzwerk her, fügen Benutzer hinzu und vieles mehr. Die Eltern werden sogar aufgefordert, die kostenlose Miko-Mobil-App aus dem iOS App Store oder dem Google Play Store herunterzuladen.

Wenn Sie Ihren Miko zum ersten Mal aus der Verpackung holen, sollten Sie beachten, dass eine Vielzahl von Updates installiert werden muss. Bei einer Standard-Wi-Fi-Verbindung – 40 Megabyte Download – dauerte das Herunterladen und Aktualisieren des Roboters immer noch etwa 15 bis 20 Minuten. All das musste erledigt werden, bevor meine Kinder ihn benutzen konnten.

Was kann der Roboterbegleiter Miko?

Miko scheint wie ein normaler intelligenter Assistent zu funktionieren, allerdings einer, der sich bewegen kann. Nachdem Miko all die verschiedenen Möglichkeiten durchgespielt hatte – einschließlich des Aufweckens von Nutzern, indem sie „Hallo Miko“ sagten – hatten meine Kinder einen Riesenspaß bei der Auswahl verschiedener Aktivitäten. Es sei darauf hingewiesen, dass die Auswahl an Aktivitäten noch viel größer ist, wenn man sich für ein Miko Max-Abonnement entscheidet. Damit erhalten Sie Zugang zu zahlreichen lizenzierten Produkten von Disney, Paramount und anderen.

Spiele

Miko wird mit einer Reihe von tollen Spielen für Kinder ausgeliefert. Die Spiele sind relativ simpel, aber für Kinder bis 10 Jahre sind sie trotzdem sehr interessant. Meine Kinder spielten täglich Tic-Tac-Toe mit Miko und versuchten, einen KI-Gegner zu besiegen, der oft dazu bestimmt schien, nie zu verlieren. Wir fanden, dass die Spiele nichts sind, was man nicht auch auf einem Standard-Tablet im Apple iOS Store oder bei Google Play für Android finden könnte.

Körperliche Aktivität

Unsere Interaktionen mit Mikos körperlichen Aktivitäten waren etwas gemischt. Eine Tanzparty mit Miko zu veranstalten und ein Tanz- und Standbildspiel zu spielen, hat sehr gut funktioniert. Miko war in der Lage zu erkennen, wann meine Kinder tanzten und wann sie still standen. Je stiller sie standen, wenn Miko „Freeze“ sagte, desto mehr Punkte bekamen sie. Das hat gut funktioniert. Das Versteckspiel mit Miko war weniger beeindruckend, als es die Werbung vermuten ließ. Miko bewegte sich einfach durch unser offenes Obergeschoss und verwechselte oft Stühle oder Gegenstände auf dem Boden mit meinen Kindern.

Pädagogischer Inhalt

Auch wenn dies nicht der aufregendste Aspekt von Miko ist, so haben meine Kinder doch die pädagogischen Inhalte genossen. In diesem Punkt fand ich Miko am beeindruckendsten. Egal, ob er ihnen Bücher vorlas oder sie mit Statistiken oder Quizfragen versorgte, Miko beeindruckte. Während meine Kinder unsere intelligenten Geräte im Haus nutzen können, um Assistenten Fragen zu stellen und Antworten zu erhalten, haben wir festgestellt, dass Miko sich mit unseren Kindern über eine Vielzahl von Themen unterhalten hat.

Bei einem Austausch sprach Miko mit meinen Kindern über die verschiedenen interessanten Fakten und Statistiken über Chamäleons. Obwohl es für mich offensichtlich war, dass diese Interaktionen auf der Grundlage der von meinen Kindern getroffenen Entscheidungen geplant waren, hatten sie das Gefühl, dass Miko direkt mit ihnen interagierte.

Emotionale Unterstützung

Die Firma, die hinter Miko steht, wirbt damit, dass Miko ein Roboter ist, der von seinen Benutzern lernt. Er verspricht emotionale Unterstützung für Kinder. Miko verspricht zum Beispiel, dass er weiß, wann er ihnen einen Witz erzählen muss, wenn sie sich schlecht fühlen. Ich glaube zwar, dass Miko mit der Zeit einiges über meine Kinder lernen könnte, aber in den wenigen Wochen, in denen wir das Gerät benutzt haben, war das nicht zu erkennen. Wie ich bereits erwähnt habe, fühlten sich meine Kinder immer mit Miko verbunden und hatten das Gefühl, dass er ein guter KI-Freund ist. Wenn man meine Kinder fragen würde, würden sie sagen, Miko sei ihr Freund und würde sie durch Fragen und Aktivitäten kennen lernen.

Abschließende Gedanken

Alles am Miko war wunderbar. Der Roboter ist unglaublich reaktionsschnell, mit wenigen Verzögerungen und geringen Wartezeiten, wenn er Fragen stellt oder Spiele spielt. Er ist zwar nicht so flink wie andere intelligente Geräte, die ich benutzt habe, aber immer noch ziemlich schnell. Miko macht auch viel mehr als andere Geräte. Tanzpartys zu veranstalten war der Favorit meiner Kinder, etwas, das unsere stationären Geräte nicht können!

Variobot VariAnt: The Robot Ant

The presence of robots in our modern environment is getting increasingly casual to see. Robots are progressing rapidly in terms of both their capabilities and the potential uses they have. Examples of this include self-driving automobiles and drones. The VariAnt, a robot created by Variobot, is another amazing example.

VariAnt: At the First Glance

VariAnt, a robot ant, moves and acts almost exactly like its biological model. It independently explores its environment using a sensor system to detect obstructions or markers. The Variobot programmable kit is appropriate for researchers who are passionate and young at heart.

Advanced Autonomy

Like the majority of living things, the variAnt adjusts to the surroundings by detecting relative brightness. Using a network of patented sensors is made feasible. The autonomous robot ant has light sensors connected to its body, legs, antennae, and jaw claws that can be positioned as needed.

A processor is housed on an Arduino-compatible nano board, which serves as the ant robot’s central processing unit (CPU). The small control unit provides connections for two motors, 12  analog sensors,  8 digital I/Os,  2 programmed buttons, 2 reed switches for step numbers, that may be used in any way, and 15 status LEDs that can be plugged in and switched as needed.

The state of the sensors, motors, and reed switches may all be indicated by the LEDs. Inside the ant’s head is a tiny circuit board that is equipped with plug-in ports, which enables the flexible combination and extension of environmental sensors.

The lithium-ion battery that comes standard with the variAnt has a run time of around 3  hours and can be recharged using the provided USB cord.

The Walking Mechanism

The robotic ant makes use of these to identify objects, lines, light sources, or shadows in its surroundings, and then either follows them or stays away from them in an intentional manner.

The purpose of the walking mechanism that was created and patented by Variobot is to mimic the natural mobility of an ant as closely as possible. This is doable with only 24 different components made of acrylic.

VariAnt: Best for

For individuals of all ages, the robot ant is also an engaging and entertaining toy. You can use this set to design your own robot to behave, move, and appear like an actual, but much bigger, ant. The robot is an interesting thing to watch due to its distinct motions and behaviors, and due to its size, it can be used in a number of scenarios. The variAnt kit costs around €199.

Conclusion

The VariAnt might revolutionize robotics and our understanding of nature. Since it mimics ants, the VariAnt can perform many tasks that conventional robots cannot. Whether employed for research, environmental monitoring, or as a toy, the VariAnt is a groundbreaking robotics innovation that will captivate people worldwide.