Festo at Hannover Fair unveils Bionic Honeybees that fly in swarms

For more than 15 years, the Bionic Learning Network has been focusing on the fascination of flying. In addition to the technical decoding of bird flight, the team has researched and technologically implemented numerous other flying objects and their natural principles. With the BionicBee, the Bionic Learning Network has now for the first time developed a flying object that can fly in large numbers and completely autonomously in a swarm. The BionicBee will present its first flight show at the Hannover Messe 2024.

At around 34 grams, a length of 220 millimetres and a wingspan of 240 millimetres, the BionicBee is the smallest flying object created by the Bionic Learning Network to date. For the first time, the developers used the method of generative design: after entering just a few parameters, a software application uses defined design principles to find the optimal structure to use as little material as necessary while maintaining the most stable construction possible. This consistent lightweight construction is essential for good manoeuvrability and flying time.

Autonomous flying in a swarm

The autonomous behavior of the bee swarm is achieved with the help of an indoor locating system with ultra-wideband (UWB) technology. For this purpose, eight UWB anchors are installed in the space on two levels. This enables an accurate time measurement and allows the bees to locate themselves in the space. The UWB anchors send signals to the individual bees, which can independently measure the distances to the respective transmitting elements and calculate their own position in the space using the time stamps.

To fly in a swarm, the bees follow the paths specified by a central computer. To ensure safe and collision-free flight in close formation, a high degree of spatial and temporal accuracy is required. When planning the path, the possible mutual interaction through air turbulence “downwash” must also be taken into account.

As every bee is handmade and even the smallest manufacturing differences can influence its flight behavior, the bees additionally have an automatic calibration function: After a short test fl ight, each bee determines its individually optimized controller parameters. The intelligent algorithm can thus calculate the hardware differences between the individual bees, allowing the entire swarm to be controlled from outside, as if all bees were identical.

IDS NXT malibu now available with the 8 MP Sony Starvis 2 sensor IMX678

Intelligent industrial camera with 4K streaming and excellent low-light performance

IDS expands its product line for intelligent image processing and launches a new IDS NXT malibu camera. It enables AI-based image processing, video compression and streaming in full 4K sensor resolution at 30 fps – directly in and out of the camera. The 8 MP sensor IMX678 is part of the Starvis 2 series from Sony. It ensures impressive image quality even in low light conditions and twilight.

Industrial camera with live AI: IDS NXT malibu is able to independently perform AI-based image analyses and provide the results as live overlays in compressed video streams via RTSP (Real Time Streaming Protocol). Hidden inside is a special SoC (system-on-a-chip) from Ambarella, which is known from action cameras. An ISP with helpful automatic features such as brightness, noise and colour correction ensures that optimum image quality is attained at all times. The new 8 MP camera complements the recently introduced camera variant with the 5 MP onsemi sensor AR0521.

To coincide with the market launch of the new model, IDS Imaging Development Systems has also published a new software release. Users now also have have the the option of displaying live images from the IDS NXT malibu camera models via MJPEG-compressed HTTP stream. This enables visualisation in any web browser without additional software or plug-ins. In addition, the AI vision studio IDS lighthouse can be used to train individual neural networks for the Ambarella SoC of the camera family. This simplifies the use of the camera for AI-based image analyses with classification, object recognition and anomaly detection methods.

PiCockpit: Innovative Web Solution for Managing Multiple Raspberry Pis

pi3g Unveils Groundbreaking New Features for Business Users

Leipzig, March 27, 2024 – pi3g GmbH & Co. KG introduces new web-based Terminal and File Editor Apps to its PiCockpit.com platform, enhancing Raspberry Pi remote management with an updated Script Scheduler, Video Streaming App, and the PiCockpit Pro Plus plan for custom software needs. These innovations reflect pi3g’s dedication to simplifying and boosting productivity for global business users without the need for in-depth Linux expertise. In particular, teams with a Windows® background require less training and specialized skills when using PiCockpit to manage the company’s Raspberry Pi fleet, resulting in substantial time and cost savings for the business.

The PiCockpit Terminal App offers a seamless web-based terminal interface, eliminating the need for complex setup or additional software like PuTTY. Leveraging WebRTC technology, it ensures a secure, encrypted connection for managing all Raspberry Pi devices from any location. This app simplifies remote device management for businesses, enabling straightforward web-based remote access beyond the limitations of traditional methods.

The File Editor App, enhanced with RaspiGPT technology powered by OpenAI’s GPT-4, simplifies file and directory management on Raspberry Pis. By accessing PiCockpit.com, users can remotely edit files from any web browser. This app provides smart assistance for script writing, log analysis, and file content explanation, streamlining file management and speeding up business development processes.

PiCockpit: Simplified management, reduced costs

Maximilian Batz, founder of pi3g, stated, “Our goal has always been to make Raspberry Pi management as accessible and efficient as possible for our users. The launch of our new PiCockpit apps, along with enhancements to our existing services, represents a significant step forward in achieving that goal. We’re particularly excited about the possibilities that RaspiGPT opens up, streamlining tasks that previously required extensive technical knowledge.”

PiCockpit’s Pro Plan introduces a comprehensive solution for businesses looking to scale their operations beyond the first five free Pis. With Two Factor Authentication, PiCockpit ensures secure access to user accounts and their Raspberry Pis. PiCockpit Pro Plus takes customization to the next level, offering bespoke software development and system integration services. This plan is not just an offering but a partnership, providing businesses with a tailored solution that meshes seamlessly with their existing systems, paving the way for significant cost savings and operational efficiencies.

About PiCockpit

PiCockpit.com is a comprehensive web interface designed to simplify the management and operation of Raspberry Pi devices. Offering a range of applications including PiStats, Video Streaming, Script Scheduler, Terminal, and File Editor, PiCockpit enables users to monitor performance, schedule scripts, stream Raspberry Pi cameras, and manage files from anywhere in the world.

About pi3g

Based in Leipzig, Germany, pi3g has been involved in the Raspberry Pi ecosystem since its very beginning in 2012. As an official Raspberry Pi approved reseller, pi3g offers a comprehensive suite of services for businesses, including hardware sourcing, software development, hardware development and consulting.

PiCockpit: Innovative Web-Lösung für die Fernsteuerung vieler Raspberry Pis

Höhere Effizienz, geringere Kosten: Neue PiCockpit-Apps mit zeitsparenden Funktionen

Leipzig, 27. März 2024: Die pi3g GmbH & Co. KG führt auf der PiCockpit.com Plattform mit dem Terminal und dem Datei-Editor zwei neue webbasierte Apps ein. pi3g verbessert zudem das Raspberry Pi Remote Management mit einem aktualisierten Skriptplaner, einer Video Streaming App und dem PiCockpit Pro Plus Plan für individuelle Software- und Geschäftsanforderungen. pi3g vereinfacht damit den Einsatz von Raspberry Pis in Unternehmen beträchtlich, für die Anwender sind keine komplexen Linux-Kenntnisse mehr erforderlich. Insbesondere Teams mit Windows®-Hintergrund benötigen weniger Schulungen und spezielle Kenntnisse, wenn sie PiCockpit für die Verwaltung der Raspberry Pi-Flotte des Unternehmens nutzen. Das führt zu erheblichen Zeit- und Kosteneinsparungen für das Unternehmen, und spiegelt das Ziel von pi3g wider, die Produktivität globaler Geschäftsanwender zu steigern.

Die PiCockpit Terminal App bietet eine bequeme webbasierte Terminalschnittstelle für die Verwaltung aller Raspberry Pi-Geräte von jedem beliebigen Standort aus. Dank der Terminal App ist eine aufwendige Netzwerkkonfiguration oder zusätzliche Software wie PuTTY überflüssig. Die zugrundeliegende WebRTC-Technologie sorgt dabei für eine sichere, verschlüsselte, Ende-zu-Ende-Verbindung vom Webbrowser direkt zum Raspberry Pi. Somit vereinfacht die App Unternehmen die Fernverwaltung von ihren Geräten und ermöglicht einen unkomplizierten webbasierten Fernzugriff, über Netzwerkgrenzen hinweg.

Mit der neuen Editor App können Benutzer Dateien auf ihren Raspberry Pis nun von jedem Webbrowser aus einfach und bequem bearbeiten. Dank der eingebauten RaspiGPT-Technologie, die auf OpenAIs GPT-4 basiert, bietet die App intelligente Unterstützung beim Verstehen von Dateien, Schreiben von Skripten und bei der Analyse von Logs. Dadurch vereinfacht pi3g die Dateiverwaltung und beschleunigt die Entwicklungsprozesse von Unternehmen.

PiCockpit: Vereinfachte Verwaltung, reduzierte Kosten

Maximilian Batz, Gründer von pi3g, erklärt: „Unser Ziel war es schon immer, die Benutzung von Raspberry Pis einfacher zu machen. So einfach und effizient wie möglich! Geschäftskunden setzen den Raspberry Pi für viele Zwecke ein. Im Vordergrund steht für sie immer das Resultat, der Geschäftszweck – nicht die zeitraubende Konfiguration, Bedienung oder die Auseinandersetzung mit Linux-Administration. Unsere neuen PiCockpit Apps stellen einen großen Sprung nach vorne dar, um Unternehmen Zeit und Geld zu sparen. Wir freuen uns besonders über die RaspiGPT-Technologie. Sie eröffnet viele neue Möglichkeiten, sie vereinfacht Aufgaben, die bisher umfangreiche technische Kenntnisse erforderten. Windows®-Nutzer müssen keine Linux-Gurus mehr werden, um Raspberry Pis in ihren Firmen einzusetzen.“

Der Pro Plan von PiCockpit richtet sich besonders an kleine und mittelständische Unternehmen, sie können damit über ihre ersten fünf kostenlosen Pis hinaus skalieren. Gegen eine monatliche Gebühr von 9,95 € brutto je Raspberry Pi bekommen die Nutzer unbegrenzten Zugang zu allen Funktionen. Dank einer Zwei-Faktor-Authentifizierung gewährleistet PiCockpit dabei einen sicheren Zugang zu den Benutzerkonten und den Raspberry Pis.

PiCockpit Pro Plus erweitert, als Enterprise Lösung, das Angebot um maßgeschneiderte Softwareentwicklung und Dienstleistungen zur Systemintegration. PiCockpit Pro Plus bietet dabei Unternehmen eine perfekt für sie angepasste Raspberry Pi Lösung, die sich nahtlos in ihre bestehenden Systeme einfügt. Dadurch werden signifikante Kosteneinsparungen und eine Steigerung der betrieblichen Effizienz ermöglicht.

PiCockpit wird durch pi3g kontinuierlich um weitere Funktionen und Möglichkeiten erweitert, dabei stehen die sich entwickelnden Bedürfnisse der Nutzer im Vordergrund. Das Unternehmen lädt Unternehmen und Raspberry Pi-Enthusiasten dazu ein, die neuen Funktionen auf picockpit.com zu erkunden und sich zum Newsletter anzumelden um über neue Apps auf dem Laufenden zu bleiben.

Über PiCockpit:
PiCockpit.com bietet eine bequeme Web-Oberfläche zur Steuerung von Raspberry Pi-Geräten. Es bietet eine Vielzahl von eingebauten Anwendungen wie PiStats, Video Streaming, Script Scheduler, Terminal und File Editor. Damit können Nutzer von überall auf der Welt aus die Leistung der Raspberry Pis überwachen, Skriptausführung planen, Raspberry Pi Kameras streamen und Dateien verwalten. Unternehmen und Einzelpersonen können mit PiCockpit von den vielfältigen Fähigkeiten der Raspberry Pis profitieren, ohne Linux-Spezialkenntnisse aufbauen zu müssen.

Über pi3g:
Das in Leipzig ansässige Unternehmen pi3g GmbH & Co. KG ist seit den Anfängen des Raspberry Pi Ökosystems im Jahr 2012 dabei. Als offizieller Raspberry Pi Reseller bietet pi3g Unternehmen ein umfassendes Angebot an Dienstleistungen, darunter Softwareentwicklung, Hardwareentwicklung, Hardwarebeschaffung und Beratung. Geschäftskunden können über den Online-Shop von pi3g (buyzero.de) auf das gesamte Sortiment an Raspberry Pi-Produkten, Zubehör und ausgewählter KI-Hardware wie Coral.AI und den Unigen Cupcake Edge AI Server zugreifen.

ABB identifiziert neue Perspektiven für Robotik und KI im Jahr 2024

Marc Segura, Leiter der Robotics-Division bei ABB, skizziert drei Haupttreiber für robotergestützte KI-Lösungen im Jahr 2024. Indes setzt ABB ihre Expansion in neue Segmente fort, in denen eine robotergestützte Automatisierung bisher kaum zum Einsatz kam.

„Im kommenden Jahr wird die entscheidende Rolle der KI verstärkt im Fokus stehen“, betont Marc Segura. „Von mobilen Robotern und Cobots über neue Robotik-Anwendungen in weiteren Segmenten bis hin zur Schaffung neuartiger Aus- und Weiterbildungsmöglichkeiten – diese KI-Trends werden die Zukunft der Industrierobotik neu definieren.“

1 – KI wird für eine größere Autonomie in Robotikanwendungen sorgen

Den Fortschritt auf dem Gebiet der KI zu beschleunigen, bedeutet, die Möglichkeiten der Industrierobotik neu zu definieren. KI verbessert nicht nur die Fähigkeit von Robotern zum Greifen, Aufnehmen und Absetzen von Objekten, sondern ermöglicht es ihnen auch, dynamische Umgebungen abzubilden und durch sie zu navigieren. Mithilfe von KI können mobile Roboter, Cobots und andere robotergestützte Lösungen ein Höchstmaß an Geschwindigkeit, Genauigkeit und Traglast erreichen, sodass sie mehr Aufgaben in Umgebungen wie flexiblen Fabriken, Lagerhäusern, Logistikzentren und Labors übernehmen können.

„KI-gestützte mobile Roboter können Segmente wie die Fertigung, Logistik und Labors transformieren“, ergänzt Segura. „Roboter, die mit der neuen Visual-SLAM-Technologie (Visual Simultaneous Localization and Mapping) von ABB ausgestattet sind, verfügen zum Beispiel über erweiterte Kartierungs- und Navigationsfähigkeiten. Das ermöglicht eine größere Autonomie und reduziert die Infrastruktur, die frühere Generationen fahrerloser Roboter benötigten. Dies wiederum ebnet den Weg für die Umstellung von linearen Produktionslinien auf dynamische Netzwerke. So können erhebliche Effizienzsteigerungen erzielt und menschliche Arbeitskräfte von monotonen, schmutzigen und gefährlichen Arbeiten entlastet werden, damit sie sich erfüllenderen Tätigkeiten widmen können.“

2 – KI erschließt neue Bereiche für den Einsatz von Robotern

Das Potenzial der KI-gestützten Robotik geht weit über den Fertigungsbereich hinaus. Man geht davon aus, dass diese Technologien im Jahr 2024 erhebliche Effizienzsteigerungen in dynamischeren Bereichen wie dem Gesundheitswesen, Life Sciences und dem Einzelhandel ermöglichen werden. Ein weiteres Beispiel ist die Baubranche. Hier kann KI-gestützte Robotik wesentlich zur Steigerung der Produktivität, Verbesserung der Sicherheit und Umsetzung nachhaltiger Verfahren beitragen und gleichzeitig das Wachstum fördern.

„Die Bauindustrie ist ein gutes Beispiel für einen Sektor, in dem KI-gestützte Roboter sich als transformativ erweisen werden. Sie können einen echten Mehrwert bieten, indem sie dabei helfen, viele Probleme zu lösen, mit denen die Branche heute zu kämpfen hat – darunter Fachkräftemangel, Sicherheitsrisiken und stagnierende Produktivität“, erklärt Marc Segura. „KI-basierte Fähigkeiten wie eine bessere Erkennung und Entscheidungsfindung sowie Fortschritte auf dem Gebiet der kollaborativen Robotik ermöglichen einen sicheren Einsatz von Robotern an der Seite von Menschen. Dank dieser Fortschritte können Roboter Kernaufgaben wie das Mauern, das Montieren von Modulen und das Fertigen im 3D-Druck präziser und schneller erledigen. Gleichzeitig tragen sie durch Senkung der Emissionen zur Nachhaltigkeit bei, indem sie zum Beispiel das Mischen von Beton vor Ort ermöglichen und durch Montage vor Ort den Materialtransport über große Entfernungen reduzieren.“

3 – KI wird neue Möglichkeiten zum Lernen und Arbeiten mit Robotern schaffen

Die in der KI und Robotik erzielten Fortschritte sind für die Aus- und Weiterbildung von großer Bedeutung. Denn sie helfen dabei, die Qualifikationslücke in der Automatisierung zu schließen und Roboter für Menschen und Unternehmen zugänglicher zu machen. Da KI die Programmierung durch Lead-Through-Verfahren und natürliche Sprache vereinfacht, kann sich die Ausbildung auf die Frage konzentrieren, wie Roboter den Menschen effektiver unterstützen können, als ausschließlich Programmierkenntnisse zu vermitteln. Dieser Wandel macht Roboter für eine größere Zielgruppe zugänglich, was neue Jobperspektiven eröffnet und dabei hilft, dem Arbeits- und Fachkräftemangel entgegenzuwirken.

„Der Mangel an Arbeitskräften, die über die benötigten Qualifikationen zur Programmierung und Bedienung von Robotern verfügen, ist seit Langem eine Hürde für die robotergestützte Automatisierung, insbesondere in kleinen und mittleren Fertigungsunternehmen“, so Marc Segura. „Dies wird sich zunehmend ändern, wenn Fortschritte auf dem Gebiet der generativen KI die Hürden zur Automatisierung senken und der Fokus der Ausbildung über die Programmierung hinausgeht. KI-gestützte Entwicklungen im Bereich Natural Language Programming, die die Steuerung von Robotern mithilfe von sprachlichen Anweisungen erlauben, werden für eine neue Dynamik in der Mensch-Roboter-Interaktion sorgen.“

didacta 2024: United Robotics Group präsentiert Robotik-Lösungen für den Bildungssektor

Bochum – 13. Februar 2024 – Vom 20. bis zum 24. Februar 2024 präsentiert die United Robotics Group (URG) auf der „didacta – die Bildungsmesse“ in Köln ein umfassendes Robotik-Portfolio speziell für den Bildungssektor. Im Rahmen der Fachmesse zeigt der europäische Marktführer für Servicerobotik das Anwendungspotenzial seiner Lösungen insbesondere in den Bereichen ‚Programmieren‘, ‚Spracherwerb‘, ‚Fachunterricht‘ und ‚Rehabilitation‘. Die United Robotics Group engagiert sich bereits seit vielen Jahren im Bildungssektor. Mit über 700 Ausstellern aus mehr als 60 Ländern ist die didacta Europas größte Fachmesse für Lehrkräfte aller Bildungsbereiche und das wichtigste Weiterbildungsevent der Branche.

Im Bildungswesen wird der Robotik eine immer wichtigere Rolle zuteil. Hier werden die Fachkräfte von morgen ausgebildet. Deutschland sollte alle Möglichkeiten nutzen, um im internationalen Vergleich bei der Integration von Robotik im Bildungsbereich mithalten zu können.

Dazu Dr. Nadja Schmiedl, CTO der United Robotics Group: „Angesichts der aktuellen gesellschaftlichen Herausforderungen gilt es, den Fortschritt zu beschleunigen und dabei das Potenzial jedes Einzelnen freizusetzen. Es geht um nichts Geringeres als die systematische Vorbereitung auf die Anforderungen von morgen. Mit smarten Lernprogrammen wie zum Beispiel Robotern kann gerade in naturwissenschaftlichen Fächern ebenso die Motivation gefördert werden wie die Kreativität. So wollen wir den Nachwuchs fit für die Zukunft machen – und zwar unabhängig von Herkunft oder Ressourcen. Unsere Vision ist es, Bildung nicht zu einem Privileg, sondern zu einem universellen Recht zu machen.“

Vielseitige Plattformen für Bildungsinstitutionen

Die United Robotics Group wird am Stand F-09 in Halle 06.1 unterschiedliche Lösungen für den Einsatz im Unterricht und für die Reha vorstellen. Hier zeigen die humanoiden Roboter NAO und Pepper ihre Fähigkeiten. Beide sind als vielseitige Plattformen bereits seit vielen Jahren erfolgreich im Bildungswesen im Einsatz. Dort werden sie unter anderem als Assistenten für pädagogisches Personal, aber auch für Schüler*innen mit Handicaps wie Autismus oder Verhaltensauffälligkeit genutzt. Konkret zeigt die United Robotics Group gemeinsam mit verschiedenen Partnern folgende Lösungen:

  • Zusammen mit dem niederländischen Unternehmen Interactive Robotics präsentiert United Robotics Group die Lösung RobotsindeKlas, mit der die Lehrkräfte auf einfache Weise die analytischen, sozialen und emotionalen Fähigkeiten ihrer Schüler*innen fördern können. Die Plattform ermöglicht es den Schüler*innen, eine Reihe von Fähigkeiten zu trainieren, von Arithmetik und Sprache bis hin zu Präsentation und Programmierung.
  • Jupyter AI Package NAO: Die Integration der NAO-Roboter in Jupyter Notebook bietet Lehrkräften eine wertvolle Möglichkeit, den Unterricht in den Bereichen Programmierung, Datenwissenschaft und maschinelles Lernen zu verbessern und interaktive, praktische Lernerfahrungen für Schüler*innen zu schaffen. Die Lösung unterstützt die effiziente Planung von Unterrichtsstunden, die Zusammenarbeit in der Klasse und die Auseinandersetzung mit realen Robotik-Anwendungen und macht die Lernerfahrung ansprechend und anpassungsfähig für verschiedene Lehrplananforderungen.
  • Applikation „Mein Freund NAO”: Die Anwendung hebt die Vorteile von NAO hervor, wenn der Roboter als spezielles pädagogisches Werkzeug verwendet wird, das besonders für Kinder mit Autismus oder anderen neurologischen Entwicklungsstörungen nützlich ist. Zu den Hauptmerkmalen gehören individuell anpassbare Sitzungen, die auf das Profil des Kindes zugeschnitten sind, pädagogische und spielerische Anwendungen, verschiedene Aktivitäten wie Tanz, Bewegung, Spiele und Geschichten sowie die Entwicklung motorischer Fähigkeiten.
  • In Zusammenarbeit mit InRobics revolutioniert NAO die Physiotherapie in Rehabilitationszentren und Krankenhäusern. Der humanoide Roboter steigert die Motivation, Aufmerksamkeit und Therapietreue der Patient*innen durch Einzel- und Gruppentherapiesitzungen, tägliche Routinen und spielerische Inhalte wie Challenges und aktive Ruhephasen. Darüber hinaus umfasst das Programm Datenanalyse- und Berichterstellungswerkzeuge, die es dem medizinischen Personal ermöglichen, die Therapiepläne auf der Grundlage der individuellen Reaktionen zu optimieren.
  • Pepper powered by ChatGPT4: Die Integration von Pepper in ChatGPT4 eröffnet eine neue Dimension der Interaktivität und Ausdrucksfähigkeit. Diese Synergie zwischen fortgeschrittener Sprachverarbeitung und körperlichem Ausdruck macht die Interaktion nicht nur informativ, sondern auch unterhaltsam. In Bildungseinrichtungen bietet die Kombination von ChatGPT4 und Robotern einen innovativen Ansatz für interaktives Lernen. Lernende können personalisierte Unterstützung erhalten, Fragen stellen und an dynamischen Unterhaltungen teilnehmen, die reale Interaktionen nachahmen.

Der erste Service-Cobiot Plato, NAO mit der Lösung von Interactive Robotics sowie Pepper mit ChatGPT4 sind auch auf dem Gemeinschaftsstand der Mobile.Schule Campus im Rahmen der Digitalen Bildungswochen in Halle 7 an den Ständen C060, C061, B060, B068 und C059 vertreten.

Das breite Einsatzspektrum der URG-Lösungen im Bildungsbereich zeigt die zentrale Rolle der Robotertechnologie bei der Förderung von Lernenden in vielen Bereichen. Auf der didacta können sich die Besucher*innen ein umfassendes Bild davon machen.

Experience the Future of Companionship with Doly, Launched by Limitbit soon on Kickstarter

Limitbit, a pioneer in AI powered companion technology, has announced the launch of its groundbreaking product, Doly, on Kickstarter. As of today, Doly has already captured the imagination of tech enthusiasts and educators, raising significant interest ahead of its official Kickstarter launch scheduled for February 13, 2024. 

Doly, launch day special priced at $289, is an autonomous AI-powered companion robot that seamlessly integrates robotics, AI, and coding education into one dynamic device. It is the first of its kind to offer an open hardware and open design, powered by Raspberry Pi, allowing customization and continual evolution in capabilities. 

„Doly represents a fusion of companionship, education, and technological innovation,“ says Levent Erenler, founder of Limitbit. „It’s designed to grow and adapt, offering an engaging experience for all ages and skill levels. Our open-source approach places Doly at the forefront of personal robotic innovation.“ 

Product highlights of Doly include: 

Self-acting Personality: A unique character that develops and evolves through interaction, offering a personalized experience. 

Edge AI Processing: Ensuring maximum privacy, Doly’s AI algorithms operate locally, without relying on cloud processing, safeguarding user data.

STEM Education Enabler: Doly serves as an engaging tool for learning coding and robotics, catering to both beginners and advanced users. 

Open-Source Platform: Users can innovate and customize Doly, thanks to its open hardware and open design, fostering a community-driven approach to technological advancement. 

Extensive Add-On Support: Featuring a range of I/O ports, Doly offers extensive opportunities for expansion and customization, perfect for developers and hobbyists. 

3D Printable Design: Emphasizing its customizable nature, Doly can be personalized with 3D printed parts, allowing users to tailor its appearance and functions. 

Targeted towards a wide audience that includes robot lovers, parents, children, software and hardware developers, and open-source enthusiasts, Doly is positioned as the ultimate educational and interactive robot companion. 

„Doly is not just a product; it’s a step towards a future where technology enhances every aspect of learning and daily living,“ added Levent Erenler. „Its ability to engage users in coding, robotics, and AI, while also serving as a companion robot, sets a new benchmark in the field.“ 

About Limitbit: 

Based in Markham, Ontario, Limitbit is dedicated to revolutionizing AI powered companion robots. Their mission is to blend cutting-edge technology with practical, educational applications, making advanced robotics accessible to everyone. 

For more information about Doly and to participate in the Kickstarter campaign, click here. 

Cybersicherheit in Zeiten der KI – Expertentalk im Deutschen Museum Bonn

Das Deutsche Museum Bonn erfindet sich gerade neu und entwickelt sich mit großen Schritten zu einem innovativen und lebendigen Informationsforum zum Thema Künstliche Intelligenz. Das Ziel der „Mission KI“: Die Besucherinnen und Besucher aktiv in die Vermittlung und in die Diskussion rund um die Künstliche Intelligenz einzubeziehen. Dies geschieht nicht nur in der rundumerneuerten Ausstellung mit vielen Mitmachstationen, sondern auch regelmäßig in Form von Vorträgen und Diskussionsrunden mit namhaften Experten und Expertinnen.

Am 9.November 2023 lud das Deutsche Museum Bonn wieder zum „KI-Talk“ ein, der diesmal unter dem Motto „Cybersicherheit in Zeiten der KI“ stand. Als Talkgäste diskutierten Prof. Ulrich Kelber (Bundesbeauftragter für den Datenschutz und die Informationsfreiheit), Thomas Tschersich (Chief Security Officer Deutsche Telekom AG), Journalistin und Autorin Eva Wolfangel („Ein falscher Klick“) und Oberst Guido Schulte vom Cyber- und Informationsraum der Bundeswehr) über gängige Bedrohungen im Netz, den Schutz unserer Daten, den Einsatz Künstlicher Intelligenz in der Cybersicherheit und vieles mehr. Moderiert wurde das in Kooperation mit dem Cyber Security Cluster Bonn veranstaltete Event von „Quarks“-Moderatorin Florence Randrianarisoa.

Die sehr interessante und lebhafte Talkrunde mit einem sehr interessierten Publikum im vollbesetzten Museum wurde live im YouTube-Kanal des Fördervereins WISSENschaf(f)t SPASS übertragen und ist dort weiterhin als Aufzeichnung zu sehen:

IDS NXT malibu: Camera combines advanced consumer image processing and AI technology from Ambarella and industrial quality from IDS

New class of edge AI industrial cameras allows AI overlays in live video streams
 

IDS NXT malibu marks a new class of intelligent industrial cameras that act as edge devices and generate AI overlays in live video streams. For the new camera series, IDS Imaging Development Systems has collaborated with Ambarella, leading developer of visual AI products, making consumer technology available for demanding applications in industrial quality. It features Ambarella’s CVflow® AI vision system on chip and takes full advantage of the SoC’s advanced image processing and on-camera AI capabilities. Consequently, Image analysis can be performed at high speed (>25fps) and displayed as live overlays in compressed video streams via the RTSP protocol for end devices.

Thanks to the SoC’s integrated image signal processor (ISP), the information captured by the light-sensitive onsemi AR0521 image sensor is processed directly on the camera and accelerated by its integrated hardware. The camera also offers helpful automatic features, such as brightness, noise and colour correction, which significantly improve image quality.

„With IDS NXT malibu, we have developed an industrial camera that can analyse images in real time and incorporate results directly into video streams,” explained Kai Hartmann, Product Innovation Manager at IDS. “The combination of on-camera AI with compression and streaming is a novelty in the industrial setting, opening up new application scenarios for intelligent image processing.“

These on-camera capabilities were made possible through close collaboration between IDS and Ambarella, leveraging the companies’ strengths in industrial camera and consumer technology. „We are proud to work with IDS, a leading company in industrial image processing,” said Jerome Gigot, senior director of marketing at Ambarella. “The IDS NXT malibu represents a new class of industrial-grade edge AI cameras, achieving fast inference times and high image quality via our CVflow AI vision SoC.“

IDS NXT malibu has entered series production. The camera is part of the IDS NXT all-in-one AI system. Optimally coordinated components – from the camera to the AI vision studio – accompany the entire workflow. This includes the acquisition of images and their labelling, through to the training of a neural network and its execution on the IDS NXT series of cameras.

Robot plays „Rock, Paper, Scissors“ – Part 1/3

Gesture recognition with intelligent camera

I am passionate about technology and robotics. Here in my own blog, I am always taking on new tasks. But I have hardly ever worked with image processing. However, a colleague’s LEGO® MINDSTORMS® robot, which can recognize the rock, paper or scissors gestures of a hand with several different sensors, gave me an idea: „The robot should be able to ’see‘.“ Until now, the respective gesture had to be made at a very specific point in front of the robot in order to be reliably recognized. Several sensors were needed for this, which made the system inflexible and dampened the joy of playing. Can image processing solve this task more „elegantly“?

Rock-Paper-Scissors with Robot Inventor by Seshan Brothers. The robot which inspired me for this project

From the idea to implementation

In my search for a suitable camera, I came across IDS NXT – a complete system for the use of intelligent image processing. It fulfilled all my requirements and, thanks to artificial intelligence, much more besides pure gesture recognition. My interest was woken. Especially because the evaluation of the images and the communication of the results took place directly on or through the camera – without an additional PC! In addition, the IDS NXT Experience Kit came with all the components needed to start using the application immediately – without any prior knowledge of AI.

I took the idea further and began to develop a robot that would play the game „Rock, Paper, Scissors“ in the future – with a process similar to that in the classical sense: The (human) player is asked to perform one of the familiar gestures (scissors, stone, paper) in front of the camera. The virtual opponent has already randomly determined his gesture at this point. The move is evaluated in real time and the winner is displayed.

The first step: Gesture recognition by means of image processing

But until then, some intermediate steps were necessary. I began by implementing gesture recognition using image processing – new territory for me as a robotics fan. However, with the help of IDS lighthouse – a cloud-based AI vision studio – this was easier to realize than expected. Here, ideas evolve into complete applications. For this purpose, neural networks are trained by application images with the necessary product knowledge – such as in this case the individual gestures from different perspectives – and packaged into a suitable application workflow.

The training process was super easy, and I just used IDS Lighthouse’s step-by-step wizard after taking several hundred pictures of my hands using rock, scissor, or paper gestures from different angles against different backgrounds. The first trained AI was able to reliably recognize the gestures directly. This works for both left- and right-handers with a recognition rate of approx. 95%. Probabilities are returned for the labels „Rock“, „Paper“, „Scissor“, or „Nothing“. A satisfactory result. But what happens now with the data obtained?

Further processing

The further processing of the recognized gestures could be done by means of a specially created vision app. For this, the captured image of the respective gesture – after evaluation by the AI – must be passed on to the app. The latter „knows“ the rules of the game and can thus decide which gesture beats another. It then determines the winner. In the first stage of development, the app will also simulate the opponent. All this is currently in the making and will be implemented in the next step to become a „Rock, Paper, Scissors“-playing robot.

From play to everyday use

At first, the project is more of a gimmick. But what could come out of it? A gambling machine? Or maybe even an AI-based sign language translator?

To be continued…