LattePanda 3 Delta- the User-friendly and Cost-effective hackable Computer for your Mega Creativity

The LattePanda team launched its new generation of LattePanda 3 Delta on Kickstarter on November the 2nd 2021. The crowd funding campaign has already blasted past its required pledge goal raising over $200,989 thanks to over 731 backers with still 3 days remaining. Building on the company’s previous mini PC systems, the new LattePanda 3 Delta computer is powered by the latest Intel 11th generation N5105 mobile quad-core processor offering up to 2.9GHz burst frequency. The ultra-thin design measures just 16 mm in thickness, enabling you to use the small form factor mini PC for a wealth of different projects.

Hardware and Spec

The LattePanda 3 Delta is a 125 mm x 78 mm x 16mm Single Board Computer with CPU, memory, storage and Arduino components on the one side while up to 42 expandable interfaces for peripherals and GPIOs sit on the other. The added bonus of having a Gigabit Ethernet port onboard guarantees the device can connect to the Internet at extremely high speed.

Key Specification:

Processor: Intel N5105

            CPU: 4-Core, 4-Thread, 4MB L3 Cache, 2.00~2.90 GHz

            GPU: Intel UHD Graphics, 24 EUs, 450~800 MHz

Memory: 8GB LPDDR4 2933MHz RAM

Storage: 64GB eMMC

External Storage:

            M.2 M Key: PCIe3.0 x2, Support NVME SSD;

            M.2 B Key: SATA3, Support SATA SSD;

            TF Slot: Support TF Card

Connectivity:

            WiFi6(802.11ax): Intel AX201, up to 2.4Gbps

            Bluetooth 5.2;

            Gigabit Ethernet: Intel I211-AT, up to 1.0Gbps

Exteral Connectivity: M.2 B Key

            USB2.0 lane: Support 4G Module; 

            USB3.0 lane: Support 5G Module

Video Output:

            HDMI 2.0b;

            DP 1.4 (via USB Type C);

            eDP(with touch)

Audio I/O:

            3.5mm Audio Jack(with Mic);

            2.54mm Female Header

USB Port:

            1x USB 3.2 gen2 x1;

            2x USB 3.2 gen1 x1;

            1x USB Type C

OS Support:

             Windows 10;

             Windows 11;

             Linux Ubuntu

Co-processor: Atmel ATmega32U4

Power Input:  

            USB Type C PD;

            12V DC

GPIO Female Header:

       2x 50pin GPIOs: including Audio Output, USB2.0, RS232, RTC, Power Management, Status Indication, Arduino Pinout, 5V&3.3V Power Output, etc.

In Use

LattePanda 3 Delta has an Intel Celeron N5105, a Windows 10 processor that replaces the Celeron N4100. The Celeron N5105 features improved UHD Graphics and higher performance than the Celeron N4100. LattePanda 3 Delta offers 2x better processing performance and 3x faster graphics performance. With such excellent performance, you can use it to watch 4K HDR videos smoothly and even play some heavy games. 

LattePanda 3 Delta contains up to 8 GB of LPDDR4 RAM and 64 GB of eMMC 5.1 flash storage, which ensures that you can load a large number of web pages in Chrome, or run multiple virtual machines fastly and smoothly.

LattePanda 3 Delta uses Wi-Fi 6 whose transfer speed is 2.7 times faster than Wi-Fi 5. Besides, LattePanda 3 Delta has a Gigabit Ethernet port onboard. You can connect to the Internet at extremely high speed.

LattePanda 3 Delta is compatible with both Windows 10 and Linux OS. Windows 11 can also be run on LattePanda 3 Delta. You can select various OS freely based on your project. No matter what operating system you use, the blue screen or crash is inevitable. LattePanda 3 Delta designs a “Watchdog Timer”. When some problems occur, LattePanda 3 Delta will restart automatically and go back to work normally.

For those applications relying on battery, independent control of the power of all the USB ports and other power connectors are essential. LattePanda 3 Delta has made it possible. You can control the USB power and 5V power ON or OFF based on your project.

Being a hackable computer, the LattePanda 3 Delta is a perfect solution for home automation projects, robotics, in car entertainment systems, education and smart industrial systems. Below is a quick overview of all the available Kickstarter packages, components, operating systems, and pricing.

Pledges are still available from £169 or roughly $229 or CAD $284 and shipping is expected to take place during March 2022. Options are available to receive the computer with Windows 10 Pro operating system license for a little extra as well as being available with a UPS HAT for £206 or $279 or CAD $346 with shipping expected to be a month later during April 2022.For more information, full specifications and purchasing options jump over to the official Kickstarter crowdfunding campaign page by following the link below.

KI ist mehr als nur ein Modell: Vier Schritte zum vollständigen Workflow-Erfolg

Ingenieur*innen sind zunehmend bestrebt, KI erfolgreich in Projekte und Anwendungen zu integrieren, während sie versuchen, ihre eigene KI-Lernkurve zu meistern. Allerdings werden viele KI-Projekte nach wenig vielversprechenden Ergebnissen wieder verworfen. Woran liegt das? Johanna Pingel, Product Marketing Manager bei MathWorks, erläutert, warum es für Ingenieur*innen wichtig ist, sich auf den gesamten KI-Workflow zu konzentrieren und nicht nur auf die Modellentwicklung:

Ingenieur*innen, die Machine Learning und Deep Learning einsetzen, erwarten oft, dass sie einen großen Teil ihrer Zeit mit der Entwicklung und Feinabstimmung von KI-Modellen verbringen. Die Modellierung ist zwar ein wichtiger Schritt im Workflow, aber das Modell ist nicht alleiniges Ziel. Das Schlüsselelement für den Erfolg bei der praktischen KI-Implementierung ist das frühzeitige Aufdecken von Problemen. Außerdem ist es wichtig zu wissen, auf welche Aspekte des Workflows man Zeit und Ressourcen konzentrieren sollte, um die besten Ergebnisse zu erzielen. Das sind nicht immer die offensichtlichsten Schritte.

Der KI-gesteuerte Workflow

Es lassen sich vier Schritte in einem KI-gesteuerten Workflow differenzieren, wobei jeder Schritt seine eigene Rolle bei der erfolgreichen Implementierung von KI in einem Projekt spielt.
 

Schritt 1: Datenaufbereitung

Die Datenaufbereitung ist wohl der wichtigste Schritt im KI-Workflow: Ohne robuste und genaue Daten zum Trainieren eines Modells sind Projekte rasch zum Scheitern verurteilt. Wenn Ingenieur*innen das Modell mit „schlechten“ Daten füttern, werden sie keine aufschlussreichen Ergebnisse erhalten – und wahrscheinlich viele Stunden damit verbringen, herauszufinden, warum das Modell nicht funktioniert.

Um ein Modell zu trainieren, sollten Ingenieur*innen mit sauberen, gelabelten Daten beginnen, und zwar mit so vielen wie möglich. Dies kann einer der zeitaufwendigsten Schritte des Workflows sein. Wenn Deep Learning-Modelle nicht wie erwartet funktionieren, konzentrieren sich viele darauf, wie man das Modell verbessern kann – durch das Optimieren von Parametern, die Feinabstimmung des Modells und mehrere Trainingsiterationen. Doch noch viel wichtiger ist die Aufbereitung und das korrekte Labeln der Eingabedaten. Das darf nicht vernachlässigt werden, um sicherzustellen, dass Daten korrekt vom Modell verstanden werden können.
 

Schritt 2: KI-Modellierung

Sobald die Daten sauber und richtig gelabelt sind, kann zur Modellierungsphase des Workflows übergegangen werden. Hierbei werden die Daten als Input verwendet und das Modell lernt aus diesen Daten. Das Ziel einer erfolgreichen Modellierungsphase ist die Erstellung eines robusten, genauen Modells, das intelligente Entscheidungen auf Basis der Daten treffen kann. Dies ist auch der Punkt, an dem Deep Learning, Machine Learning oder eine Kombination davon in den Arbeitsablauf einfließt. Hier entscheiden die Ingenieur*innen, welche Methoden das präziseste und robusteste Ergebnis hervorbringt.

Die KI-Modellierung ist ein iterativer Schritt innerhalb des gesamten Workflows, und Ingenieur*innen müssen die Änderungen, die sie während dieses Schrittes am Modell vornehmen, nachverfolgen können. Die Nachverfolgung von Änderungen und die Aufzeichnung von Trainingsiterationen mit Tools wie dem Experiment Manager von MathWorks sind entscheidend, da sie helfen die Parameter zu erklären, die zum genauesten Modell führen und reproduzierbare Ergebnisse liefern.
 

Schritt 3: Simulation und Tests

Ingenieur*innen müssen beachten, dass KI-Elemente meistens nur ein kleiner Teil eines größeren Systems sind. Sie müssen in allen Szenarien im Zusammenspiel mit anderen Teilen des Endprodukts korrekt funktionieren, einschließlich anderer Sensoren und Algorithmen wie Steuerung, Signalverarbeitung und Sensorfusion. Ein Beispiel ist hier ein Szenario für automatisiertes Fahren: Dabei handelt es sich nicht nur um ein System zur Erkennung von Objekten (Fußgänger*innen, Autos, Stoppschilder), sondern dieses System muss mit anderen Systemen zur Lokalisierung, Wegplanung, Steuerung und weiteren integriert werden. Simulationen und Genauigkeitstests sind der Schlüssel, um sicherzustellen, dass das KI-Modell richtig funktioniert und alles gut mit anderen Systemen harmoniert, bevor ein Modell in der realen Welt eingesetzt wird.

Um diesen Grad an Genauigkeit und Robustheit vor dem Einsatz zu erreichen, müssen Ingenieur*innen validieren, dass das Modell in jeder Situation so reagiert, wie es soll. Sie sollten sich auch mit den Fragen befassen, wie exakt das Modell insgesamt ist und ob alle Randfälle abgedeckt sind. Durch den Einsatz von Werkzeugen wie Simulink können Ingenieur*innen überprüfen, ob das Modell für alle erwarteten Anwendungsfälle wie gewünscht funktioniert, und so kosten- und zeitintensive Überarbeitungen vermeiden.
 

Schritt 4: Einsatz

Ist das Modell reif für die Bereitstellung, folgt als nächster Schritt der Einsatz auf der Zielhardware – mit anderen Worten, die Bereitstellung des Modells in der endgültigen Sprache, in der es implementiert werden soll. Das erfordert in der Regel, dass die Entwicklungsingenieur*innen ein implementierungsbereites Modell nutzen, um es in die vorgesehene Hardwareumgebung einzupassen.

Die vorgesehene Hardwareumgebung kann vom Desktop über die Cloud bis hin zu FPGAs reichen. Mithilfe von flexiblen Werkzeugen wie MATLAB kann der endgültige Code für alle Szenarien generiert werden. Das bietet Ingenieur*innen den Spielraum, ihr Modell in einer Vielzahl von Umgebungen einzusetzen, ohne den ursprünglichen Code neu schreiben zu müssen. Das Deployment eines Modells direkt auf einer GPU kann hier als Beispiel dienen: Die automatische Codegenerierung eliminiert Codierungsfehler, die durch eine manuelle Übersetzung entstehen könnten, und liefert hochoptimierten CUDA-Code, der effizient auf der GPU läuft.

Gemeinsam stärker

Ingenieur*innen müssen keine Datenwissenschaftler*innen oder gar KI-Expert*innen werden, um mit KI erfolgreich zu sein. Mit Werkzeugen für die Datenaufbereitung, Anwendungen zur Integration von KI in ihre Arbeitsabläufe und mit verfügbaren Expert*innen, die Fragen zur KI-Integration beantworten, können sie KI-Modelle auf Erfolgskurs bringen. In jedem dieser Schritte im Workflow haben Ingenieur*innen die Möglichkeit, flexibel ihr eigenes Domänenwissen einzubringen. Dies ist eine wichtige Basis, auf der sie mit den richtigen Ressourcen aufbauen und die sie durch KI ergänzen können.

Über MathWorks

MathWorks ist der führende Entwickler von Software für mathematische Berechnungen. MATLAB, die Programmiersprache für Ingenieurwesen und Wissenschaft, ist eine Programmierumgebung für die Algorithmen-Entwicklung, Analyse und Visualisierung von Daten sowie für numerische Berechnungen. Simulink ist eine Blockdiagramm-basierte Entwicklungsumgebung für die Simulation und das Model-Based Design von technischen Mehrdomänen-Systemen und Embedded Systemen. Ingenieure und Wissenschaftler weltweit setzen diese Produktfamilien ein, um die Forschung sowie Innovationen und Entwicklungen in der Automobilindustrie, der Luft- und Raumfahrt, der Elektronik, dem Finanzwesen, der Biotechnologie und weiteren Industriezweigen zu beschleunigen. MATLAB und Simulink sind zudem an Universitäten und Forschungsinstituten weltweit wichtige Lehr- und Forschungswerkzeuge. MathWorks wurde 1984 gegründet und beschäftigt mehr als 5000 Mitarbeiter in 16 Ländern. Der Hauptsitz des Unternehmens ist Natick, Massachusetts, in den USA. Lokale Niederlassungen in der D-A-CH-Region befinden sich in Aachen, München, Paderborn, Stuttgart und Bern. Weitere Informationen finden Sie unter mathworks.com.

Fraunhofer IAIS und Dr. Hans Riegel-Stiftung realisieren erste 3D-Simulation zu Roboter-Programmierungen im Open Roberta Lab

Seit rund vier Jahren arbeiten das Fraunhofer-Institut für Intelligente Analyse- und Informations-systeme IAIS und die Dr. Hans Riegel-Stiftung im Rahmen ihrer Projekte »Open Roberta®« und »TouchTomorrow« zusammen, um junge Menschen für Coding & Co. zu begeistern. Das jüngste Ergebnis der Zusammenarbeit ist die erste 3D-Simulation des humanoiden Roboters NAO für die Open-Source-Plattform »Open Roberta Lab«. NAO ist mit Anschaffungskosten von mehreren tausend Euro im Vergleich zu anderen Mikrocontrollern und Hardware-Systemen wie Calliope mini oder LEGO Mindstorms sehr teuer und deshalb in Privathaushalten oder auch in Schulen kaum vertreten. Ab sofort haben Open-Roberta-Fans die Möglichkeit, die anschaulichen Programmiermöglichkeiten des NAO in einer 3D-Simulation auszuprobieren und zu erlernen. Schon jetzt ist das Open Roberta Lab in mehr als 20 Sprachen verfügbar und wird in über 100 Ländern von ca. 500 000 Personen pro Monat genutzt – mit dem 3D-Roboter steigt die Attraktivität der Programmierplattform um ein weiteres Highlight.

Das »Open Roberta Lab« ist eine frei verfügbare grafische Programmierplattform, die das Programmieren lernen leicht macht. Auf der Open-Source-Plattform der Initiative »Roberta® – Lernen mit Robotern« des Fraunhofer IAIS erstellen selbst Neulinge im Handumdrehen erste Programme per »drag and drop«. Die Besonderheit: Im Open Roberta Lab erwachen reale Roboter und Mikrocontroller zum Leben. »Hands-on« erlernen Nachwuchs-Programmiererinnen und -Programmierer die Grundlagen des Codens und entdecken spielerisch die unzähligen Möglichkeiten, die die Welt der Technik und Naturwissenschaften für sie bereithält.

Unter den aktuell 14 Roboter- und Hardware-Systemen, die im Open Roberta Lab programmiert werden können, ist der humanoide Roboter NAO mit seinen 25 Bewegungsgraden, umfangreicher Sensorik und einem Kaufpreis von mehr als 5000 Euro die komplexeste und teuerste Variante. Gleichzeitig ist es natürlich besonders spannend, einen humanoiden Roboter programmieren zu können. Aus diesem Grund haben das Fraunhofer IAIS und Dr. Hans Riegel-Stiftung nun eine erste 3D-Simulation für die Plattform integriert, so dass sich die Nutzer*innen auch ohne teure Hardware die Resultate ihrer Programmierungen in einer detaillierten Simulation anschauen können. Dies soll u. a. zusätzliche Erfolgserlebnisse ermöglichen und damit die Motivation steigern.

Das erste Tutorial mit 3D-Simulation steht ab sofort auf https://lab.open-roberta.org/ zur Verfügung.

Weitere Kooperationen von Fraunhofer IAIS und Dr. Hans Riegel-Stiftung

Begonnen hat die Zusammenarbeit im Rahmen der Entwicklung des »TouchTomorrow-Trucks« der Dr. Hans Riegel-Stiftung, der bundesweit an Schulen fährt, um Schülerinnen und Schüler durch das Erleben und Ausprobieren von Zukunftstechnologien für Bildungs- und Berufswege im MINT-Bereich (Mathematik, Informatik, Naturwissenschaft, Technik) zu begeistern. Eine von acht Themenstationen im Truck befasst sich mit humanoiden Robotern. Schülerinnen und Schüler können dort dank mehrerer vom Fraunhofer IAIS entwickelter Tutorials einen echten NAO-Roboter programmieren. Neben dem Truck sind in den vergangenen Jahren weitere Angebote entstanden: u. a. »TouchTomorrow-Teaching« mit Unterrichtsmaterial und Fortbildungen für Lehrkräfte, »TouchTomorrow-Stream« als Livestream-Dialogformat für Distanz-Lehranlässe wie Covid-19 und das »TouchTomorrow-Lab« im Deutschen Museum Bonn.

Das Deutsche Museum Bonn ist einer von fünf »Open Roberta Coding Hubs« in NRW. Dies sind außerschulische Lernorte, die mit Hardware wie Robotern und Laptops ausgestattet und deren Personal vom Roberta-Team des Fraunhofer IAIS vor Ort zu Roberta-Teachern ausgebildet werden. Das TouchTomorrow-Lab im Deutschen Museum Bonn bietet eine ideale Kulisse für die diversen Workshops in diesem Kontext.

Beate Jost, Technische Leiterin der Roberta-Initiative und Wissenschaftlerin am Fraunhofer IAIS: »Wir freuen uns, dass unsere langjährige Kooperation mit der Dr. Hans Riegel-Stiftung nun in eine neue Phase geht. Mit der neuen NAO-Simulation haben Programmier-Fans und vor allem Schulen ab sofort die Gelegenheit, spannende Experimente mit humanoiden Robotern auszuprobieren, ohne dafür gleich tief in die Geldbörse greifen zu müssen.«

UDOO KEY hits the $10,000 Kickstarter goal in 90 minutes

UDOO KEY, the world’s most flexible AI platform, is a brand-new AI-first solution based on Raspberry Pi RP2040 and ESP32. It enables machine learning applications in the most popular programming languages and libraries, including TinyML, TensorFlow Lite, MicroPython, C, C++ etc. The board, designed for Edge AI projects, marks the fifth crowdfunding campaign by UDOO, which already raised more than 2 million dollars in previous Kickstarter campaigns.

Link to the campaign: key.udoo.org

UDOO KEY combines Raspberry Pi RP2040 and a fully programmable ESP32 into a single powerful piece of hardware. The board comes in two versions: UDOO KEY and UDOO KEY PRO. Both feature Wi-Fi, Bluetooth and BLE; UDOO KEY PRO also features a 9-axis IMU and a digital microphone. The board is fully compatible, both hardware and software-wise, with Raspberry Pi Pico and ESP32.

UDOO KEY also grants access to Clea, the upcoming AI as a service platform by SECO Mind, SECO’s daughter company. Clea is an extensible AI & IoT platform for professional developers, startups, R&D departments and hobbyists. . It allows users to quickly build, monitor and deploy Artificial Intelligence models and apps over a fleet of remote-controlled devices. It comes with a set of pre-built AI models and apps called Clea Apps, all developed by SECO. Last but not least, it’s natively compatible with UDOO KEY, Raspberry Pi as well as Arm and x86 processors. 

Maurizio Caporali, Co-CEO of SECO Mind, said, „Today, AI is very misunderstood. Many AI use cases don’t require a powerful processing unit, and that’s where UDOO KEY comes in. For the first time ever in the world of Edge AI, the user has the option to build an AI project on their terms, using either Raspberry Pi RP2040, ESP32, or both. Several companies we are in touch with find it difficult to take advantage of the AI revolution. UDOO KEY and Clea make this as easy as it gets.”

Shipping will start in January 2022. The Early Bird UDOO KEY is available at $4, while the Early Bird UDOO KEY PRO is available at $9. Both are limited to 1,000 units. 

UDOO has also made available two special kits, built in collaboration with two equally special companies: Arducam and Seeed Studio. 

The first kit, in collaboration with Arducam, is named „Early Bird UDOO KEY PRO Cam Kit + Clea “ and includes 1x UDOO KEY PRO, a 2MB SPI Camera and access to Clea.

The second kit, in collaboration with SeeedStudio, is named “Early Bird UDOO KEY PRO Grove Kit + Clea” and includes 1x UDOO KEY PRO, access to Clea and 14 handpicked Grove Modules, including 5 sensors/ 5 actuators/ 2LED/ 1 LCD display/ 1 Grove shield.

More details on UDOO KEY

The Raspberry Pi Pico-compatible part of UDOO KEY is built upon a Raspberry PI RP2040 dual Arm Cortex-M0, featuring a QSPI 8MB flash memory, 133 MHZ clock, and 264KB of on-chip SRAM.  The ESP32 is based on a dual-core Xtensa 32-bit LX6, with 16 MB flash memory, 8MB PSRAM, Wi-Fi, Bluetooth and Bluetooth Low Energy. The two microcontrollers can talk to each other via serial port and SWD.

The user can program the two microcontrollers in an easy way via a USB-C connector and decide whether to talk with RP2040 or ESP32 via jumper. The UDOO KEY provides many more interfaces: three fully programmable LEDs, and the same pinout of Raspberry Pi Pico, making it 100% compatible with it, both hardware and software-wise. Last but not least, the UEXT connector is accessible from the ESP32, which exposes the I2C, UART and SPI interfaces.

The UDOO KEY also mounts two powerful sensors: a 9-axis IMU and a digital microphone, plus a standard UEXT connector to easily add sensors and other interfaces. Thanks to the on-board ESP32 microcontroller, the UDOO KEY features full Wi-Fi 802.11b/g/n connectivity, Bluetooth and BLE v4.2.  

Link to the Campaign: key.udoo.org

Robotics-Pakete für den Unterricht

fischertechnik bietet verschiedene Robotics-Sets

Mit dem ROBOTICS TXT 4.0 Base Set von fischertechnik lassen sich komplexe Technologien aus dem Alltag im Unterricht spielerisch erlernen. Vier Ergänzungssets ermöglichen darüber hinaus das Eintauchen in die Welt des autonomen Fahrens, in Roboterprogrammierung und in Internet of Things. Mit dem Set „Competition“ lassen sich zudem spannende Aufgaben bei Robotics-Wettbewerben oder -Projekten umsetzen.

Das fischertechnik ROBOTICS TXT 4.0 Base Set ist der perfekte Start, um zu programmieren wie die Profis. Der umfangreiche Baukasten enthält neben der Kamera mit Bildverarbeitung einen Ultraschallsensor, zwei Encodermotoren, einen Spursensor, einen Fototransistor sowie zwei Taster und drei LEDs. Die Modelle können mit der Programmiersoftware ROBO Pro Coding und dem ROBOTICS TXT 4.0 Controller programmiert und gesteuert werden. Einsteiger können auf fertige Beispielprogramme zurückgreifen und in der Blockly-Programmierumgebung ROBO Pro Coding grafisch programmieren, Fortgeschrittene und Profis können darüber hinaus direkt in Python loslegen. Mit der zusätzlichen App fischertechnik Voice Control (Android/ iOS) kann der TXT 4.0 Controller auch über Spracherkennung gesteuert werden. Enthalten sind zwölf spannende Modelle, die von der Fußgängerampel über eine Schranke, einen Barcodescanner bis hin zu mobilen Fahrrobotern mit Encodermotoren, Kamera, Spur- und Abstandssensor reichen. Das umfangreiche Lehrmaterial beinhaltet neben Einführungs- und Basisinformationen 25 Experimente mit Lösungen.



Das fischertechnik ROBOTICS TXT 4.0 Base Set stellt die Basis für den Einsatz im Regelunterricht dar: Controller, Software, Stromversorgung, Aktoren und Sensoren und viele Grundbausteine sind hier enthalten. Das Set wird in einer stabilen Box geliefert, die sich für Einsatz im Regelunterricht sowie auch für Projektarbeiten bestens eignet. Die separat erhältlichen vier Add On Sets erweitern das TXT 4.0 Base Set um ihren jeweiligen Schwerpunkt und können übersichtlich in der unteren, dafür vorgesehenen Wanne integriert werden.

Die Add On-Erweiterungssets umfassen spezifische Hightech-Themen wie autonomes Fahren, Omniwheels und IoT (Internet of Things) sowie Robotics-Wettbewerbe. Damit können attraktive Modelle wie ein autonom fahrendes Auto, ein Fußballroboter oder eine Sensorstation mit beweglicher Kamera zur Messung von Temperatur, Luftfeuchtigkeit, Luftdruck, Luftqualität und Helligkeit konstruiert werden. 

Mit dem ROBOTICS Add On Autonomous Driving lässt sich das Auto der Zukunft selbst bauen und programmieren. Es bietet die Möglichkeit, zusammen mit dem ROBOTICS TXT 4.0 Base Set viele spannende Techniken zu entdecken: Von der Lichtautomatik über einen Spurhalteassistenten, vom Tempomat bis zur Einparkautomatik – das Modell garantiert begeisterte Augen im Unterricht. Der Baukasten enthält neben einem Differenzialgetriebe zwei zusätzliche Räder, LEDs sowie einen Servo-Motor für die Lenkung. Das Add On Autonomous Driving wird durch das Lehrmaterial, das Aufgaben und Experimente mit zugehörigen Lösungen enthält, abgerundet.

Das Add On Omniwheels ermöglicht zusammen mit dem ROBOTICS TXT 4.0 Base Set das Konstruieren verschiedener Modelle mit Allseitenantrieb: Fahrroboter mit verschiedenen Aufgabenstellungen, zum Beispiel ein Fußballroboter, ein Ballwurfroboter, der Zielscheiben erkennt und präzise trifft und ein Malroboter mit Stift, der abgesenkt und angehoben werden kann. Das Highlight des Baukastens sind die Omniwheels, die von vier Encodermotoren angetrieben werden und so eine Bewegung in verschiedene Richtungen ermöglichen. Die im TXT 4.0 Base Set enthaltene Kamera ermöglicht Bildverarbeitung, durch die beispielsweise der Fußballroboter einen Ball erkennen, ihm folgen und Tore schießen kann.

Einen professionellen Einstieg in die Messwerterfassung bietet das Ergänzungsset ROBOTICS Add On IoT. Zusammen mit den Robotics TXT 4.0 Base Set ermöglicht die Sensorstation die Messung von Temperatur, Luftfeuchtigkeit, Luftdruck, Luftqualität und Helligkeit. Die Sensorstation kann mit der Programmiersoftware ROBO Pro Coding und dem ROBOTICS TXT 4.0 Controller programmiert und gesteuert werden und ist ideal, um Themen wie Messwerterfassung und -übertragung sowie das Steuern und Regeln von Aktoren und Sensoren zu vermitteln. Die Messwerterfassung erfolgt über die Verbindung des TXT 4.0 Controllers mit der fischertechnik-Cloud, in der die Sensordaten gespeichert, gesammelt und grafisch dargestellt werden. Über die Bedienoberfläche, dem sogenannten Dashboard, werden die verschiedenen Sensordaten permanent (in Echtzeit) erfasst und die in zwei Achsen schwenkbare Kamera ferngesteuert. Das Lehrmaterial des Add On IoT enthält sechs Experimente mit dazugehörigen Lösungen.



Das ROBOTICS Add On Competition wurde für Schulen, Universitäten und alle Bildungseinrichtungen entwickelt, die ihre Modelle für Robotics-Wettbewerbe für ihre Schüler und Studenten weiterentwickeln oder verbessern möchten. Mit diesem Set lassen sich Modelle tunen und um neue Features erweitern, was diesen Baukasten zur perfekten Ergänzung für Wettbewerbe auf der ganzen Welt macht. Das Set enthält den neuen RGB-Gestensensor, einen Kombisensor (Gyroskop, Beschleunigung und Kompass), einen Ultraschallsensor, zwei stärkere Encodermotoren sowie Kettenglieder und Rastraupenbeläge für das Fahrgestell eines Raupenroboters – ideal für den Bau wettbewerbsfähiger Fahrroboter.

European Startup Launches STEM-based Autonomous Batmobile™

After three successful and delivered Kickstarter Campaigns, CircuitMess Launches Kickstarter  to Encourage Fans Age 7 and up to Create their own Autonomous Batmobile

Zagreb, Croatia – October 5, 2021 – Today, CircuitMess announced its licensing deal with Warner Brothers and its Kickstarter campaign for the CircuitMess Batmobile™, designed to teach children seven and up about engineering and autonomous driving.

“CircuitMess is truly inspiring,” says Francois Simonetta, Vice President at Warner Bros. Consumer Products EMEA Agents. “Turning toys into elaborate STEM kits that teach both electronics and coding is a great way to encourage kids to learn STEM by doing what is most natural to them: playing. We are excited that the CircuitMess Batmobile is their next and greatest STEM kit so far.”

In their efforts to become the world’s most inspiring STEM toys brand, CircuitMess has developed numerous educational products that encourage kids and adults to create rather than just consume. This includes MAKERbuino – a DIY game console, MAKERphone – a DIY mobile phone, and STEM Box – a STEM projects subscription.

 “We love the kits that we’ve been able to create for the crowdfunding community and want to continue to offer it to them first,” says Alber Gajšak, CEO of CircuitMess. “With three successful Kickstarters that have raised more than $850k in total, we have been able to get proven interest and traction for our special kits and deliver exciting projects to people all over the world.”

No previous experience or knowledge should be needed to become a true STEM Superhero. The kit is designed for anyone 7 and older with complete instructions.

The tasks include: learning how autonomous vehicles work, how to code a microcomputer, how computers track objects, and developing your own computer vision algorithm.

Since its start in 2017, CircuitMess has delivered more than 50.000 devices to customers all around the globe. Over the past 4 years in creating STEM kits, CircuitMess has put a focus on introducing these technologies in a fun, simple, easy-to-understand, and most importantly, hands-on way.

The CircuitMess Batmobile Kickstarter is available for pre-order now and will have a starting price of US $99. You can visit the Kickstarter page here. and the CircuitMess website to see all their other kits here.

A brickobotik tinker project: the SPIKE breakout board

Guest Post by brickobotik:

LEGO Education ’s SPIKETM Prime is available on the market for more than one year by now. In our big test series, we presented in to you in detail. The Inventor 51515 which is the SPIKETM ’s home version, can also be bought by now. The software of both robots has reached a decent level. Earlier this year, we published our own e-book for the SPIKETM Prime Software that can be a helpful resource for everybody who still has questions about programming this robot. For people who like paperbacks more than digital e-books, we also sell it as a print-on-demand paperback on amazon.

At brickobotik, we nevertheless continue to work with the SPIKETM Prime. On the one hand, we use it in our workshops and teacher-trainings. On the other hand, we are also interested in the electro-technics of the SPIKETM Prime. Therefore, we give you a little insight in our „briokobotik craft corner“ and present a little project on which we currently work.

An adapter board for the ultrasonic sensor

Many of you probably noticed the two Torx screws on the back of the ultrasonic sensor in the SPIKETM Prime and the Mindstorms Inventor set which you can ‚t find on the other sensors. If you unscrew these two screws, you can remove the white ultrasonic sensor device so that only the black shell remains in your hand. Here, the cable of the LEGO Powered Up connector ends up in a female header. This 8-pin female header has a pitch of 1.27 mm which cannot be accessed easily with conventional Arduino cables. That is why we decided to develop an adapter that breaks out the 1.27 mm pitch to 2.54 mm which is the conventional dimension of the Arduino, perfboards, breadboards etc.

Technical details about the breakout board

There are six signals within the Power Functions 2.0 connection:

1x 3.3 V power supply
1x GND

 2x digital in-/output (GPIO), which can also be used for UART (115200 Baud, 8N1) Please note: The GPIOs do not supply enough current to operate the LEDs directly! A transistor circuit is necessary to supply an LED from the 3.3 V rail.

 2x PWM for the motors

Please note: The voltage of these signals is supplied directly by the SPIKE ’s battery! Aocording to our measurements it is between 8.4 V and 6.3 V.

Each GPIO signal is provided with a resistor in series that provides a minimal protection against wrong GPIO configurations. They can easily be bypassed with a solder bridge.

On the left and right side, the same signals are spread out. On one side, you find the two GPIOs together with the power rails and on the other side, you find the PWM signals with the power rails. The signal lines to the left and right do not only fan out to contacts of

2.54 mm pitch but also to contacts of 2.00 mm pitch for the Grove connector system.

The respective 3.3 V power supply lines are by default open solder bridges. In this way, two independent power supplies will not compete destructively if for example a Calliope mini or other microcontroller is used. The open solder bridges can be closed with a bit of solder if required.

New possibilities with the breakout board

With our breakout board, connecting and using other sensors and motors with the SPIKETM Prime becomes much easier. It also opens the possibility of connecting the SPIKETM to a microcontroller like the Calliope mini. But you should note one important constraint: projeots like these are primarily suitable for advanced users. The wiring as well as the programming needs experience with the electronics and the respective sensor protocols.

Technical details about the control

The Powered Up signals are directly controllable via the SPIKETM Prime app but only using Python projects and on one’s own account. There is no „UltrasonicBreakout“ Python module or something similar by LEGOO . Nevertheless, descriptions and instructions for the respective MicroPython classes and methods can be found in the internet. People with experience with other MicroPython devices, especially with operating the MioroPython REPL, can quickly familiarize with the necessary details.

Order your own adapter board!

At briokobotik, we are going to continue to work with the adapter board and test its conneotion to different sensors. But we would also like to give the possibility of experimenting with connections to the SPIKETM Prime to all other home constructors and electro-technios enthusiasts who like to try it themselves. So, if you are interested in this adapter board and would like to purchase it, just send us an email to [email protected]. We will collect all requests and if there are enough people interested, we will inform you via email about the possibility of preordering the adapter board.

You don ‚t want to tinker but you are interested in a certain sensor that could be conneoted to the SPIKETM Prime? Visit our website at www.briokobotik.de and leave a oomment or a message with your requests for future projects and we will try to take them into account.

Wandelbots – No-Code Robotics – – Short Interview

Sebastian from Robots-Blog was able to do a short interview with Annelie Harz from Wandelbots. Learn in the interview what Wandelbots is and why programming might soon become obsolete.

Robots-Blog: Who are you and what is your job at Wandelbots?

Annelie: My name is Annelie and I work as a marketing manager at Wandelbots.

Robots Blog: Which robot from science, movies or TV is your favorite?

Annelie: Wall-E, actually. A little robot that does good things and is just adorable.

Robots Blog: What is Wandelbots and where does the name come from?

Annelie: The name describes the CHANGE (german: „Wandel“) of RoBOTics. Because that is exactly what we do. We enable everyone to handle robots, which today is only reserved for a small circle of experts. Our long-term company vision is: „Every robot in every company and every home runs on Wandelbots“. And that promises big change on a wide variety of levels – starting for us with industry.

Robots Blog: Who is your product aimed at and what do I need for it?

Annelie: Our product is currently aimed at customers from industry. Here, our software – Wandelbots Teaching – can help with programming various applications such as welding or gluing without having to write a line of code. It is designed to be so simple and intuitive that really anyone can work with it to teach a robot a desired result. This works through the interaction of an app and an input device, the TracePen. This takes the form of a large pen with which users can draw a desired path for the robot on the component. But we also work together with educational institutions. They are the ones who train the next generation of robot experts. And in the long term, we are convinced – and this is already part of our vision – that robots will also find their way into private life as little helpers.

Robots-Blog: What feature is particularly worth mentioning?/What can’t anyone else do?

Annelie: Our product works robot manufacturer independent. In robotics, each manufacturer has developed its own proprietary programming language over the years. This makes communication between humans and machines very difficult. We, on the other hand, want to create a tool that allows any human to work with any robot – completely independent of programming language and manufacturer. Robotics should be fun for the user of our product. Thanks to the high usability and the operation of our app via iPad, this is already possible today. And over the next time, application-specific editions will be added to our platform – currently, for example, we are working on an app version for robot welding.

Robots Blog: Do I still need to learn programming at all?

Annelie: No. As I just explained, with this so-called no-code technology, you don’t need to learn programming anymore. It is simple, intuitive and user-friendly, even for laymen. Of course, you always need to have some basic understanding of robotics, especially for safety reasons. You should never underestimate the dangers posed by robots, which is why our product always works according to the respective manufacturer-specific safety specifications.

Robots Blog: What robots are supported? I have a Rotrics DexArm and an igus Robolink DP-5; can I use those as well?

Annelie: Of course, shortly after entering the market, we first want to make robotics in the industry, for example the automotive sector, more flexible and easier. To do this, we are gradually integrating the largest robot brands into our platform. We will certainly also integrate smaller robot brands that cover one or more niches. Or – even better – thanks to our Robot Integration Software Development Kit, robot manufacturers will soon be able to do it themselves.

Robots Blog: How much does your product cost?

Annelie: Our product is offered via a licensing model as a subscription, as is common in the Software as a Service business, or also classically for purchase. The current prices for the different editions can be found on our website (and you will certainly find more exciting content there)