KI ist mehr als nur ein Modell: Vier Schritte zum vollständigen Workflow-Erfolg

Ingenieur*innen sind zunehmend bestrebt, KI erfolgreich in Projekte und Anwendungen zu integrieren, während sie versuchen, ihre eigene KI-Lernkurve zu meistern. Allerdings werden viele KI-Projekte nach wenig vielversprechenden Ergebnissen wieder verworfen. Woran liegt das? Johanna Pingel, Product Marketing Manager bei MathWorks, erläutert, warum es für Ingenieur*innen wichtig ist, sich auf den gesamten KI-Workflow zu konzentrieren und nicht nur auf die Modellentwicklung:

Ingenieur*innen, die Machine Learning und Deep Learning einsetzen, erwarten oft, dass sie einen großen Teil ihrer Zeit mit der Entwicklung und Feinabstimmung von KI-Modellen verbringen. Die Modellierung ist zwar ein wichtiger Schritt im Workflow, aber das Modell ist nicht alleiniges Ziel. Das Schlüsselelement für den Erfolg bei der praktischen KI-Implementierung ist das frühzeitige Aufdecken von Problemen. Außerdem ist es wichtig zu wissen, auf welche Aspekte des Workflows man Zeit und Ressourcen konzentrieren sollte, um die besten Ergebnisse zu erzielen. Das sind nicht immer die offensichtlichsten Schritte.

Der KI-gesteuerte Workflow

Es lassen sich vier Schritte in einem KI-gesteuerten Workflow differenzieren, wobei jeder Schritt seine eigene Rolle bei der erfolgreichen Implementierung von KI in einem Projekt spielt.
 

Schritt 1: Datenaufbereitung

Die Datenaufbereitung ist wohl der wichtigste Schritt im KI-Workflow: Ohne robuste und genaue Daten zum Trainieren eines Modells sind Projekte rasch zum Scheitern verurteilt. Wenn Ingenieur*innen das Modell mit „schlechten“ Daten füttern, werden sie keine aufschlussreichen Ergebnisse erhalten – und wahrscheinlich viele Stunden damit verbringen, herauszufinden, warum das Modell nicht funktioniert.

Um ein Modell zu trainieren, sollten Ingenieur*innen mit sauberen, gelabelten Daten beginnen, und zwar mit so vielen wie möglich. Dies kann einer der zeitaufwendigsten Schritte des Workflows sein. Wenn Deep Learning-Modelle nicht wie erwartet funktionieren, konzentrieren sich viele darauf, wie man das Modell verbessern kann – durch das Optimieren von Parametern, die Feinabstimmung des Modells und mehrere Trainingsiterationen. Doch noch viel wichtiger ist die Aufbereitung und das korrekte Labeln der Eingabedaten. Das darf nicht vernachlässigt werden, um sicherzustellen, dass Daten korrekt vom Modell verstanden werden können.
 

Schritt 2: KI-Modellierung

Sobald die Daten sauber und richtig gelabelt sind, kann zur Modellierungsphase des Workflows übergegangen werden. Hierbei werden die Daten als Input verwendet und das Modell lernt aus diesen Daten. Das Ziel einer erfolgreichen Modellierungsphase ist die Erstellung eines robusten, genauen Modells, das intelligente Entscheidungen auf Basis der Daten treffen kann. Dies ist auch der Punkt, an dem Deep Learning, Machine Learning oder eine Kombination davon in den Arbeitsablauf einfließt. Hier entscheiden die Ingenieur*innen, welche Methoden das präziseste und robusteste Ergebnis hervorbringt.

Die KI-Modellierung ist ein iterativer Schritt innerhalb des gesamten Workflows, und Ingenieur*innen müssen die Änderungen, die sie während dieses Schrittes am Modell vornehmen, nachverfolgen können. Die Nachverfolgung von Änderungen und die Aufzeichnung von Trainingsiterationen mit Tools wie dem Experiment Manager von MathWorks sind entscheidend, da sie helfen die Parameter zu erklären, die zum genauesten Modell führen und reproduzierbare Ergebnisse liefern.
 

Schritt 3: Simulation und Tests

Ingenieur*innen müssen beachten, dass KI-Elemente meistens nur ein kleiner Teil eines größeren Systems sind. Sie müssen in allen Szenarien im Zusammenspiel mit anderen Teilen des Endprodukts korrekt funktionieren, einschließlich anderer Sensoren und Algorithmen wie Steuerung, Signalverarbeitung und Sensorfusion. Ein Beispiel ist hier ein Szenario für automatisiertes Fahren: Dabei handelt es sich nicht nur um ein System zur Erkennung von Objekten (Fußgänger*innen, Autos, Stoppschilder), sondern dieses System muss mit anderen Systemen zur Lokalisierung, Wegplanung, Steuerung und weiteren integriert werden. Simulationen und Genauigkeitstests sind der Schlüssel, um sicherzustellen, dass das KI-Modell richtig funktioniert und alles gut mit anderen Systemen harmoniert, bevor ein Modell in der realen Welt eingesetzt wird.

Um diesen Grad an Genauigkeit und Robustheit vor dem Einsatz zu erreichen, müssen Ingenieur*innen validieren, dass das Modell in jeder Situation so reagiert, wie es soll. Sie sollten sich auch mit den Fragen befassen, wie exakt das Modell insgesamt ist und ob alle Randfälle abgedeckt sind. Durch den Einsatz von Werkzeugen wie Simulink können Ingenieur*innen überprüfen, ob das Modell für alle erwarteten Anwendungsfälle wie gewünscht funktioniert, und so kosten- und zeitintensive Überarbeitungen vermeiden.
 

Schritt 4: Einsatz

Ist das Modell reif für die Bereitstellung, folgt als nächster Schritt der Einsatz auf der Zielhardware – mit anderen Worten, die Bereitstellung des Modells in der endgültigen Sprache, in der es implementiert werden soll. Das erfordert in der Regel, dass die Entwicklungsingenieur*innen ein implementierungsbereites Modell nutzen, um es in die vorgesehene Hardwareumgebung einzupassen.

Die vorgesehene Hardwareumgebung kann vom Desktop über die Cloud bis hin zu FPGAs reichen. Mithilfe von flexiblen Werkzeugen wie MATLAB kann der endgültige Code für alle Szenarien generiert werden. Das bietet Ingenieur*innen den Spielraum, ihr Modell in einer Vielzahl von Umgebungen einzusetzen, ohne den ursprünglichen Code neu schreiben zu müssen. Das Deployment eines Modells direkt auf einer GPU kann hier als Beispiel dienen: Die automatische Codegenerierung eliminiert Codierungsfehler, die durch eine manuelle Übersetzung entstehen könnten, und liefert hochoptimierten CUDA-Code, der effizient auf der GPU läuft.

Gemeinsam stärker

Ingenieur*innen müssen keine Datenwissenschaftler*innen oder gar KI-Expert*innen werden, um mit KI erfolgreich zu sein. Mit Werkzeugen für die Datenaufbereitung, Anwendungen zur Integration von KI in ihre Arbeitsabläufe und mit verfügbaren Expert*innen, die Fragen zur KI-Integration beantworten, können sie KI-Modelle auf Erfolgskurs bringen. In jedem dieser Schritte im Workflow haben Ingenieur*innen die Möglichkeit, flexibel ihr eigenes Domänenwissen einzubringen. Dies ist eine wichtige Basis, auf der sie mit den richtigen Ressourcen aufbauen und die sie durch KI ergänzen können.

Über MathWorks

MathWorks ist der führende Entwickler von Software für mathematische Berechnungen. MATLAB, die Programmiersprache für Ingenieurwesen und Wissenschaft, ist eine Programmierumgebung für die Algorithmen-Entwicklung, Analyse und Visualisierung von Daten sowie für numerische Berechnungen. Simulink ist eine Blockdiagramm-basierte Entwicklungsumgebung für die Simulation und das Model-Based Design von technischen Mehrdomänen-Systemen und Embedded Systemen. Ingenieure und Wissenschaftler weltweit setzen diese Produktfamilien ein, um die Forschung sowie Innovationen und Entwicklungen in der Automobilindustrie, der Luft- und Raumfahrt, der Elektronik, dem Finanzwesen, der Biotechnologie und weiteren Industriezweigen zu beschleunigen. MATLAB und Simulink sind zudem an Universitäten und Forschungsinstituten weltweit wichtige Lehr- und Forschungswerkzeuge. MathWorks wurde 1984 gegründet und beschäftigt mehr als 5000 Mitarbeiter in 16 Ländern. Der Hauptsitz des Unternehmens ist Natick, Massachusetts, in den USA. Lokale Niederlassungen in der D-A-CH-Region befinden sich in Aachen, München, Paderborn, Stuttgart und Bern. Weitere Informationen finden Sie unter mathworks.com.

Roboter – die intelligenten und lernfähigen Werkzeuge der Zukunft

Wie autonome Roboter Helfer und Kollegen der Menschen werden können

Erst vor kurzem hat Prof. Dr. Sami Haddadin und sein Forschungsteam mit Simon Haddadin und Sven Parusel für ihren kostengünstigen, flexiblen und einfach zu bedienenden Roboter den Deutschen Zukunftspreis 2017 erhalten. Doch was steckt hinter dem Konzept dieses Roboters? In seiner Keynote auf der MATLAB EXPO im Sommer letzten Jahres sprach Sami Haddadin über seine Vision der Robotik für die Zukunft und welche Schritte heute bereits dafür getan werden können.

Der Stand der Technik
Prof. Dr. Sami Haddadin definiert Roboter als intelligente, lernfähige Werkzeuge, die in der Lage sind, den Menschen zu unterstützen, und verortet sie so als nächste Entwicklungsstufe der Werkzeuge in einer Linie nach Steinkeil, Dampfmaschine und Computer.

Dennoch sind die meisten Roboter heute noch weit davon entfernt, selbstständig handeln zu können. Stattdessen stehen sie hinter Schutzzäunen und absolvieren immer die gleichen Arbeitsabläufe. Zudem beschränken sich ihre Freiheitsgrade meist auf sechs oder höchstens zwölf Dimensionen. Das bedeutet: Die Roboter, die heute im Einsatz sind, fungieren zum größten Teil als Produktionsmaschinen mit festgelegten Aufgaben und sind abgeschottet vom Menschen.

Eine Revolution in der Mensch-Maschine-Interaktion
Der technische Fortschritt der letzten Jahre hat es möglich gemacht, Robotern einen neuen Platz in unserer Arbeitswelt aber auch im privaten Bereich geben zu können. Ein wichtiger Punkt ist, dass wir nun den Robotern beibringen können, mit dem Menschen zu interagieren. Besonders wichtig ist in diesem Punkt die Ingenieurstechnologie, die den Roboter hochbeweglich macht. So verfügt zum Beispiel der vom DLR (Deutsches Zentrum für Luft- und Raumfahrt) entwickelte Roboter Agile Justin über 53 Freiheitsgrade.

Ebenso zentral für die Interaktion mit dem Menschen ist die Sensorik, mit der ein Roboter ausgestattet ist. Denn über Sensoren kann der Roboter seine Umwelt und so auch Menschen in seiner Umgebung wahrnehmen. Zudem kann er merken, wenn ein Mensch physisch mit ihm interagiert.

Vernetzung
Der Punkt, in dem Roboter dem Menschen schon einen großen Schritt voraus sind, ist die Vernetzung. Roboter können bereits heute untereinander kommunizieren und eine kollektive Intelligenz bilden. Genau hier können sie den Menschen auch weiter unterstützen, indem sie die Schnittstelle zwischen Mensch und Maschineninformationen bilden. Dazu Haddadin: „Ein ganz zentraler Meilenstein, wenn nicht sogar Quantensprung der derzeitigen Entwicklung sind die Cobots, das heißt, Roboter, die mit dem Menschen interagieren können und zugleich miteinander vernetzt sind.“

Durch die Vernetzung untereinander sammeln die Roboter eine Vielzahl an Daten, die sie nutzen können, um aus ihnen zu lernen und Entscheidungen zu treffen. Diese autonome Handlungsfähigkeit macht den Roboter zu einem wertvollen Unterstützer. Denn ein autonomer Roboter kann mehr als nur eine vordefinierte Handlung ausführen, besitzt Lernfähigkeit und kann für verschiedene Zwecke und Tätigkeiten eingesetzt werden.

Autonome Systeme als Herausforderung für die Programmierung
Die Fähigkeit, selbstständig zu handeln, erfordert auch ein neues Level für Betriebssysteme und der Programmierung für Autonome Systeme, denn, so führt Sami Haddadin aus: „Ein Autonomes System interagiert mit einer potenziell unbekannten und fast nicht beschreibbaren Umwelt. Das muss auch in den Abstraktionsmodellen einer Software repräsentiert sein.“ Eine große Herausforderung ist beispielsweise das Sammeln der über die Sensoren gewonnenen Daten, die dann in Echtzeit zu einem kohärenten Bild der Umgebung zusammengefügt werden müssen.

Weiterhin ist es essentiell, das Autonome System mit Informationen und Szenarien zu trainieren, sodass es erlernt, selbst sinnvolle Entscheidungen zu treffen. Gerade der Prozess des Trainings nimmt meistens viel Zeit und Ressourcen in Anspruch. Deshalb hat MathWorks vor kurzem die Möglichkeit in MATLAB eingeführt, auf bereits vortrainierte neuronale Netzwerke wie zum Beispiel GoogLeNet zurückzugreifen.

Digitale Unterstützung in allen Lebensbereichen
Je komplexer die Handlungen sind, die ein Roboter übernehmen soll, umso mehr Daten muss er in kürzester Zeit verarbeiten und daraus intelligente Handlungen initiieren können. Doch mit diesen Fähigkeiten steigt auch der Nutzen, den der Mensch aus ihnen ziehen kann.

Die klugen, digitalen Helfer könnten sowohl für die private Unterstützung im Alltag als auch für Industrieroboter in der Industrie 4.0, aber auch in der Medizinrobotik genutzt werden – etwa als Nanoroboter, die Medikamente im Blut verabreichen, ebenso wie als Exoskelette für die Rehabilitation. Noch hat die Forschung erst die ersten Schritte auf diesem Weg gemacht, aber die Möglichkeiten sind schon heute vielfältiger als je zuvor.

Den gesamten Vortrag von Prof. Dr. Sami Haddadin auf der MATLAB EXPO können Sie hier ansehen: https://de.mathworks.com/videos/robots-and-humans-in-the-digital-world-1504187986611.html

Eine sechsminütige Zusammenfassung mit allen Highlights finden Sie hier:  https://de.mathworks.com/videos/robots-and-humans-in-the-digital-world-highlights–1504187845588.html

Auch im nächsten Jahr lädt MathWorks am 26. Juni 2018 wieder zur MATLAB EXPO ein. Die Konferenz bietet neben Vorträgen zu aktuellen Trends aus Forschung und Entwicklung auch die Möglichkeit, sich über konkrete Anwendungsbeispiele auszutauschen.

Autonome Systeme als Chance für die Zukunft begreifen

Michelle Hirsch von MathWorks über die Entwicklung und den Nutzen von Autonomen Systemen

Autonome Systeme werden in naher Zukunft beinahe jeden Lebensbereich unserer modernen Gesellschaft berühren. Sie werden die Produktion maßgeblich verändern, aber sie werden auch das Arbeitsleben und Geschäftsstrategien deutlich beeinflussen, denn mit zunehmender Fähigkeit der Maschinen, uns alltägliche Dinge abzunehmen, bleiben den Menschen mehr Kapazitäten für kreative Arbeit. Was Autonome Systeme von bereits bestehenden automatisierten Systemen unterscheidet, welche Voraussetzungen für ihre Entwicklung erfüllt werden müssen und welches Potential sie mit sich bringen, ist ein Schwerpunktthema auf der diesjährigen MATLAB EXPO am 27. Juni in München. So erläutert Michelle Hirsch, Head of MATLAB Product Management bei MathWorks, diese Fragestellungen in ihrer Keynote „How to build an Autonomous Anything“.

Autonome Systeme in der Gesellschaft

„Der Begriff «Autonome Systeme» wird oft mit selbstfahrenden Autos, intelligenten Robotern oder automatisch navigierenden Drohnen in Verbindung gebracht“, meint Michelle Hirsch. „Doch Autonome Systeme haben auf ein viel breiteres Spektrum unseres täglichen Lebens Einfluss – etwa in Form einer Erntemaschine, die 300 Tonnen Getreide pro Stunde erntet und gleichzeitig in einen nebenherfahrenden Container ablädt. Dank Autonomer Systeme kann eine Gaspumpstation mit Predictive-Maintenance-System Schwachstellten erkennen und melden, bevor es zum Schaden kommt. Es kann aber auch ein automatisches Insulin-Infusionssystem sein, das es Diabetes-Patienten erleichtert, ihren Blutzuckerwert zu kontrollieren.“ Für die Entwicklung hin zu autonomer Technologie in nahezu jedem Bereich unseres Lebens sieht Hirsch drei treibende Kräfte: „Die Verfügbarkeit ständig steigender Rechenleistung und von Sensor-Technologie für die Datenerfassung und -Verarbeitung, Fortschritte in der Algorithmen-Entwicklung für die Analyse von Big Data sowie die Flexibilität, sowohl Cloud-Systeme als auch Embedded-Geräte für den Einsatz autonomer Technologie zu nutzen.

Der feine Unterschied zwischen Automation und Autonomer Technologie

Autonome Systeme eröffnen aufgrund ihrer Funktionalität und Anpassungsfähigkeit die Möglichkeit für vielfältige Einsatzmöglichkeiten in der Industrie, in der Forschung und im alltäglichen Leben. Der Einsatz autonomer Technologien in bestehenden Produkten oder Dienstleistungen erhöht den Wettbewerbsvorteil des Herstellers, beispielsweise durch steigende Effizienz, höhere Flexibilität sowie Zeit- und Kosten-Einsparungen. Doch was genau sind Autonome Systeme und wie unterscheiden sie sich von herkömmlichen Maschinen?

Autonome Systeme besitzen die Fähigkeit, selbstständiges Handeln erlernen zu können. Darin ähneln sie stark automatischen Systemen, die in der industriellen Produktion bereits weit verbreitet sind. Der Unterschied liegt in der Fähigkeit, dieses selbstständige Handeln auch unter unbekannten Bedingungen ausführen zu können. Ein automatisierter Roboter ist in der Lage, in einer kontrollierten Umgebung bestimmte Handlungen selbstständig auszuführen. Ein autonomer Roboter kann sich darüber hinaus in unbekannten Umgebungen ohne menschliche Steuerung zurechtfinden und diese erforschen.

Wie ein autonomes System entsteht

Diese Fähigkeit, auf Neues zu reagieren und selbstständig zu handeln, bedarf hoher technischer Leistungen. So erklärt Michelle Hirsch: „In meiner Keynote auf der MATLAB EXPO möchte ich Ingenieuren zeigen, wie sie Autonome Technologien in ihre Arbeit integrieren können. Um zum Beispiel ein selbstfahrendes Auto zu entwickeln, muss man es als erstes mit der Fähigkeit zur Sinneswahrnehmung ausstatten, zum Beispiel mit Kameras, GPS, Infrarot-Sensoren zur Erkennung von Distanzen und Bewegungen von Objekten und LIDAR, um ein 3D-Modell der Umgebung zu erstellen.
All diese einzelnen Daten müssen nun zu einem kohärenten Bild zusammengefügt und interpretiert werden. Genau bei diesem Punkt kommen Autonome Technologien ins Spiel. Da die Verkehrssituation auf den Straßen stets unterschiedlich ist, müssen Algorithmen entwickelt werden, die unbekannte Daten analysieren und verstehen können. Mithilfe von Deep-Learning- und Machine-Learning-Algorithmen können autonome Fahrzeuge die Situation auf der Straße einschätzen und sogar identifizieren, welche Fußgänger aufmerksam sind und welche nicht.
Anschließend folgt der Prozess der Entscheidung, etwa ob das Fahrzeug bremst oder die Spur wechselt. Auch hier kommen Algorithmen zum Einsatz. Mit jeder getroffenen Entscheidung wird der Erfahrungsschatz des Systems größer und der Entscheidungsprozess wird optimiert. Deshalb ist es wichtig, dass ein System viele Tausende von Testkilometer zurücklegt, um immer sicherer in seinen Entscheidungen zu werden.“

Für die Einführung von Autonomen Systemen vertritt Hirsch einen inkrementellen Ansatz: von deterministisch kontrollierten zu überwachten bis hin zu automatisiertem Betrieb und schließlich zu völlig autonomen adaptiven Systemen. Allein aus praktischen und sicherheitsrelevanten Überlegungen ergibt sich diese schrittweise Vorgehensweise, im Zuge derer Entwickler und Anwender lernen, mit den neuen Technologien umzugehen und diese gewinnbringend einzusetzen.

Autonome Systeme als Entlastung für Menschen

Noch befinden sich die ersten autonom fahrenden Autos in der Testphase, doch andere Autonome oder Teil-Autonome Systeme sind bereits erfolgreich im Einsatz. „Autonome Technologie ermöglicht es uns, Verantwortung für eine Vielzahl von Entscheidungen auf Computer zu übertragen“, so Michelle Hirsch. „Das gibt Menschen die Möglichkeit, ihre Zeit für die Dinge zu nutzen, die ihnen wichtig sind. Gut trainierte Computer können konstantere Leistung erbringen als Menschen und so zum Beispiel im Straßenverkehr für mehr Sicherheit sorgen. In anderen Bereichen ist es nicht das Ziel, die Verantwortung komplett an Maschinen zu übertragen. Dennoch können Autonome Systeme auch in diesen Bereichen die Menschen teilweise entlasten. Diese Zeit können wir nicht nur als Freizeit nutzen, sondern auch, um an neuen Entwicklungen zu forschen oder neue Business-Strategien zu entwickeln. Auch können Autonome Systeme Aufgaben übernehmen, die für Menschen zu gefährlich sind und so für mehr Sicherheit für Hersteller sorgen.“

 

Mehr Informationen zur Entwicklung Autonomer Systeme und konkrete Anwendungsbeispiele gibt Michelle Hirsch in ihrer Keynote “How to build an Autonomous Anything“ auf der MATLAB EXPO am 27. Juni 2017 in München.

Unter www.matlabexpo.de können Sie sich kostenfrei für die MATLAB EXPO registrieren.

Updates für Automatisiertes Fahren und Maschinelles Lernen

MathWorks stellt Release 2017a der MATLAB- und Simulink-Produktfamilien vor

Aachen/München, 9. März 2017MathWorks stellt heute Release 2017a (R2017a) mit einer Reihe neuer Funktionen in MATLAB und Simulink vor. R2017a enthält ein neues Produkt, die Automated Driving System Toolbox, für den Entwurf, die Simulation und das Testen von fortgeschrittenen Fahrerassistenzsystemen (ADAS) und automatisierten Fahrsystemen. R2017a enthält zudem Neuerungen im Bereich Big Data Analytics und Machine Learning ebenso wie Aktualisierungen für 86 vorhandene Produkte.

Neue Funktionen für Automatisiertes Fahren

Das Release 2017a umfasst die neue Automated Driving System Toolbox für das Design und Testen von ADAS und autonomen Fahrsystemen. Sie stellt neue Funktionen zur Entwicklung von Sensor-Fusion- und Tracking-Algorithmen bereit, die den Anwendern helfen, durch das Zusammenführen von Sensordaten aus komplementären Quellen neue und präzisere Kenntnisse über einzelne Verkehrssituationen zu erlangen. Anhand von generierten Verkehrsszenarien und synthetischen Sensordaten lassen sich Algorithmen testen und validieren. Mit weiteren Funktionen können komplette Kamera-, Radar- und Lidar-basierte Sensoren entwickelt werden. Durch die automatische Generierung von Code für den Sensorfusions- und Verfolgungs-Workflow lässt sich wertvolle Entwicklungszeit einsparen.

Von Data Analytics zu Maschinellem Lernen

Ein weiterer Fokus des R2017a liegt auf neuen Funktionen für Data Analytics, Machine Learning und Deep Learning. Neue Tools erleichtern die Skalierung und schnellere Ausführung von Algorithmen in MATLAB und Simulink. Dieser Vorteil kommt beispielsweise zum Tragen, wenn Anwender große Mengen an Bilddaten analysieren möchten, um Algorithmen zur Objekterkennung zu entwickeln.

Mit dem neuen Update ist es möglich, neuronale Netze vollständig selbst zu trainieren oder Transfer Learning mit vortrainierten Modellen zu verwenden, die bereits Tausende von Objekten erkennen. Anwender können das Training mit GPUs auf ihrem Multi-Core Computer oder durch Skalierung in der Cloud beschleunigen.

Das Update umfasst zudem Frameworks zur Objekterkennung, die helfen, Objekte mit Deep Learning noch präziser lokalisieren und klassifizieren zu können. Funktionen für Maschinelles Lernen sind bereits in die Classification Learner App integriert und helfen bei der Klassifizierung von Objekten. Ergänzt wird sie durch die neue Regression Learner App zum Trainieren von Regressionsmodellen mit überwachtem maschinellem Lernen.

Big Data leichter verarbeiten

Bei der Bearbeitung großer Datenmengen stehen Anwender oft vor technischen Problemen, etwa wenn sie Algorithmen entworfen haben und diese skalieren möchten, die Daten aber nicht in den Arbeitsspeicher passen. Zur leichteren Bearbeitung von Big Data wurden im Release 2016b Tall Arrays eingeführt, die bei großen Datenmengen dennoch eine vertraute Syntax bieten. Mit dem Release 2017a werden Tall Arrays auch in vielen Machine-Learning-Funktionen unterstützt.

Leichteres Arbeiten mit Simulink in der Cloud

Auch in Simulink erleichtern Neuerungen des umfassenden Updates die Arbeit mit großen Datenmengen. Zum Beispiel ist es nun möglich, Eingangssignale aus MAT-Dateien zu streamen anstatt sie in den Arbeitsspeicher laden zu müssen. Zudem können Nutzer nun mithilfe des parsim-Befehls mehrere Simulationen parallel ausführen – entweder auf dem eigenen PC oder in der Cloud.

Auf der embedded world 2017 in Nürnberg, 14.-16. März, können Sie sich auf dem MathWorks-Stand (Halle 4, Stand 110) persönlich mit einem Ansprechpartner austauschen

Updates der MATLAB-Produktfamilie:

  • MATLAB
    • Interaktive Aktualisierungen von Abbildungen im Live Editor (einschließlich des Titels, der Beschriftungen, der Legende und weiterer Anmerkungen) sowie die Möglichkeit, Live-Script-Ausgaben in andere Anwendungen zu kopieren
    • Heatmap-Diagrammfunktionen für die Datenvisualisierung
    • Mehr Funktionen für die Arbeit mit Tall Arrays, darunter ismember, sort, conv und Funktionen für sich bewegende Statistiken
  • Econometrics Toolbox
    • Bayes‘sches lineares Regressionsmodell zum Analysieren der Beziehung zwischen einem Ausgang und einer Reihe von Prädiktorvariablen
    • Vektorautoregressives Modell zum Analysieren von Daten multivariater Zeitserien, einschließlich exogener Prädiktoren
  • MATLAB Production Server
    • Webbasiertes Servermanagement-Dashboard für die IT-Konfiguration und -Steuerung
  • Neural Network Toolbox
    • Deep-Learning-Algorithmen zum Trainieren von neuronalen Faltungsnetzwerken (CNNs) für Regressionsaufgaben mit mehreren GPUs auf PCs, auf Clustern und in der Cloud
    • Deep-Learning-Visualisierung für die von einem CNN-Modell erlernten Funktionen mithilfe von Bildoptimierung
    • Funktionen zur Übertragung von Gewichtungen von vortrainierten CNN-Modellen (AlexNet, VGG-16 und VGG-19) und Modellen von Caffe Model Zoo
  • Statistics and Machine Learning Toolbox
    • Regression-Learner-App zum Trainieren von Regressionsmodellen mit überwachtem maschinellem Lernen
    • Tall-Array-Algorithmen für Support Vector Machine (SVM) und naive Bayes-Klassifikation, Entscheidungsbäume mit Bagging sowie Lasso-Regression
  • Computer Vision System Toolbox
    • Deep Learning zur Erkennung von Objekten mit Fast R-CNN und Faster R-CNN
  • Automated Driving System Toolbox
    • Neues Produkt für den Entwurf, die Simulation und das Testen von fortgeschrittenen Fahrerassistenzsystemen (ADAS) und automatisierten Fahrsystemen

Updates der Simulink-Produktfamilie:

  • Simulink
    • Simulink-Projektupgrade für die leichte Aktualisierung aller Dateien in einem Projekt auf das aktuelle Release
    • parsim-Befehl für die direkte Ausführung mehrerer paralleler Simulationen
    • Streaming für umfangreiche Eingangssignale von MAT-Dateien, ohne dass die Daten in den Arbeitsspeicher geladen werden
    • Reduzierte Busverdrahtung zur schnellen Gruppierung von Signalen in Busse und zur automatischen Erstellung von Buselement-Ports, um weniger Signalleitungen zwischen und innerhalb von Subsystemen zu benötigen
    • Automatische Port-Erstellung zum Hinzufügen eingehender und ausgehender Ports zu Blöcken beim Routing von Signalen
  • Simscape Multibody
    • Laufzeitparameter für die Beschleunigung von Simulationsaufgaben und für das Verändern von Komponenten-Parameterwerten ohne erneute Generierung des C-Codes
    • Onshape-CAD-Import zur Verwendung cloudbasierter CAD-Baugruppen in der Mehrkörpersimulation

Zu den Signalverarbeitungs- und Kommunikations-Updates gehören:

  • Antenna Toolbox
    • Antenna Designer-App für die interaktive Auswahl und Analyse von Antennen mit den gewünschten Eigenschaften
  • Communications System Toolbox
    • Modellierung und Simulation für räumlich definierte MIMO-Kanäle in Mehrweg- und Streuungs-Übertragungsszenarien
  • LTE System Toolbox
    • MATLAB-Funktionen zum Simulieren von neuen 3GPP 5G-Mobilfunk-Technologien
    • Sidelink-Empfangsfunktionalität für die Simulation direkter Kommunikation über LTE-A ProSe auf Link-Ebene für Anwendungen in der öffentlichen Sicherheit und der Fahrzeugkommunikation
  • WLAN System Toolbox
    • Unterstützung der Generierung von Wellenformen gemäß IEEE 802.11ad

Zu den Codegenerierungs-Updates gehören:

  • Embedded Coder
    • Release-unabhängige Code-Integration zur Wiederverwendung von generiertem Modell-Referenzcode aus früheren Releases
  • Simulink Coder
    • Unterstützung von dynamisch zugewiesenem Arbeitsspeicher für die Simulation von MATLAB-Funktionsblöcken und die Codegenerierung
  • HDL Coder
    • Generierung von HDL-Code aus Gleitkommaoperationen mit einfacher Genauigkeit nach IEEE-Standard
  • HDL Verifier
    • Unterstützung der Abtastung und Erfassung interner FPGA-Signale zur Analyse in MATLAB oder Simulink

Zu den Verifikations- und Validierungs-Updates gehören:

  • Polyspace Bug Finder
    • Codeüberprüfung für MISRA C:2012 Amendment 1 und neue Kryptografie-Routinen
  • Simulink Verification and Validation
    • Verbesserungen bei der Klon-Erkennung für die Refaktorierung wiederholter Bibliotheksmuster und Subsystem-Klone
    • Unterstützung von DOORS Next Generation für die Verknüpfung von Modellelementen mit Anforderungen und die entsprechende Nachverfolgung in DOORS Next Generation
  • Simulink Design Verifier
    • Virtualisierung der Auswirkungen des Timings von Zustandsaktivitäten auf die Slicer-Hervorhebung für Simulationen
  • Simulink Code Inspector
    • Unterstützung von Schleifen- und Zyklus-Operationen in MATLAB, Simulink und Stateflow

R2017a ist ab sofort weltweit erhältlich. Weitere Informationen siehe R2017a Highlights.

Folgen Sie @MATLAB auf Twitter, um mitzuverfolgen, was bei R2017a neu ist, oder klicken Sie auf der MATLAB Facebook-Seite auf „Gefällt mir”.

.