LösenAnheftenSchließen

TwinCAT Machine Learning:

Skalierbar, offen und in Echtzeit

Maschinelles Lernen für alle Bereiche der Automatisierung

Beckhoff bietet eine in TwinCAT 3 nahtlos integrierte Lösung für Machine Learning (ML) und Deep Learning (DL). Beide Begriffe werden auch unter dem Oberbegriff Künstliche Intelligenz (KI) zusammengefasst. Machine Learning ist die Ausprägung der KI, welche in den letzten Jahren immense Fortschritte machen konnte, nicht zuletzt auch wegen der großen Erfolge von Deep Learning. So erfolgten bei DL enorme Innovationsschübe bei der Verarbeitung von Bildern und Sprachsignalen.

TwinCAT Machine Learning knüpft an viele der bekannten Vorteile von PC-based Control an: Systemoffenheit durch Nutzung etablierter Standards, stetige Performance-Steigerungen durch Fortschritte bei den CPUs oder auch die Nutzung von GPUs als spezieller Performance Boost für ML und DL. Die für die Automatisierungssoftware TwinCAT bereitgestellten Inferenzmaschinen lassen sich direkt aus der SPS ansprechen und sind somit integraler Bestandteil einer Maschinenapplikation. Dadurch verschmelzen die Welten der Automatisierungstechnik und Data Science und es wird ein Grundstein für neue Ideen und Anwendungen gelegt.

Produktmanager Dr. Fabian Bause zu Grundlagen und Applikationsbeispielen des Maschinellen Lernens
Produktmanager Dr. Fabian Bause zu Grundlagen und Applikationsbeispielen des Maschinellen Lernens

KI-Anwendungen in der industriellen Automation

Erfahren Sie im nebenstehenden Video exemplarisch, welche Anwendungen auf Basis der Beckhoff Technologie erfolgreich umgesetzt wurden. Als die Top-Anwendungsbereiche von KI in der Industrie werden, nicht zuletzt durch das Marktforschungsinstitut McKinsey, herausgestellt:

  • kollaborative und kontextbewusste Robotik
  • Ausschussmengenreduktion
  • Maschinenoptimierung
  • Maschinen-integrierte Qualitätsprüfung
  • prädiktive Wartung

Workflow mit Beckhoff Werkzeugen: Von den Daten zum ML-Modell

Workflow von der Datenaufnahme über das Training bis hin zur Integration des trainierten ML-Modells in die TwinCAT 3 Runtime (XAR)
Workflow von der Datenaufnahme über das Training bis hin zur Integration des trainierten ML-Modells in die TwinCAT 3 Runtime (XAR)

Die Grundidee des Maschinellen Lernens ist es, Lösungen für bestimmte Aufgaben nicht mehr durch klassisches Engineering, z. B. auf Basis physikalischer Zusammenhänge, zu erarbeiten und in einen Algorithmus zu überführen. Vielmehr soll der gesuchte Zusammenhang von Eingangsgrößen zu Ausgangsgrößen anhand von Beispieldaten erlernt werden. Dieser Vorgang ist vor allem dann erfolgversprechend, wenn mit schwer vorhersehbarer Varianz gerechnet werden muss, auf die in klassisch erarbeiteten Methoden nur schwer reagiert werden kann. Soll beispielswese die Qualität von Holzbrettern oder landwirtschaftlichen Produkten visuell bewertet werden, muss die große Varianz dieser natürlichen Produkte in die Auswertung einbezogen werden. Deep Learning Ansätze sind dazu in der Lage und versprechen schnell gute Ergebnisse.

Beckhoff bietet für den gesamten Kreislauf, von Datenaufnahme über das Modell-Training bis hin zum Deployment des gelernten Modells, einen geschlossenen, flexiblen und vor allem systemoffenen Workflow ohne Lock-in-Effekt.

Datenaufnahme

Jede Applikation und auch jede IT-Infrastruktur stellt individuelle Ansprüche an die Art zur Beschaffung von Maschinendaten: SQL oder noSQL, Datei-basiert, lokal oder remote, eingeschränkte Port-Freigaben, Cloud-basierter Datalake und viele mehr. Für alle diese Szenarien steht eine Vielzahl etablierter TwinCAT-Produkte zur Verfügung, zum Beispiel der TwinCAT 3 Database Server TF6420, der TwinCAT 3 Scope Server TF3300, TwinCAT 3 Analytics Logger TF3500 oder der TwinCAT 3 IoT Data Agent TF6720. Für Bilddaten steht mit TwinCAT Vision sogar eine ganze Produktfamilie zur Bildaufnahme, Bild(vor)verarbeitung in der SPS sowie Bildspeicherung zur Verfügung.

Die Aufgabe der Datenbeschaffung fällt in der Regel in den Bereich des Automatisierungsspezialisten. Er kennt die Steuerungsarchitektur, die Rahmenbedingungen im Shop Floor und ist mit oben genannten Produkten bestens gerüstet, um effizient und situationsangepasst zu arbeiten.

Modell-Training

Das Training von Modellen auf Basis bereitgestellter Daten erfolgt in Frameworks wie PyTorch, TensorFlow, SciKit-Learn® usw. Diese in der Data Science Community etablierten Frameworks sind in der Regel Open Source und damit kostenfrei nutzbar. So ist maximale Flexibilität gewährleistet, und es sind keine Grenzen bei einem interdisziplinären Projekt zwischen Automatisierungs-Ingenieuren und Data Scientists gesetzt – weder unternehmensintern noch über Unternehmensgrenzen hinweg. Jedes Teammitglied kann in seiner gewohnten Umgebung arbeiten, zum Beispiel mit TwinCAT für die Automatisierer und TensorFlow für den Data Scientist.

Fehlt Ihnen ein Team-Mitglied in diesem interdisziplinären Projekt? Wir helfen Ihnen weiter. Melden Sie sich bei Ihrem Beckhoff Vertriebsmitarbeiter oder über das Kontaktformular. Beckhoff bietet wie gewohnt Support und hilft Ihnen auch gern aktiv bei der erfolgreichen Bearbeitung Ihres Data Science-Projekts. Sollten Sie Interesse an einer Dienstleistung eines Data Scientist haben, suchen wir für Sie in unserem Netzwerk nach geeigneten Unternehmen.

Echtzeitfähige Inferenz von ML-Modellen als Standardmodul in TwinCAT 3: Es wird keine separate Hardware benötigt und die Funktionalität ist rein in Software auf der gleichen Plattform wie die übrige Steuerungsapplikation realisiert.
Echtzeitfähige Inferenz von ML-Modellen als Standardmodul in TwinCAT 3: Es wird keine separate Hardware benötigt und die Funktionalität ist rein in Software auf der gleichen Plattform wie die übrige Steuerungsapplikation realisiert.

Deployment

Das trainierte ML-Modell kann einfach im standardisierten Format Open Neural Network Exchange (ONNX) aus einem beliebigen KI-Framework exportiert und dem TwinCAT-Programmierer übergeben werden. Diese ONNX-Datei beinhaltet alle Informationen darüber, wie Eingangsdaten des Modells mit Ausgangsdaten verknüpft sind. Die darin beschriebenen Operationen können komplex oder auch sehr simpel, rechenzeitintensiv oder schnell zu berechnen sein.

Je nach Anforderung seitens der zu realisierenden Applikation und auch des ML-Modells stehen dem TwinCAT-Programmierer drei TwinCAT-Produkte für die Inferenz, d.h. die Ausführung des Modells mit TwinCAT, zur Verfügung.

Mit TF3800 TwinCAT 3 Machine Learning Inference Engine und TF3810 TwinCAT 3 Neural Network Inference Engine existieren zwei Produkte für die Inferenz in harter Echtzeit, also unmittelbar innerhalb der TwinCAT-Laufzeit. Die Echtzeit-Inferenz findet entsprechend auf der CPU des IPCs statt. Die Produkte können ausgewählte, für die Echtzeit optimierte Modelle laden und ausführen. Sie sind insbesondere für Latenz-kritische Anwendungen ideal, wie bei der Nutzung von ML-Modellen bei der Regelung oder Steuerung von Prozessen, siehe z. B. TwinCAT 3 Cogging Compensation.

Als weiteres Produkt zur Inferenz von ML-Modellen steht TF3820 TwinCAT 3 Machine Learning Server zur Verfügung. Diese Komponente ist in der Lage, auch Hardwarebeschleuniger, beispielsweise GPUs, für die Inferenz nutzbar zu machen. Die Inferenz wird dazu in einen separaten Prozess ausgelagert. Das Interface ist dabei vollständig in die SPS integriert, d. h. der Aufruf erfolgt aus der SPS und das Ergebnis wird in die SPS zurückgegeben. Die Auswahl an möglichen KI-Modellen ist fast unbegrenzt, sodass man bezüglich der Modellauswahl und der ausführenden Hardware maximal flexibel ist. Die Möglichkeit der Hardwarebeschleunigung macht diese Inferenzmaschine zu einem idealen Produkt, wenn es um Bildverarbeitung mit Deep Learning Netzen geht, so u.a. bei der visuellen Inspektion von Oberflächen, der visuellen Prüfung auf Vollständigkeit und der Lokalisierung von Objekten oder Fehlern. Darüber hinaus bietet das Produkt maximale Freiheitsgrade bei der Modellierung eines ML-Modells, sodass auch hochspezialisierte Modelle, z. B. für die Vorhersage von Prozessstörungen oder von Produktqualitätseigenschaften, nahtlos aus TwinCAT ausgeführt werden können.

Modell-Maintenance

ML-Modelle besitzen die Eigenschaft, dass sie durch Training mit größeren Datenmengen besser werden. Ebenso können sich Rahmenbedingungen an der Maschine im Betrieb schleichend oder spontan ändern. Um dieser Eigenschaft Rechnung zu tragen, können Sie ihre ML-Modelle während der Laufzeit der Maschine updaten: Also ohne Maschinen-Stopp, ohne neues Kompilieren und vollständig remote über die Standard-IT-Infrastruktur. Darüber hinaus können Sie auch ihre Trainingsumgebung remote oder lokal auf dem IPC im Betriebssystemkontext betreiben und damit nah am Prozess Modelle neu trainieren, austauschen und mit TwinCAT laden.

Produkte

TF3800 | TwinCAT 3 Machine Learning Inference Engine

TF3800 | TwinCAT 3 Machine Learning Inference Engine

Beckhoff bietet eine in TwinCAT 3 nahtlos integrierte Lösung für Maschinelles Lernen (ML). Dabei sind die von PC-based Control gewohnten Vorteile der Systemoffenheit durch die Nutzung etablierter Standards auch für ML-Anwendungen gegeben. Zudem wird die Ausführung der Machine-Learning-Modelle in Echtzeit realisiert. Auf diese Weise erhält der Maschinenbauer die optimale Grundlage zur Steigerung der Maschinenperformance.

TF3810 | TwinCAT 3 Neural Network Inference Engine

TF3810 | TwinCAT 3 Neural Network Inference Engine

Beckhoff bietet eine in TwinCAT 3 nahtlos integrierte Lösung für Maschinelles Lernen (ML). Dabei sind die von PC-based Control gewohnten Vorteile der Systemoffenheit durch die Nutzung etablierter Standards auch für ML-Anwendungen gegeben. Zudem wird die Ausführung der Machine-Learning-Modelle in Echtzeit realisiert. Auf diese Weise erhält der Maschinenbauer die optimale Grundlage zur Steigerung der Maschinenperformance.

TF3820 | TwinCAT 3 Machine Learning Server

TF3820 | TwinCAT 3 Machine Learning Server

Beckhoff bietet eine in TwinCAT 3 nahtlos integrierte Lösung für Machine Learning (ML) und Deep Learning (DL). TF3820 TwinCAT 3 Machine Learning Server ist ein hochperformantes Ausführungsmodul (Inferenzmaschine) für trainierte ML- und DL-Modelle.

TE5920 | TwinCAT 3 Cogging Compensation für Linearmotoren

TE5920 | TwinCAT 3 Cogging Compensation für Linearmotoren

In Applikationen mit den Linearmotoren der Serie AL8000 dient die Software TE5920 der Reduzierung des Coggings. Das Cogging bzw. die Rastkräfte entstehen durch die magnetische Anziehung zwischen dem Eisenkern im Primärteil und den Permanentmagneten im Sekundärteil. Dieser physikalische Effekt führt zu einem ungewollten und ungleichmäßigen „Einrasten“ des Motors, sodass Applikationen mit extrem hohen Anforderungen an Genauigkeit und Gleichlauf, wie z. B. hochpräzise Fräsmaschinen oder Digitaldrucker, nur begrenzt realisiert werden können. Durch TE5920 werden die Rastkräfte kompensiert, wobei neben der magnetischen Anziehung auch Rastkräfte der mechanischen Konstruktion oder Energieketten berücksichtigt werden können. Dadurch werden die Einsatzmöglichkeiten der eisenbehafteten Linearmotoren AL8000 erweitert und stellen eine Alternative zu eisenlosen Linearmotoren dar.

C6675 | Schaltschrank-Industrie-PC

C6675 | Schaltschrank-Industrie-PC

Der C6675 ist eine perfekte Symbiose der Eigenschaften eines Schaltschrank-Industrie-Servers C6670 und eines Schaltschrank-Industrie-PCs C6650. Zusammen mit einem Beckhoff Control Panel ergibt sich eine ideale Kombination für eine leistungsstarke Steuerungsplattform im Maschinen- und Anlagenbau mit der Automatisierungssoftware TwinCAT. Ausgestattet wird der C6675 mit Komponenten der höchsten Leistungsklasse, z. B. einem Intel®-Celeron®-, -Pentium®- oder -Core™-i3/i5/i7-Prozessor der neuesten Generation auf einem Beckhoff ATX-Motherboard. Das übernommene Gehäuse- und Kühlkonzept vom C6670 ermöglicht darüber hinaus u. a. den Einsatz einer GPU-Accelerator-Karte. Für Steckkarten stehen in Summe 300 Watt zur Verfügung. Applikationen im Bereich des maschinellen Lernens oder Vision können so im industriellen Umfeld realisiert werden.