TSN-Konnektivität leicht gemacht

Das COM-Express-Compact-Modul mit Intel-Core-Prozessoren der 11. Generation

Das COM-Express-Compact-Modul mit Intel-Core-Prozessoren der 11. Generation für High-End Edge-Computing mit integriertem 2,5-GbE-TSN-Port sowie spezieller AI-Funktionalität und Hochleistungsgrafik (links) (Quelle: Kontron)

M.2-Modul mit Google Coral-Beschleuniger-Chip

Die Kontron-AI-Plattform besteht aus einem M.2-Modul mit Google Coral-Beschleuniger-Chip für das Software-Ecosystem TensorFlow Lite auf einem 2,5-Zoll-pITX SBC von Kontron mit einem NXP-i.-X8M-Prozessor (rechts) (Quelle: Kontron)

Ein weiterer wichtiger Aspekt ist die Reduzierung von Jitter und Latenzzeiten bei der Anbindung von Steuerungssystemen in Echtzeit. Hier hat sich in den letzten Jahren das Time Sensitive Networking (TSN) als offener, herstellerunabhängiger Standard für Interoperabilität durchgesetzt. Zudem sind die Vorteile von TSN einfacher zugänglich. So reduzieren sich die Kosten für eine TSN-Anbindung durch die integrierte TSN-Funktionalität in den neuen Prozessoren von NXP oder Intel: Die Intel-Core-iProzessoren der 11. Generation bieten einen 2,5-GbE-TSN-Port; der neueste Intel-Atom-Prozessor einen 1-GbE-TSN-Port. So wird es möglich, kombinierte Systeme zu entwerfen, die Jitter im Netzwerk eliminieren, wodurch Echtzeitsysteme über eine einzelne Einheit hinaus skalieren können. Im Zuge der laufenden Erweiterung der TSN-Funktionalität hat Kontron kürzlich sein TSN-Starterkit aktualisiert. Es unterstützt nun IEEE-802.1Qbuund IEEE-802.1CB-Funktionalität und garantiert damit niedrige Latenzzeiten und geringen Jitter sowie redundante Frameübertragung für ausfallsichere Verbindungen.

Die Kraft von AI nutzen

Machine Vision und Machine/Deep Learning auf Basis neuronaler Netze setzen sich in Fertigungsunternehmen zunehmend durch. Diese können helfen, Fertigungslösungen zu skalieren und ungenutzte Daten zu analysieren, um eine schnelle und präzise Entscheidungsfindung zu ermöglichen. Eine der spannendsten Entwicklungen im AI-Bereich ist eine neue kompakte Plattform, die einen NXP-i.MX8M-Prozessor und eine GoogleCoral-Edge-TPU auf einem M.2-Modul umfasst. Mit bis zu 4 Tops (trillion operations per second) sorgt sie für eine HighSpeed-Verarbeitung von Bild- und Videodaten, wobei die TPU auf eine Geschwindigkeit von 30 Bildern/s beschleunigt – fünf Mal schneller als bei Anwendungen mit einfachen USB-Kameras ohne TPU.

Damit eignet sich die Plattform sehr gut für AI-Machine-VisionAnwendungen, wie Predictive Maintenance. So können Werkzeugverschleiß und die Leistungstrends von Maschinen über einen längeren Zeitraum überwacht werden. Zudem kann durch die Qualitätsprüfung, einschließlich der Erkennung fehlender Komponenten und von Defekten, sowie durch ein verbessertes Anlagenmanagement und die Erkennung von Hemmnissen in der Produktionslinie, die Produktivität gesteigert werden. 

Die neuesten COM-Express-Computing-Module mit den IntelCore-i-Prozessoren der 11. Generation verfügen nicht nur über einen 2,5-GbE-TSN-fähigen Port, sondern auch über hohe Rechenleistung mit spezieller AI-Funktionalität. Damit sind sie ideal für zeitkritische Intelligent-Edge-Anwendungen geeignet, die sehr geringe Latenzen erfordern, wie Maschinen- und Robotersteuerungen. Zusätzliche Rechenleistung steht durch die integrierte Intel-Iris-Xe-Grafik-Engine, die 96 EU (Execution Units) für die Verwaltung rechenintensiver GPGPU-Software (General Purpose Computation on Graphics Processing Unit) bietet, zur Verfügung. Die neuen Computer-on-Module auf Basis der stromsparenden Intel-Atom-x6000-Serie unterstützen außerdem einen 1-GbE-Port mit TSN-Funktionalität und bieten eine breite Skalierbarkeit für IoT-Gateway-, Steuerungs-, Visualisierungs-, AI- und Netzwerkanforderungen.

Da viele Edge- und Cloudanwendungen diese Prozessoren nutzen, ist es auch sinnvoll für Entwickler, die skalierbare zugrunde liegende Intel-Hardware mit dem frei verfügbaren Intel-OpenVino-Toolkit (Visual Inference and Neural Network Optimization) zu kombinieren, um die Inferenz von Deep-Learning-Modellen zu optimieren. Somit können Bildverarbeitungsanwendungen (oder jedes andere DNN) schneller ausgeführt werden. Hierfür kann, je nach benötigter Leistung, eine beliebige Intel-CPU, eine Vision Processing Unit (VPU) oder ein FPGA ausgewählt werden.

3 / 4

Ähnliche Beiträge