Interview mit Kornelia Kirchner und Thomas Form

K. Kirchner: „Edge-to-Enterprise ist ein Ansatz

K. Kirchner: „Edge-to-Enterprise ist ein Ansatz, der eine Vielzahl an individuellen Einzellösungen in einer Gesamtlösung zusammenfasst. In einem größeren Kontext als zuvor decken die Softwarelösungen von Aveva dabei alles ab, von Edge Computing & Analytik bis hin zur vollständigen Überwachung, Steuerung & Verwaltung von Edge-Geräten auf HMI-, Scada- und Unternehmensebene“
(Quelle: VDE VERLAG)

Die Auswertung von erfassten Produktionsdaten kann mit Aveva Insight – sprich der Cloud – erfolgen. Was steckt hinter dieser Softwarelösung?

T. Form: Wir wissen von unseren Kunden, dass Produktionsinformationen üblicherweise als Datensilos in Steuerungssystemen eingeschlossen sind, was die Kommunikation zwischen unterschiedlichen Teams und Abteilungen – aber auch Systemen – behindert. Das bedingt, dass problematische Situationen erst spät erkannt und zu langsam behoben werden. Schlimmstenfalls kommt es zu Produktionsausfällen. Abhilfe schaffen kann eine Cloud-Lösung, die einen schnellen Datenaustausch und schnelleres Erarbeiten von Lösungen ermöglicht – und das über Produktions- und Firmennetzwerke hinweg. Und das ist auch notwendig, denn es sind immer mehr intelligentere Maschinen im Einsatz, die weitaus mehr Daten generieren, die einerseits wertvoll, aber zum anderen auch immer schwieriger zu interpretieren sind. Über die Cloud können Datenanalysen oder Daten-basierte Alarme schnell verfügbar gemacht werden. Anomalien werden mithilfe von zustandsbasierten Alarmen oder künstlicher Intelligenz erkannt, die richtigen Mitarbeiter informiert, die richtigen Prozesse angestoßen und so Ausfälle verhindert.

Welche Rolle spielt die künstliche Intelligenz bei der Echtzeit-Entscheidungsfindung?

K. Kirchner: Dafür muss man den Begriff KI erst einmal definieren. Sie beginnt schon bei der Erkennung von Anomalien durch das Vergleichen von Daten mit Sollwerten. Ebenso gibt es KI auf der Basis von Datenmodellen, die hauptsächlich von Analysten definiert wurden. Wichtig ist aus der Vielzahl der erfassten Daten – schon in einer kleinen Anlage sind 25 000 Datenpunkte inzwischen Standard – einen Nutzen zu erzielen, um etwa vorausschauende Wartung zu betreiben oder Prozesse zu optimieren.

Bisher trifft das qualifizierte Bedienpersonal seine Entscheidungen meistens auf Basis seiner Erfahrung sowie seines Wissens über den Prozess oder die Anlage. Im Zuge des Fachkräftemangels sowie des demografischen Wandels kann künstliche Intelligenz diese Arbeit übernehmen und Entscheidungen gestützt auf Prozessdaten treffen. Wenn man Analysten, wie Gartner, folgt, werden ab 2022 80 % der IoT-Projekte einen KI-Anteil haben.

Warum gibt es für die doch recht umfangreiche Software für die schnelle Datenaufbereitung noch zusätzliche Module, zum Beispiel für Predictive Analytics?

T. Form: Gerade diese Skalierbarkeit zeichnet unsere Cloud-Lösungen ja aus. Man kann die Optionen an die jeweiligen Bedürfnisse anpassen. Mit Blick auf Predictive Analytics bieten wir tatsächlich jedem Anwender die Funktionen, die er benötigt. Das beginnt mit einer automatischen Analyse aller Daten auf Anomalien, die jedem Kunden zur Verfügung steht. Es geht weiter mit einem einfach zu nutzenden, assistenzgeführten Modul für Predictive Analytics oder einer zustandsbasierten Alarmierung mit vorgeschriebenen Maßnahmen und reicht bis zu erweiterten Algorithmen, zum Beispiel für Energieeffizienz, Produktionsqualität und -durchsatz und einigen mehr.

Wie groß ist der Aufwand, solch ein System zu installieren? Schließlich lassen Sie sich ja quasi unzählige Betriebs- und Produktionsdaten aufnehmen.

T. Form: Weniger als man annehmen sollte. Es kommt natürlich wie immer auf die Umstände an. Wie sieht die lokale IT-Infrastruktur aus? Wie sieht der Unterbau beim Kunden aus? Welche Anforderungen hat er? Eine Gesamtlösung ist recht zügig umsetzbar, da wir schon immer auf offene Systeme und standardisierte Schnittstellen gesetzt haben. Wir reden also nicht über eine wochen- oder gar monatelange Installationsphase, sondern eher über wenige Tage.

Vor allem kann der Kunde schrittweise vorgehen und erst einmal mit dem reinen Aufzeichnen und Auswerten der Daten beginnen. Mithilfe von KI lässt sich dann ein sogenanntes unsupervised machine learning realisieren. Ein entsprechender Algorithmus vergleicht dabei die aufgezeichneten Daten mit den vorher abgespeicherten und zeigt Abweichungen an. Beim nächsten Schritt, dem supervised machine learning, werden Kenntnisse des gesteuerten Prozesses oder der Anlage ergänzt, sodass man aus dem Datenvergleich entsprechende Schritte ableiten kann. Bei der letzten Stufe, dem predictive analytics werden dann Datenspezialisten hinzugezogen, um mathematische Modelle zu entwickeln und entsprechend zu hinterlegen.

3 / 4

Ähnliche Beiträge