Operational Intelligence – Diagnostik zur reaktiven Entscheidungsfindung

Visuelle Darstellung von Daten

Bild 02: Daten werden aufbereitet und wie in Bild dargestellt visualisiert (Histogramm mit Grenzen, Streuwolkendiagramm, Trendlinien sowie Prozessstatistik). Es können regelbasierte und datengetriebene Prozessmodelle erstellt werden. (Quelle: Thomas Schulz)

Entscheidungsbaum zur automatischen Klassifikation von Datenobjekten

Bild 04: Bild veranschaulicht Entscheidungsbaum-Bausteine mit Einflussdiagramm und Aufteilungpfaden zur automatischen Klassifikation von Datenobjekten. (Quelle: Thomas Schulz)

Operational Intelligence ist eine Form der dynamischen Echtzeit-Datenanalyse, die Transparenz und Einblicke in Prozesse und Abläufe liefert. Es ist ein Ansatz zur Analyse maschinengenerierter Daten, der es ermöglicht, Entscheidungen und Maßnahmen auf der Grundlage von erzeugten und gesammelten Echtzeitdaten zu treffen [7]. Zu ihr gehören die Verfahren der deskriptiven und der diagnostischen Analytik.

Im überwachten Modus arbeiten Systeme auf der Grundlage von Daten, die von Menschen aufgrund ihrer Eigenschaften und ihrer bekannten Auswirkungen auf das Ergebnis ausgewählt wurden. Die Intelligenz wird in diesem Fall hauptsächlich durch den Menschen bereitgestellt. Systeme werden dann vor allem für ihre Berechnungsleistungen auf der Grundlage mehrerer Datenreihen herangezogen. Anwendungen richten sich in erster Linie an Mitarbeiter, welche prozessnahe arbeiten, die so durch den Zugang zu aktuellen Daten besser informierte Entscheidungen treffen oder schneller auf Probleme reagieren können.

Deskriptive Analytik ist die Untersuchung von eingehenden Daten zur Steuerung von Maßnahmen und Warnungen. Mithilfe der deskriptiven Analyse kann ein Unternehmen seine Daten erkenntnisreich machen und feststellen, was im vorangegangenen Zeitraum geschehen ist. Hauptbestandteile sind Standardberichte für kurzfristige Zielsetzungen (Was ist passiert? Wann ist es passiert?) sowie Adhoc-Berichte für Problemlösungen (Wie viele? Wie oft? Wo?).

Die einfachste und schnellste Art, Daten zu untersuchen, ist die Verwendung von Häufigkeits-Tabellen und Balkendiagrammen. Mithilfe der Pivot-Tabellenfunktion in Excel, können beispielsweise eine Vielzahl von Informationen dargestellt werden.

Diagnostische Analytik ist die intelligente Analyse von Daten zur Erkennung von Mustern und Ursachen. Mit ihr sind komplexere Analyseabfragen für Ursachenanalyse und Stratifikation möglich (Wo genau ist das Problem? Wie finde ich die Antwort? Wie lautet die Ursache für den vorliegenden Sachverhalt?).

Die Erkennung von Anomalien wird für Anwendungen verwendet, bei denen es wichtig ist, eine Abweichung von einem erwarteten Muster zu erkennen. Dies kann in einer Vielzahl von Szenarien der Fall sein. Unüberwachte Verfahren erkennen Anomalien in einem unmarkierten Testdatensatz unter der Annahme, dass die Mehrheit der Instanzen im Datensatz normal ist, im Gegensatz zu Instanzen, die am wenigsten zum Rest des Datensatzes zu passen scheinen.

Störungsmeldungen sind Alarme bei Grenzwertüberschreitungen zum Beispiel von Temperaturen, Spannungen und Strömen, bei denen keine unmittelbare Gefahr vorliegt. Grenzwertüberschreitungen für vordefinierte Prozesse geben Echtzeit-Feedbacks (Wann sollte ich reagieren? Welche Handlungen sind jetzt erforderlich?).

Die statistische Analyse umfasst Korrelations-, Diskriminanz-und Regressionsanalyse. Die Korrelationsanalyse untersucht die Abhängigkeit zweier Variablen bzw. Merkmale und gibt Auskunft über deren Zusammenhang. Die Diskriminanzanalyse ist eine Methode multivariater Verfahren, die dazu dient, zwei oder mehr Gruppen zu unterscheiden, die durch mehrere Merkmale (auch Variablen) beschrieben werden. Regressionsanalysen berechnen, ob eine oder mehrere unabhängige Variablen eine abhängige Variable beeinflussen. Mit diesen Analysemethoden ist es möglich, Antworten auf die Fragen warum etwas passierte und welche Möglichkeiten versäumt wurden zu geben.

Software-Framework für industrielle Analysen

„Proficy CSense“ ist ein Software-Framework für industrielle Analysen mit der Möglichkeit, Erkenntnisse aus historischen Daten zu gewinnen und einfache Berechnungen, prädiktive Analysen sowie Optimierungs- und Steuerungslösungen schnell zu entwickeln, zu testen und einzusetzen. Die Leistungsfähigkeit beruht auf einem digitalen Prozesszwilling. Damit können Ingenieure Prozessprobleme vorhersagen und verhindern sowie die Abläufe optimieren. Mit einer Kombination aus maschinellem Lernen und Datenanalyse können mit „Proficy CSense“ digitale Zwillinge für Anlagen, Netzwerke und Prozesse entwickelt werden. Die Kombination aus einem digitalen Prozesszwilling und fortschrittlicher Analytik kann dazu beitragen, Produktivität zu steigern, Ausfallzeiten von Anlagen zu verringern und die Produktvariabilität zu reduzieren [8].

Das Modul Troubleshooter von „Proficy CSense“ ermöglicht die schnelle Fehlerbehebung bei zeitkontinuierlichen, diskreten oder chargenorientierten Prozessen, indem Produktionsdaten aus einer Vielzahl von historischen Datenquellen untersucht werden. Daten werden aufbereitet und wie in Bild 2 dargestellt visualisiert (Histogramm mit Grenzen, Streuwolkendiagramm, Trendlinien sowie Prozessstatistik). Es können regelbasierte und datengetriebene Prozessmodelle erstellt werden. Das aus diesen Modellen
extrahierte Wissen ermöglicht es, den Nutzen die vorgeschlagenen Prozessänderungen mit wenigen Klicks abzuschätzen.

Bild 3 veranschaulicht Entscheidungsbaum-Bausteine mit Einflussdiagramm und Aufteilungpfaden zur automatischen Klassifikation von Datenobjekten. Mit dem so modellierten System werden die Ursachen von Prozessabweichungen identifiziert, sodass Prozesse korrigiert werden, um ein konsistentes Produkt mit optimalen Ausbeuten zu produzieren [9].

2 / 4