Unstrukturierte Daten sind kein Thema

Tobias Gaukstern, Leiter der Business Unit Industrial Analytics bei Weidmüller (Quelle: mika-photography_com)

Bei der automatisierten Datenanalyse mag sich dem einen oder anderen die Frage nach dem Aufbereitungsaufwand – von unstrukturierten Daten – stellen. Dem entgegnet T. ­Gauk­stern: „Im Maschinen- und Anlagenbau sind die Daten gar nicht so unstrukturiert, wie es auf den ersten Blick von ­außen erscheint. Aus dem Zusammenspiel von Maschinensteuerung, Sensoren und Aktoren, lassen sich viele Zusammenhänge direkt auslesen oder zumindest gut erschließen. Somit gibt es einen überschaubaren Interpretationsspielraum, der gut beherrschbar ist.“ Standards wie OPC UA würden ihr Übriges dazu beitragen, dies weiter zu systematisieren. O. ­Niedung ergänzt aus Microsoft-Sicht: „Eines der wichtigsten Elemente der Industrieinitiative Open Manufacturing Platform OMP sind semantische Datenmodelle. Daten müssen verstanden und in Beziehung zueinander gesetzt werden, darum kümmert sich eine OMP-Arbeitsgruppe. Das Auto-ML-Tool hilft dabei, mit den vorhandenen Daten zu einem solchen Modell zu gelangen.“ Bezüglich OPC UA fügt er an: „Die Experten sind sich einig, dass die Vereinheitlichung auf der Protokoll- und Architektur­ebene essenziell ist und OPC UA ist dieser Standard. „Wir bauen unsere OMP-Aktivitäten weiter aus und ­haben im letzten Jahr unter anderem mit Bosch, ZF Friedrichshafen und Anheuser-Busch InBev sehr engagierte und kompetente neue Mitglieder gewonnen“, sagt O. Niedung. 

Next Steps inklusive Open Source

Und was sind die nächsten Schritte, die sich Weidmüller für sein Auto-ML-Tool vorgenommen hat – oder ist dieses bereits fertig entwickelt? „Nein, wir stehen noch ganz am Anfang“, sagt T. Gaukstern. So hätten Kunden bereits eine ganze Reihe von Wünschen an Weidmüller herangetragen, die nun nach und nach eingearbeitet werden sollen. Als ein Beispiel nennt er die Führung des Benutzers durch den Modelltrainingsprozess. „Wir werden es dem Nutzer noch einfacher machen, sein Domänenwissen einzubringen und zugleich den Grad der Automatisierung anheben, zum Beispiel beim Labeln der Daten. Darüber hinaus werden wir einen Teil ­unserer Auto-ML-Bibliothek unseren Kunden als Open Source zur Verfügung stellen“, erklärt er. Als Hintergründe gibt er zum einen eine größere Gestaltungsfreiheit der Kunden bei der Modellentwicklung und -optimierung an. Zum anderen kann damit die Zusammenarbeit zwischen Domänenexperten, die das Auto-ML-Tool einsetzen, und Data Scientists verbessert werden. „So kann beispielsweise ein Ingenieur mithilfe des Auto-ML-Tools damit beginnen, auf Basis seines Applikationswissens ein erstes ML-Modell zu erstellen, das er dann dem Data Scientist übergibt. Dieser importiert das Modell in seine Entwicklungsumgebung, in der das Modell optimiert wird. So können ML- und Applika­tionsexperten über die offenen Schnittstellen zusammenarbeiten und ihr jeweiliges Wissen optimal beisteuern“, informiert T. Gaukstern. Als drittes Verbesserungs-To-do nennt er Explain­able AI, also Modelle besser nachvollziehbar zu machen. Er erklärt: „Der Anwender muss einfach nachvollziehen können, was das Ergebnis eines ­Modells bedeutet, warum das Modell zu einem bestimmten Ergebnis kommt und wie das Modell­ergebnis oder die Modellzuverlässigkeit beeinflusst werden kann. Bei vielen Anwendern geht es nach wie vor auch darum, das Vertrauen in ML zu steigern, was Grundvoraussetzung ­dafür ist, auf Basis einer hohen Akzeptanz Machine Learning in der Breite zur Anwendung zu bringen“, ist T. Gaukstern überzeugt. 

Zum Stichwort Explainable AI fügt Dr. G. Schomaker an: „Das noch recht junge Thema ist auch aus unserer Sicht für den  Vertrauensbildungsprozess extrem wichtig.“ So würden sich Entscheidungsträger zwangsläufig die Frage stellen, ob sie in einem neuralgischen oder risikobehafteten Bereich ihres ­Unternehmens eine solche Lösung einsetzen sollten. „Nicht nur die Prozessverantwortlichen, die mit der Lösung arbeiten, müssen die Details verstehen, sondern auch die Manager, die ihren Einsatz genehmigen. Auch sie müssen wissen, wie das Tool ihre Geschäftsprozesse beeinflusst – dessen Wirkung über den Einsatzbereich hinaus verstehen. Deshalb muss zudem auf dieser Seite ­Akzeptanz geschaffen werden“, lautet sein Statement. In diesem ­Zusammenhang weist er auf Projekte innerhalb des SICP hin, die in diese Richtung gehen. „Unsere Aufgabe ist es, die Grundlagen und Funktionen zu schaffen. Die Industrie muss anschließend passende Referenzen finden, damit das­ ­Produkt am Markt breite Akzeptanz findet und in viele Einsatz­bereiche vordringt“, verdeutlicht Dr. G. Schomaker.

Als derzeit im Forschungsbereich wichtiges Thema nennt er die Synthetisierung von Daten. Dazu stellt er heraus: „Es wird in Zukunft nicht den einen Generator für synthetische Daten geben. Hier ist ­immer der Anwendungsfall zu betrachten, in dem Daten entstehen und für den sie genutzt werden.“
 

2 / 4

Ähnliche Beiträge