Entwicklung eines Regelwerks zur Nutzung von generativer KI

(Quelle: Phoenix Contact/ BLKstudio@shutterstock.com)

In vielen Bereichen des Blomberger Automatisierungsspezialisten gehört KI schon länger zum Alltag. Bereits 2020 beschäftigten sich die Mitarbeiter mit GPT-3. Inzwischen verändern ChatGPT und andere Gen-AI-Lösungen die Welt. Aufgrund der verschiedenen, teilweise vollkommen unbekannten Risiken, die während der Verwendung generativer KI auftreten können, erfolgte im Frühjahr 2023 ein generelles Nutzungsverbot in der gesamten Phoenix-Contact-Gruppe. Dies geschah vor dem Hintergrund, dass der Schutz von Intellectual Property sichergestellt sein muss. Gleichzeitig ist für einen konformen Einsatz der künstlichen Intelligenz durch die Mitarbeiter zu sorgen. Aus dieser Ausgangslage resultierte die Notwendigkeit der Erstellung eines Rahmenwerks.

Alle relevanten Bereiche in den agilen Ansatz einbinden

Im ersten Schritt rief die Abteilung Digital Innovations unternehmensweit zur Bildung eines interdisziplinären AI Competence Teams auf. Dieses sollte innerhalb von drei Monaten Use Cases für Phoenix Contact evaluieren, die einen innovativen Mehrwert schaffen. Parallel galt es, rechtliche, betriebliche und technische Risiken zu erkennen und zu minimieren sowie einen Vorschlag für das Rahmenwerk zu erarbeiten.

Die Schnelllebigkeit der Technologie bedingte ein Umdenken des bisherigen Vorgehens bei Phoenix Contact. Das Umfeld der klassischen Projektmethoden sollte verlassen werden, um einerseits Geschwindigkeit aufzunehmen und auf der anderen Seite die Einbindung der relevanten Bereiche sicherzustellen. Konkret waren unter anderem Experten und Vertreter aus den Geschäftsfeldern IT, Human Resources, Legal, Compliance sowie der Betriebsrat involviert.

Damit sich die Arbeit am Thema möglichst effektiv gestaltete, bildeten sich ein Kernteam sowie unterschiedliche Sub-Teams. Einleitende Workshops und Deep Dives, die beispielsweise in den Fachgebieten „Generative versus klassische KI“, „Large Language Models“ oder „Rechtliche Implikationen bei der Verwendung von KI“ durchgeführt wurden, unterstützten bei der Angleichung des Wissensstands sowie der schnelleren Umsetzung der Aufgabenstellung. In der dreimonatigen Arbeitsphase sind inhaltliche Anwendungsfälle der generativen KI erstellt und bewertet, ein Regelwerk und Leitlinien entwickelt sowie die erforderliche Infrastruktur zur operativen Realisierung definiert worden. Dabei gingen die Teams nach agilen Methoden vor, wodurch der schnelle Fortschritt überhaupt möglich war. Zeitgleich fand eine Beratung durch eine auf KI und Datenökonomie spezialisierte Kanzlei statt. In diesem Zusammenhang sollten Fragestellungen wie urheberrechtliche Verstöße bei generiertem Code/Text oder konkrete Fragen etwa im Hinblick auf die Kennzeichnung von per KI erstelltem Output geklärt werden. Darüber hinaus wurde ein Plan erarbeitet, wie sich eine ideologische Färbung (Bias) minimieren lässt.

Grundsatz des präventiven Verbots mit Erlaubnisvorbehalt

Beim Thema KI erweist sich Transparenz als wichtig – sowohl innerhalb des AI-Competence Teams als auch der gesamten Phoenix-Contact-Gruppe. Regelmäßige Stand-ups haben zum Wissensaustausch innerhalb des Teams beigetragen. Ferner erfolgte eine turnusmäßige Kommunikation zentraler Ergebnisse und Ereignisse durch Beiträge im Unternehmensintranet, Livestreams oder veröffentlichte Videos. 

Nach drei Monaten übergab das AI-Competence Team die (erste) Version der Richtlinie „Generative KI“ an den Betriebsrat. In Abstimmung zwischen der Geschäftsführung, dem Betriebsrat und dem AI Competence Team trat die Richtlinie im Dezember 2023 in Kraft. Als zentrales Element enthält sie den Grundsatz „Präventives Verbot mit Erlaubnisvorbehalt“. Das bedeutet, dass die Nutzung von GenAI-Systemen untersagt ist – es sei denn, es handelt sich um einen freigegebenen Anwendungsfall. Auf Basis der Richtlinie werden alle potenziellen Use Cases mit dem Corporate AI Manager besprochen und bewertet. Nach der Verabschiedung der Richtlinie steht zum Beispiel im Anschluss an die unternehmensweite Freigabe von Microsoft Copilot ein leistungsstarkes Tool für sämtliche Mitarbeiter zur Verfügung. Dabei geht es um eine Assistentenfunktion mit KI für Microsoft-365-Anwendungen und -Dienste, Windows 11 und Microsoft Bing.

Grundvoraussetzung zur Verwendung von Microsoft Copilot ist die erfolgreiche Teilnahme der Mitarbeiter an einer Grundlagenschulung zum Thema KI. Parallel zur Einführung von Microsoft Copilot sind erste Proof-of-Concepts für verschiedene Anwendungsfälle gestartet worden. Zukünftige Use Cases werden gemeinsam mit dem Corporate AI Manager evaluiert sowie im Rahmen etablierter Prozesse geplant und umgesetzt. Der Prozess verläuft für alle beteiligten und interessierten Mitarbeiter transparent und nachvollziehbar.

1 / 2

Ähnliche Beiträge