Porträtfoto von Frank Reiländer ist Vice President, Head of Cybersecurity bei CGI

Frank Reiländer, Vice President, Head of Cybersecurity bei CGI: "Die Kombination von normativem Handlungsrahmen, sinnvoll eingesetzter Technik und geschultem Verhalten im Umgang damit scheint der beste Weg, aus KI-Anwendungen wie ChatGPT ein wertvolles Werkzeug zu machen." (Quelle CGI)

"Es scheint so, als würden wir uns gerade mühsam von einem Schock erholen. Nachdem zuerst vielstimmig versucht wurde, das Phänomen ChatGPT in Superlativen zu fassen, herrscht plötzlich merkwürdige Stille. Es geht ja nicht nur um ChatGPT, wir diskutieren vielmehr die generellen Chancen und Risiken generativer KI-Anwendung. Und die sollten nach den gleichen Kriterien bewertet und beurteilt werden, die sich auch sonst oft genug bewährt haben: durch kühle, rationale Abwägung der potenziellen Vorteile und Risiken für alle Lebensbereiche – von Technik und Wirtschaft bis zu Umwelt und Gesellschaft.

Wir sollten mittlerweile wissen, dass Fortschritt immer Janus-köpfig ist. Gibt es irgendeine Technologie, die im Laufe der Zeit nicht pervertiert wurde? Für Hinweise wäre ich dankbar. Die Ursachen dafür liegen aber nicht in der Technologie selbst, sondern an der Art und Weise, wie wir damit umgehen. Damit sind wir – wieder einmal – bei dem notwendigen normativen Handlungsrahmen für eine technische Innovation, also um die Vereinbarung und Einhaltung gesetzlicher und ethischer Regelungen für deren Nutzung. Eigentlich sollten wir ja daran gewöhnt sein. Schließlich gilt offensichtlich immer noch das berühmte Mooresche Gesetz mit seinem Zwei-Jahres-Rhythmus.

Generative KI und Cyber Security

Schauen wir uns also konkret die Risiken generativer KI für die Cyber-Sicherheit an: Ja, ChatGPT und ähnliche Ansätze sind eine potenzielle Gefahr, sofern wir den Umgang damit nicht lernen. Dazu müssen wir zuerst klären, wie KI-Technologie zur Täuschung eingesetzt werden kann. Ein mögliches Szenario ist die Optimierung von Phishing-Mails. KI sorgt dafür, dass sie echten E-Mails immer ähnlicher werden, potenzielle Opfer damit gezielter täuschen und so die Nutzungsrate erhöhen. Die Abwehr dagegen muss an zwei Punkten ansetzen: erstens an der Technologie selbst. Generative KI kann nicht nur als Angriffs-, sondern auch als Verteidigungswaffe eingesetzt werden. Stichwort: Janus-Köpfigkeit von Technologien. Bei Penetrationstests beispielsweise hat es sich als zielführend erwiesen, die Angriffswerkzeuge selbst dafür zu nutzen, den Schutz der eigenen Systeme zu verifizieren. Man fühlt sich hier unwillkürlich an den berühmten Wettlauf zwischen Hase und Igel erinnert. Das zeigt aber auch, dass generative KI uns nicht überfordert, wenn wir sie richtig nutzen.

Der menschliche (Risiko-)Faktor

Die beste Technologie nützt jedoch nichts, wenn sie unwissend oder fahrlässig genutzt wird. Damit sind wir beim zweiten Punkt. In Bezug auf ChatGPT gilt das vor allem für unseren Umgang mit Themen wie Authentizität, Originalität und Vertrauen. Generative KI simuliert Echtheit, also müssen wir genauer hinschauen und kritischer prüfen, bis hin zu einem Zero-Trust-Ansatz. Das gilt nicht nur für die IT-Sicherheit, sondern generell. Deshalb sind Schulung und Training als laufender Prozess so wichtig. Denn eines bleibt auch im KI-Zeitalter gleich: die größte Gefahrenquelle ist immer noch der Mensch.

Die Kombination von normativem Handlungsrahmen, sinnvoll eingesetzter Technik und geschultem Verhalten im Umgang damit scheint der beste Weg, aus KI-Anwendungen wie ChatGPT ein wertvolles Werkzeug zu machen. Ein schwierigeres, anspruchsvolleres hat die Menschheit noch nie gehabt. Die Kontrolle darüber ist eine Frage der richtigen Balance. Wir können und müssen lernen, generative KI genau so zu sehen und damit zu leben. Denn eines dürfte klar sein: Die Alternative ,Abschalten' ist längst passé. Die Büchse der Pandora ist offen – vergessen wir nicht hineinzuschauen. Denn es ist nicht allein die Hoffnung, die uns hilft, die Risiken in den Griff zu bekommen und zu kontrollieren."

CGI (ih)

Ähnliche Beiträge