site-logo
site-logo
site-logo

Die NSA schließt sich der CISA und anderen an, um Richtlinien zur Integration von KI in die Betriebstechnologie bereitzustellen.

Die NSA schließt sich der CISA und anderen an, um Richtlinien zur Integration von KI in die Betriebstechnologie bereitzustellen.

Die NSA schließt sich der CISA und anderen an, um Richtlinien zur Integration von KI in die Betriebstechnologie bereitzustellen.

Die NSA schließt sich CISA an und bietet Anleitung
Shieldworkz-Logo

Prayukth KV

NSA schließt sich CISA und anderen an, um Leitlinien zur Integration von KI in Betriebstechnologien bereitzustellen 

Kürzlich veröffentlichte die National Security Agency (NSA) zusammen mit der Cybersecurity and Infrastructure Security Agency (CISA), der Australian Signals Directorate’s Australian Cyber Security Centre (ASD’s ACSC) und anderen das Cybersecurity Information Sheet (CSI), „Prinzipien für die sichere Integration von Künstlicher Intelligenz in Betriebstechnologien. hier“ 

Dieser Bericht beschreibt viele Wege, wie KI in OT integriert werden kann, und erläutert vier grundlegende Prinzipien, denen Eigentümer und Betreiber kritischer Infrastrukturen folgen müssen, um sowohl die Vorteile zu nutzen als auch die Risiken der Integration von KI in OT-Umgebungen zu minimieren. Die empfohlenen Prinzipien geben Anleitungen, um KI zu verstehen; den Einsatz von KI im OT-Bereich zu berücksichtigen; KI-Governance- und Sicherungsrahmen zu etablieren; sowie Sicherheits- und Schutzpraktiken in KI- und KI-fähige OT-Systeme einzubetten. In unserem heutigen Blogbeitrag gehen wir eingehend auf die empfohlenen Prinzipien ein.  

Hintergrund 

Wenn 2024 das sogenannte Jahr der KI-Experimente war, erlebten wir 2025 eine nuanciertere und bodenständigere Sichtweise auf KI. Diese Sichtweise war realitätsnäher und brachte die einzigartigen Herausforderungen der KI-Einführung in verschiedenen Sektoren zum Vorschein. Da Unternehmen KI-bewusster wurden, begannen Unternehmensführer, KI auf eine ganzheitlichere Weise zu betrachten, die weit über den Hype hinausgeht. Auch Regulierungsgremien schritten ein und begannen mit der Veröffentlichung von Richtlinien und Empfehlungen.   

Vor wenigen Tagen, während wir bei einer Veranstaltung waren, kündigten CISA zusammen mit der NSA, dem FBI und Cybersicherheitsagenturen aus Großbritannien, Australien, Kanada, Deutschland und Neuseeland die Veröffentlichung eines richtungsweisenden Dokuments namens Prinzipien für die sichere Integration von Künstlicher Intelligenz in Betriebstechnologien (OT) an. Wir haben es während unseres Rückflugs durchgesehen.  

Dies ist nicht nur eine weitere Compliance-Checkliste. Stattdessen sieht es eher aus wie eine dringend benötigte Antwort auf einen kritischen Reibungspunkt in OT-Umgebungen. Die Kollision zwischen der probabilistischen Natur von KI (die auf Basis von Daten „rät“) und der deterministischen Natur der Betriebstechnologie (wo ein Ventil schließen oder eine Turbine stoppen muss) hat begonnen, sich zu überlappen, und Unternehmen suchten nach einer Art von Anleitung, um den „Geist in der Flasche“ irgendwie einzudämmen, sodass das ganze nicht in eine unkontrollierte Kernspaltungsreaktion ohne Leitplanken ausartet.  

Wenn Sie OT-basierte kritische Infrastrukturen verwalten, zu denen Energie, Wasser, Produktion oder Transport gehören, könnte diese Anleitung Ihr neuer "Polarstern" sein. Hier ist eine detaillierte Aufschlüsselung der vier Prinzipien, die jetzt den Pflegestandard für KI in OT gemäß dem Dokument definieren. 

Das „Need-to-Know“-Prinzip: Verstehen Sie, bevor Sie einsetzen 

Um die einzigartigen Herausforderungen der Integration von KI in OT-Umgebungen zu adressieren, müssen Eigentümer und Betreiber kritischer Infrastrukturen sicherstellen, dass das KI-System sicher entworfen wurde, und ihre Rollen und Verantwortlichkeiten während des gesamten Lebenszyklus des KI-Systems verstehen. Ähnlich den hybriden Besitzmodellen, die bei Cloud-Systemen verwendet werden, müssen Eigentümer und Betreiber diese Rollen und Verantwortlichkeiten mit dem KI-Systemhersteller, dem OT-Lieferanten und jedem Systemintegrator oder Managed Service Provider klar definieren und kommunizieren. 

Die Leitlinien bewegen sich weg von "KI um der KI willen." Der erste Schritt ist rein bildend und architektonisch. Man kann nicht sichern, was man nicht versteht. 

  • Risiken definieren: KI bringt Risiken mit sich, denen traditionelle OT nicht ausgesetzt ist, wie Modellverdriftung (bei der die Genauigkeit einer KI im Laufe der Zeit nachlässt, da Maschinen altern) und Halluzination (bei der eine KI Datenmuster erfindet). 

  • Qualifizierung: Die Fachkräftelücke ist real. Betreiber, die wissen, wie man eine Pumpe repariert, wissen möglicherweise nicht, wie man ein neuronales Netzwerk debuggt. Die Leitlinien schreiben vor, das Personal nicht nur zum Gebrauch von KI zu schulen, sondern ihre Fehlermodi zu verstehen. 

  • Sicherung des Lebenszyklus: Sicherheit beginnt auf Code-Ebene. Die Einführung von „Security by Design“-Prinzipien bedeutet, die KI-Lieferkette zu prüfen, bevor ein einzelner Algorithmus den Boden der Anlage berührt. 

Der Business-Case: „Brauchen wir wirklich KI dafür?“ 

Bevor sie ein KI-System in ihre OT-Umgebung integrieren, sollten Eigentümer und Betreiber kritischer Infrastrukturen beurteilen, ob KI-Technologien die geeignetste Lösung für ihre spezifischen Bedürfnisse und Anforderungen im Vergleich zu anderen Technologien sind. Eigentümer und Betreiber kritischer Infrastrukturen sollten außerdem prüfen, ob eine etablierte Fähigkeit ihren Bedürfnissen gerecht wird, bevor sie komplexere und neuartige KI-fähige Lösungen in Betracht ziehen. Obwohl KI einzigartige Vorteile bietet, handelt es sich um eine sich entwickelnde Technologie, die eine kontinuierliche Bewertung der Risiken erfordert. 

Diese Bewertung sollte verschiedene Faktoren umfassen, darunter Sicherheit, Leistung, Komplexität, Kosten und Auswirkungen auf die Sicherheit der OT-Umgebung, abhängig von der spezifischen Anwendung, und die Vorteile und Risiken der Nutzung der KI-Technologien gegen die funktionalen Anforderungen prüfen, die die Anwendung erfüllen sollte. Eigentümer und Betreiber kritischer Infrastrukturen sollten die aktuelle Kapazität der Organisation für die Wartung eines KI-Systems in ihrer OT-Umgebung und den potenziellen Einfluss der Erweiterung der Risikooberfläche der Umgebung verstehen, wie z.B. die Notwendigkeit weiterer Hardware und Software zur Datenverarbeitung durch Modelle oder zusätzlicher Sicherheitsinfrastruktur zum Schutz der erweiterten Angriffsfläche.  
Dies ist vielleicht der einzigartigste Aspekt der Leitlinien. Es fordert Führungskräfte auf, die Aufnahme von KI zu rechtfertigen. Der Konsens ist klar: Komplexität ist der Feind der Sicherheit. 

  • Risiko vs. Belohnung: Überwiegt der Effizienzgewinn eines KI-Wärmesensors das Risiko eines cyberphysischen Angriffs? Wenn ein herkömmlicher PID-Controller funktioniert, bleiben Sie dabei. 

  • Datenherkunft: In OT ist Daten die Wahrheit. Wenn ein KI-Modell auf schlechten Sensordaten trainiert wird, trifft es gefährliche Entscheidungen. Sie müssen die Integrität der Trainingsdaten genauso rigoros prüfen wie die physische Maschine. 

  • Transparenz des Anbieters: Die "Black Box"-Ära ist vorbei. Sie müssen Transparenz von den Anbietern fordern, wie ihre Modelle funktionieren, woher die Daten stammen und wer Zugriff auf die Modellgewichte hat. 

Governance: Aufbau der Schutzvorrichtungen 

Effektive Governance-Strukturen sind entscheidend für die sichere und geschützte Integration von KI in OT-Umgebungen. Dies beinhaltet die Etablierung klarer Richtlinien, Verfahren und Verantwortlichkeitsstrukturen für KI-Entscheidungsprozesse innerhalb von OT. Eine KI-Governance-Struktur sollte die unten aufgeführten Schlüsselakteure sowie benötigte KI-Anbieter umfassen, um während Beschaffung, Entwicklung, Design, Implementierung und Betrieb die Aufsicht zu gewährleisten. 

Schlüsselakteure in KI-Governance-Mechanismen 

Führung. Die Sicherstellung eines Engagements der Unternehmensleitung, einschließlich des CEO und CISO, ist entscheidend für die Etablierung eines robusten KI-Governance-Rahmens. Dies hilft sicherzustellen, dass die Führung des Unternehmens vollständig in das sichere Lebenszyklus-Management von KI-Systemen investiert ist und KI-Sicherheitsrisiken und -minderungen neben der KI-Funktionalität berücksichtigt. 

OT/IT-Fachexperten. Die Einbeziehung von OT-, IT- und KI-Fachexperten ist entscheidend für die effektive und sichere Integration von KI-Systemen in OT-Umgebungen. Diese Experten geben wertvolle Einblicke in die OT-Umgebung und können potenzielle Risiken und Herausforderungen im Zusammenhang mit der KI-Integration identifizieren. 

Cybersecurity-Teams. Die Zusammenarbeit mit Cybersecurity-Teams ist von entscheidender Bedeutung für die Entwicklung von Richtlinien und Verfahren, die sensible OT-Daten schützen, die von KI-Modellen verwendet werden. Cybersecurity-Teams können helfen, potenzielle Schwachstellen zu erkennen und Minderungsmaßnahmen vorzuschlagen, um die Sicherheit der Daten des Unternehmens zu gewährleisten. 

Sie würden einem nicht zertifizierten Ingenieur nicht erlauben, ein Kernkraftwerk zu betreiben. Sie sollten auch einem nicht zertifizierten Modell nicht erlauben, es zu betreiben. 

  • Das KI-Risiko-Register: Behandeln Sie KI-Komponenten als eigenständige Vermögenswerte mit ihrem eigenen Risikoprofil. 

  • Kontinuierliche Tests: Anders als ein physisches Zahnrad, das sichtbar verschleißt, verschlechtert sich ein KI-Modell leise. Die Leitlinien fordern kontinuierliche Auswertungen, bei denen das Modell gegen „Eckfälle“ (seltene, extreme Szenarien) getestet wird, um sicherzustellen, dass es beim Auftreten von Problemen nicht katastrophal versagt. 

  • Compliance-Mapping: Erfinden Sie das Rad nicht neu. Mappen Sie Ihre KI-Governance in bestehende Rahmenwerke wie das NIST CSF oder IEC 62443. 

Die goldene Regel: Mensch im Kreislauf und Fail-Safes 

Dies ist der kritischste Abschnitt für die Sicherheit. Die gemeinsamen Behörden sind eindeutig: KI sollte nicht das letzte Wort bei sicherheitskritischen Maßnahmen haben. 

  • Der "Kill-Switch": Wenn die KI ausfällt, muss das System in einen sicheren, bekannten Zustand zurückkehren (z.B. ein festverdrahteter mechanischer Stopp). Diese „Fail-Safe“-Funktion muss unabhängig von der KI sein. 

  • Aufsicht durch Menschen: Bei Entscheidungen mit hohen Konsequenzen muss ein Mensch „im Kreislauf“ sein. Die KI berät; der Betreiber handelt. 

  • Transparenz im Betrieb: Wenn eine KI einen Alarm auslöst, muss dies erklärbar sein. Ein Betreiber muss wissen, warum die KI denkt, dass ein Druckstoß unmittelbar bevorsteht, nicht nur, dass sie das denkt. 

How to Prepare for a CISA OT Security Audit Checklist

Das letzte Wort

Die Ära des raschen Fortschritts und des Risikos ist sicherlich nicht anwendbar, wenn es darum geht, das Stromnetz oder die Wasserversorgung zu verwalten. Niemand kann sich das vorstellen 

Die gemeinsame CISA-Leitlinie schafft effektiv eine zweigeteilte Architektur: Nutzen Sie KI, um in der Cloud oder am Rand zu analysieren, optimieren und Vorhersagen zu tätigen, halten Sie jedoch die physischen Kontrollen einfach, festverdrahtet und von Menschen gesteuert. 

Was sollte also Ihr Mandat für 2026 sein: Innovieren Sie mit KI, aber verankern und begründen Sie sie in den Grundlagen der physischen Sicherheit, die seit einem Jahrhundert dafür gesorgt hat, dass unsere Lichter anbleiben. 

Planen Sie, KI für OT einzusetzen und benötigen Sie Anleitung? Sprechen Sie mit uns. 



Wöchentlich erhalten

Ressourcen & Nachrichten

Dies könnte Ihnen auch gefallen.

BG image

Jetzt anfangen

Skalieren Sie Ihre CPS-Sicherheitslage

Nehmen Sie Kontakt mit unseren CPS-Sicherheitsexperten für eine kostenlose Beratung auf.

BG image

Jetzt anfangen

Skalieren Sie Ihre CPS-Sicherheitslage

Nehmen Sie Kontakt mit unseren CPS-Sicherheitsexperten für eine kostenlose Beratung auf.

BG image

Jetzt anfangen

Skalieren Sie Ihre CPS-Sicherheitslage

Nehmen Sie Kontakt mit unseren CPS-Sicherheitsexperten für eine kostenlose Beratung auf.