


Prayukth KV
8 de diciembre de 2025
La NSA se une a CISA y otros para ofrecer orientación sobre la integración de la IA en la tecnología operativa
Recientemente, la Agencia de Seguridad Nacional (NSA), junto con la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA), el Centro de Ciberseguridad de Australia del Directorado de Señales de Australia (ASD’s ACSC) y otros, publicaron la Ficha de información de ciberseguridad (CSI), "Principios para la integración segura de la inteligencia artificial en la tecnología operativa."
Este informe describe muchas formas en que la IA puede integrarse en OT y detalla cuatro principios básicos que los propietarios y operadores de infraestructuras críticas deben seguir para aprovechar los beneficios y minimizar los riesgos de integrar la IA en entornos OT. Los principios recomendados proporcionan orientación para entender la IA; considerar el uso de IA en el dominio OT; establecer marcos de gobernanza y aseguramiento de IA; e incorporar prácticas de seguridad dentro de los sistemas OT habilitados por IA. En la publicación del blog de hoy, hacemos un análisis profundo de los principios recomendados.
Antecedentes
Si 2024 fue el llamado año de la experimentación con IA, en 2025 vimos emerger una visión más matizada y realista de la IA. Esta visión estaba más cercana a la realidad y destacaba los desafíos únicos asociados con la adopción de IA en diversos sectores. Con las empresas cada vez más conscientes de la IA, los líderes empresariales comenzaron a prestar más atención al considerar la IA de manera más holística, más allá de la moda. Los reguladores también intervinieron y comenzaron a emitir directrices y recomendaciones.
Hace unos días, mientras estábamos en un evento, CISA junto con la NSA, el FBI y agencias de ciberseguridad de Reino Unido, Australia, Canadá, Alemania y Nueva Zelanda anunciaron la publicación de un documento importante llamado Principios para la Integración Segura de la Inteligencia Artificial en la Tecnología Operativa (OT). Lo revisamos durante nuestro vuelo de regreso.
Esto no es solo una lista de verificación de cumplimiento más. En cambio, se parece más a una respuesta necesaria a un punto de fricción crítico en entornos OT. El choque entre la naturaleza probabilística de la IA (que "adivina" basado en datos) y la naturaleza determinista de la Tecnología Operativa (donde una válvula debe cerrarse o una turbina debe detenerse) ha comenzado a superponerse y las empresas buscan algún tipo de orientación para encerrar al genio de alguna manera para que todo no se convierta en una reacción de fisión descontrolada sin ningún tipo de salvaguardas.
Si gestionas infraestructura crítica basada en OT que incluye energía, agua, manufactura o transporte, esta guía bien podría ser tu nuevo "Estrella Polar". Aquí tienes un desglose detallado de los cuatro principios que ahora definen el estándar de cuidado para la IA en OT según el documento.
El principio de "saber antes de implementar": Entender antes de implementar
Para abordar los desafíos únicos de integrar la IA en entornos OT, los propietarios y operadores de infraestructuras críticas deben verificar que el sistema de IA se haya diseñado de manera segura y comprender sus roles y responsabilidades a lo largo del ciclo de vida del sistema de IA. Similar a los modelos de propiedad híbrida usados con sistemas de nube, los propietarios y operadores deben definir y comunicar claramente estos roles y responsabilidades con el fabricante del sistema de IA, el proveedor de OT y cualquier integrador de sistemas o roles de proveedor de servicios gestionados.
La orientación se aleja del "IA por el bien de la IA". El primer paso es puramente educativo y arquitectónico. No puedes asegurar lo que no comprendes.
Definir los riesgos: La IA introduce riesgos que el OT tradicional no enfrenta, como la Deriva del Modelo (donde la precisión de una IA se degrada con el tiempo a medida que las máquinas envejecen) y la Alucinación (donde una IA inventa patrones de datos).
Capacitarse: La brecha en la fuerza laboral es real. Los operadores que saben cómo arreglar una bomba podrían no saber cómo depurar una red neuronal. La guía requiere capacitar al personal no solo para usar la IA, sino para entender sus modos de fallo.
Asegurar el ciclo de vida: La seguridad comienza a nivel del código. Adoptar principios de "Seguridad por Diseño" significa verificar la cadena de suministro de IA antes de que un solo algoritmo toque el piso de la planta.
El caso de negocio: "¿realmente necesitamos IA para esto?"
Antes de incorporar un sistema de IA en su entorno OT, los propietarios y operadores de infraestructuras críticas deben evaluar si las tecnologías IA son la solución más adecuada para sus necesidades y requisitos específicos en comparación con otras tecnologías. Los propietarios y operadores de infraestructuras críticas deben considerar además si una capacidad establecida satisface sus necesidades antes de buscar soluciones habilitadas por IA más complejas y novedosas. Aunque la IA ofrece beneficios únicos, es una tecnología en evolución que requiere una evaluación continua de riesgos.
Esta evaluación debe incorporar varios factores, incluida la seguridad, rendimiento, complejidad, costo y efecto sobre la seguridad del entorno OT dependiendo de la aplicación específica, y evaluar los beneficios y riesgos de usar las tecnologías IA frente a los requisitos funcionales que la aplicación debe cumplir. Los propietarios y operadores de infraestructuras críticas deben entender la capacidad actual de la organización para mantener un sistema de IA en su entorno OT y el impacto potencial de expandir la superficie de riesgo del entorno, como la necesidad de hardware y software adicional para procesar datos mediante modelos o infraestructura de seguridad adicional para proteger la superficie de ataque ampliada.
Este es quizás el aspecto más único de la guía. Desafía a los líderes a justificar la inclusión de la IA. El consenso es claro: La complejidad es el enemigo de la seguridad.
Riesgo vs. Recompensa: ¿El beneficio en eficiencia de un sensor térmico de IA supera el riesgo de un ataque ciberfísico? Si un controlador PID tradicional funciona, quédese con él.
Procedencia de Datos: En OT, los datos son verdad. Si un modelo de IA se entrena con datos de sensores defectuosos, tomará decisiones peligrosas. Debes verificar la integridad de los datos de entrenamiento con el mismo rigor que las máquinas físicas.
Transparencia del vendedor: La era del "Caja Negra" ha terminado. Debes exigir transparencia a los vendedores sobre cómo funcionan sus modelos, de dónde proviene los datos y quién tiene acceso a los pesos del modelo.
Gobernanza: Construir las barreras de protección
Estructuras de gobernanza efectivas son esenciales para la integración segura de la IA en entornos OT. Esto implica establecer políticas claras, procedimientos y estructuras de responsabilidad para los procesos de toma de decisiones de IA dentro de OT. Una estructura de gobernanza de IA debe incluir a los principales interesados listados a continuación, así como a cualquier vendedor de IA necesario para mantener la supervisión durante la adquisición, el desarrollo, el diseño, el despliegue y las operaciones.
Principales interesados en los mecanismos de gobernanza de IA
Liderazgo. Asegurar el compromiso del liderazgo senior, incluido el CEO y el CISO, es esencial para establecer un marco de gobernanza de IA robusto. Esto ayuda a garantizar que el liderazgo de la organización esté completamente invertido en la gestión segura del ciclo de vida de los sistemas de IA y considere los riesgos de seguridad de IA y las mitigaciones junto con la funcionalidad de IA.
Expertos en materia de OT/TI. Involucrar a expertos en materia de OT, TI y IA es crítico para una integración efectiva y segura de los sistemas de IA en entornos OT. Estos expertos brindan ideas valiosas sobre el entorno OT y pueden ayudar a identificar riesgos potenciales y desafíos asociados con la integración de IA.
Equipos de Ciberseguridad. Colaborar con equipos de ciberseguridad es vital para desarrollar políticas y procedimientos que protejan los datos OT sensibles utilizados por los modelos de IA. Los equipos de ciberseguridad pueden ayudar a identificar vulnerabilidades potenciales y proporcionar recomendaciones de mitigación para ayudar a mantener la seguridad de los datos de la organización.
No permitirías que un ingeniero sin certificación opere una planta nuclear. Tampoco deberías permitir que un modelo sin certificación lo haga.
El registro de riesgos de IA: Trata los componentes de IA como activos distintos con sus propios perfiles de riesgo.
Pruebas continuas: A diferencia de un engranaje físico que se desgasta visiblemente, un modelo de IA se degrada en silencio. La guía llama a una evaluación continua, probando el modelo contra "casos de esquina" (escenarios raros y extremos) para asegurar que no falle catastróficamente cuando las cosas salen mal.
Mapeo de cumplimiento: No reinventes la rueda. Mapea tu gobernanza de IA en marcos existentes como el NIST CSF o el IEC 62443.
La regla de oro: Humano-en-el-bucle y sistemas de seguridad
Esta es la sección más crucial para la seguridad. Las agencias conjuntas son inequívocas: La IA no debería tener la última palabra en acciones críticas para la seguridad.
El "Interruptor de Emergencia": Si la IA falla, el sistema debe regresar a un estado seguro y conocido (por ejemplo, un paro mecánico conectado por cable). Este "sistema de seguridad" debe ser independiente de la IA.
Supervisión Humana: Para decisiones de alta consecuencia, un humano debe estar "en el bucle". La IA aconseja; el operador actúa.
Transparencia en Operaciones: Cuando una IA activa una alerta, debe ser explicable. Un operador necesita saber por qué la IA cree que es inminente un pico de presión, no solo que lo cree.
La última palabra
La era de moverse rápido y romper cosas ciertamente no aplica cuando estás gestionando la red eléctrica o el suministro de agua. Nadie puede siquiera pensar en eso
La orientación conjunta de CISA crea efectivamente una arquitectura bifurcada: Usa la IA para analizar, optimizar y predecir en la nube o en el borde, pero mantén los controles físicos simples, cableados y gobernados por humanos.
Entonces, ¿cuál debería ser tu mandato para 2026: Innovar con IA, pero anclarla y fundamentarla en los principios fundamentales de seguridad física que han mantenido nuestras luces encendidas durante un siglo.
¿Planeando usar IA para OT y necesitas orientación? Habla con nosotros.
Recibe semanalmente
Recursos y Noticias
También te puede interesar

3 mar 2026
Cómo la crisis de Irán está afectando el ciberespacio

Equipo Shieldworkz

2 mar 2026
Amenazas cibernéticas en Medio Oriente: Lo que las organizaciones necesitan saber ahora mismo

Equipo Shieldworkz

27 feb 2026
Construyendo un programa de ciberseguridad OT con IEC 62443 y NIST SP 800-82

Equipo Shieldworkz

25 feb 2026
Todo sobre la nueva Caja de Herramientas de Seguridad de la Cadena de Suministro de TIC de la UE

Prayukth K V

24 feb 2026
IA y NERC CIP-015: Automatización de la Detección de Anomalías en Infraestructura Crítica

Equipo Shieldworkz

23 feb 2026
Uso del marco IEC 62443 para cumplir con NIST SP 800-82: Guía para el CISO

Prayukth K V

