En una planta química, el riesgo más peligroso no siempre proviene de una fuga. Muchas veces, el riesgo reside en la distancia que separa un cuadro de mando de IA en la oficinas centrales de un procedimiento de seguridad a las dos de la madrugada.
He pasado buena parte de mi carrera en plantas petroquímicas y entornos industriales, liderando equipos en distintos países y culturas. Esa vida de expatriado me enseñó una verdad incómoda: la distancia entre una slide de presentación en la sede y lo que pasa de verdad en la planta no se mide en kilómetros, se mide en responsabilidad.
En cualquier planta seria, “safety first” no es un eslogan para la pared; es el principio operativo. La IA puede darnos más información, más deprisa y con mayor capacidad para detectar patrones. Pero las decisiones críticas de seguridad siguen perteneciendo a las personas que, de verdad, responden por la planta.

“Tenemos IA integrada”… ¿pero quién decide a las 2 a.m.?
Hoy, muchos comités de dirección anuncian con orgullo: “Tenemos la IA integrada en el sistema”. En los dashboards de la central queda impecable: pilotos, modelos predictivos, gráficas limpias e informes automáticos.
Pero en una planta remota, a las dos de la mañana, la realidad es otra:
- Los operadores y técnicos trabajan bajo procedimientos estrictos y ventanas de operación claras.
- Los supervisores se fían de su formación, de su equipo y de lo que ven y oyen cuando algo “no suena bien”.
Y aquí aparece una duda silenciosa: cuando la IA “habla”, ¿cómo integramos esa señal dentro de nuestro marco de seguridad? ¿De quién es realmente la decisión?
En la sala del comité hablamos de ROI y optimización. En la planta, la pregunta es más dura: “Si sigo esta recomendación y algo sale mal… ¿quién asume el riesgo según nuestros procedimientos?” Ahí se abre una brecha de gestión que muchos aún no quieren ver.

La IA multiplica señales, no siempre claridad.
Monitorizar cada válvula y cada tendencia desde el otro lado del mundo es potente, nadie lo discute. El problema surge cuando la propiedad de esas señales es ambigua. Si no está claro quién interpreta y quién actúa, no generamos seguridad, sino ruido:
- Más alarmas.
- Más escalados innecesarios.
- Más carga mental en la sala de control.
La prueba real no es qué dice el modelo, sino cómo integra esa información el equipo técnico con la filosofía de alarmas y los límites operativos definidos.
El factor humano olvidado: Durante décadas, el mejor conocimiento del proceso ha vivido en las conversaciones de turno. Si no convertimos ese «boca a boca» en información estructurada (partes de turno, near-miss, lecciones aprendidas), la IA no tiene de qué alimentarse. Sin disciplina en el dato, la IA es solo otra fuente de ruido.
Los derechos de decisión no se mueven a la velocidad de la tecnología
Muchas empresas aprueban inversiones millonarias en IA, pero pocas hacen el trabajo incómodo: redefinir quién decide qué y dejarlo por escrito.
La pregunta clave no es si un supervisor puede ignorar una alerta. Las preguntas reales son:
- ¿Cuándo una señal de IA debe activar una parada prescrita según nuestras normas?
- ¿Quién está autorizado para reconciliar la recomendación de un modelo con 20 años de experiencia en planta?
Si esto no está registrado en el sistema de gestión, la IA no reduce la incertidumbre; simplemente le pone otra capa por encima. Tecnología nueva con reglas viejas es una mala combinación.
El oficio: juicio bajo presión dentro de una cultura de seguridad
En español, oficio es una palabra con peso. Habla del criterio que se forma con la responsabilidad real. La IA puede reforzar ese oficio dando señales tempranas y filtrando ruido, pero siguen siendo las personas quienes:
- Interpretan las señales en contexto.
- Actúan conforme a los procedimientos.
- Asumen el peso del camino elegido.
La IA es un apoyo, no un sustituto del riesgo ni de un sistema de seguridad bien construido.

Qué le pediría hoy a un equipo directivo industrial
Si queremos que la IA sea un activo y no un maquillaje digital, los equipos ejecutivos debemos actuar con honestidad:
- Definir derechos de decisión claros: Reflejarlos en los procedimientos y en la gobernanza de la planta.
- Involucrar a la primera línea: Sin operadores y técnicos participando en la interpretación de los modelos, no hay datos buenos ni «oficio» que trasladar.
- Alinear la cadena de mando: Desde el Consejo hasta el supervisor de turno, todos deben saber quién tiene la última palabra.
- Apoyar, no diluir: Usar la IA para reforzar el juicio humano, nunca para esconder responsabilidades detrás de un algoritmo.
La IA nos ayuda a identificar patrones con mayor anticipación, pero el liderazgo ,desde la sala de control hasta la sala del consejo, sigue decidiendo cómo responder.
Las herramientas son nuevas. La responsabilidad es la de siempre. Ese es el oficio que merece la pena proteger.


Deja un comentario