Tu planta lleva 18 meses funcionando perfectamente. Todos los indicadores en verde, las predicciones de falla bajo control. Y de repente, un evento completamente inesperado detiene la producción por semanas y ningún sensor habría podido anticiparlo.

Los ingenieros de mantenimiento vivimos analizando datos y prediciendo comportamientos, pero ¿qué pasa cuando lo impredecible nos golpea? Conversamos con Diego Galar sobre los "cisnes negros" en mantenimiento industrial y por qué nuestros enfoques tradicionales ya no son suficientes.

En esta edición: 

• Por qué tus algoritmos no pueden predecir el caos 

• La trampa mortal de la "normalidad artificial" 

• Cómo construir capacidad de respuesta ante lo inesperado

| Meet The Expert

Diego Galar
Catedrático en Universidad Tecnológica de Luleå (Suecia) y Presidente de EFNMS
Linkedin

Diego lidera investigación en confiabilidad e IA aplicada a la industria. Es Director de Innovación en Sisteplant, ha publicado más de 500 artículos científicos y preside la Federación Europea de Sociedades de Mantenimiento. Sus investigaciones se centran en cómo los sistemas complejos fallan de maneras impredecibles.

"Los cisnes negros son eventos de impacto extremo que están fuera de nuestras expectativas regulares", explica Galar. "Son impredecibles con nuestras limitaciones actuales de conocimiento."

Lo crítico: No pueden preverse con correlaciones, regresiones o estimaciones de confiabilidad tradicionales. En mantenimiento, esto se traduce en fallas catastróficas que ningún algoritmo puede anticipar porque no siguen patrones conocidos.

"Nuestros enfoques estadísticos no pueden inferir la probabilidad de los cisnes negros", señala. "Ningún modelo probabilístico basado en 'pensamiento dentro de la caja' puede lidiar con 'eventos fuera de la caja'."

Incluso la experiencia tiene limitaciones: "La opinión de expertos tiene uso mínimo porque está contaminada por sesgos. Estamos entrenados para encontrar patrones, pero los cisnes negros rompen todos los patrones conocidos."

"Los sistemas complejos que tienen vulnerabilidad artificialmente suprimida tienden a volverse extremadamente frágiles, mientras no exhiben riesgos visibles."

El problema: Al observar normalidad, los ingenieros tendemos a creer que todo está bien. Sin embargo, los entornos con "normalidad artificial" eventualmente experimentan explosiones masivas.

"Es como tener una bomba de tiempo que no hace ruido hasta que explota", dice Galar. "Al minimizar 'pequeños shocks' se reduce la capacidad de respuesta, aumentando la fragilidad del sistema."

El resultado paradójico: cuanto más tarda en colapsar, mayor será el daño porque la fragilidad aumenta mientras la resiliencia disminuye en ese entorno de falsa normalidad.

"¿Deberíamos abandonar el mantenimiento basado en condición?", le preguntamos.

"No, pero necesitamos ir mucho más allá", responde. "La incapacidad de estimar la probabilidad de un cisne negro impide la gestión de activos tradicional."

La nueva estrategia requiere tres cambios:

Primero, cambiar la mentalidad: pasar de predictivo a adaptativo.

Segundo, integrar datos de OT e IT, combinando ontologías semánticas con sensores.

Tercero: construir capacidad de respuesta rápida. "No se trata solo de predecir mejor, sino de reaccionar mejor cuando lo impredecible sucede."

El mayor error: "He visto plantas con miles de sensores vulnerables a cisnes negros porque no pueden procesar y actuar sobre información compleja. El error es creer que la tecnología por sí sola es la solución."

Nota del entrevistador: El 11 de marzo de 2011, Fukushima sufrió el peor accidente nuclear desde Chernobyl. Aunque los geocientíficos conocían los registros históricos de tsunamis en la zona, la combinación específica de eventos no había sido contemplada. Un perfecto ejemplo de cómo los eventos "improbables" se vuelven catastróficos cuando no estamos preparados.

Para resumir: Los cisnes negros son realidad para todos los profesionales de mantenimiento. La clave no está en predecir lo impredecible, sino en construir sistemas resilientes. Como dice Galar: "Desarrolla resiliencia, no solo eficiencia. No puedes predecir todo, pero sí puedes prepararte para responder a cualquier cosa."

Como dice Galar: "Desarrolla resiliencia, no solo eficiencia. No puedes predecir todo, pero sí puedes prepararte para responder a cualquier cosa."