Todo indicaba que había funcionado. Las métricas eran buenas, el equipo estaba satisfecho y la dirección aprobó el informe final. Tres meses después, la operación seguía funcionando exactamente igual que antes.

Conversamos con Yuliana Goñi, especialista en proyectos de IA y metodologías ágiles, sobre por qué los proyectos de inteligencia artificial más peligrosos no son los que fallan — sino los que nadie se da cuenta de que fallaron.

En esta edición:

  • Por qué un buen modelo no garantiza impacto en la operación

  • El error de confundir que el sistema funciona con que el proyecto fue exitoso

  • Qué preguntas hay que responder antes de implementar

Yuliana Goñi
Especialista en proyectos de IA y metodologías ágiles

Con formación en Ciencia de Datos y gestión de proyectos, Yuliana lleva años trabajando en el punto donde la tecnología y la operación tienen que encontrarse. Jefa de Productos Digitales en I+D+I y MBA Internacional, su especialidad es que los proyectos de IA generen impacto real.

"El verdadero producto de un proyecto de IA no es el modelo. Es la capacidad del negocio de tomar decisiones con ese modelo", explica Goñi.

El patrón se repite: la herramienta predictiva cumplió todos los objetivos técnicos, las alertas llegaban, la precisión era buena. Pero nadie había definido quién actuaba sobre esa información, en qué momento del turno, ni qué orden de trabajo se abría con cada resultado. La tecnología estaba lista. La operación, no.

Sin adopción real, la precisión del modelo no cambia nada en planta.

"Una solución aislada no es una herramienta operativa. Es un experimento caro", advierte Goñi.

Las alertas llegaban, las visualizaciones eran claras. Pero no había nadie asignado para actuar sobre esa información, no estaba conectada al sistema de órdenes de trabajo, y no existía un proceso que la pusiera en manos de quien decide cuándo intervenir un activo. "Este error no ocurre por falta de talento técnico. Ocurre por una brecha de gestión, no de tecnología."

Que el sistema detecte la falla no es suficiente si nadie sabe qué hacer con esa detección.

"El rol clave en proyectos de IA no gestiona tareas. Traduce entre mundos y conecta la tecnología con la realidad operativa", resume Goñi.

Su enfoque es trabajar la integración y la adopción desde el inicio, no después de la puesta en marcha. Eso significa responder antes de construir: ¿quién interpreta las alertas y quién ejecuta? ¿qué cambia en el proceso de mantenimiento? ¿cómo se mide el impacto real, más allá de la precisión del sistema? También significa alinear expectativas desde el primer día — en IA los resultados no son lineales ni garantizados, y eso hay que decirlo antes de que aparezcan las fricciones.

Definir el uso antes de instalar la herramienta es la diferencia entre un proyecto que cambia la operación y uno que se abandona a los seis meses.

Nota del entrevistador: Desde Barcelona llevamos años viendo organizaciones que justifican inversiones en tecnología predictiva con argumentos puramente técnicos — y que después no logran que los equipos la incorporen al trabajo diario. Yuliana pone nombre a algo que pocas veces se dice con esta claridad: el problema no es el algoritmo, es que nadie gestionó la adopción. Un recordatorio necesario para cualquier organización que esté evaluando dar ese paso.

Para resumir: Los proyectos de IA en industria no fracasan por falta de tecnología. Fracasan cuando se implementa el sistema sin gestionar cómo va a cambiar el trabajo de los técnicos, quién actúa sobre las alertas y cómo se mide el impacto real en la operación. El valor no está en las métricas del modelo — está en que las decisiones de mantenimiento sean mejores que las de ayer.

Como dice Goñi: "No basta con que el modelo funcione. Hay que asegurarse de que la operación lo use. Y eso es trabajo de gestión desde el día uno."

Te invitamos a visitar nuestra web para leer más artículos como este » Elreliabilitypost