El problema con la IA no es adoptarla, es gobernarla
Pilotos mueren en el piloto. Lo que separa un POC de un sistema productivo es gobierno del modelo, datos y consecuencias.
La mayoría de los pilotos de IA que veo en organizaciones grandes mueren en el piloto. No porque el modelo no funcione — funciona. Mueren porque cuando llega el momento de pasar a producción, nadie sabe cómo defenderlo.
Tres preguntas que matan al POC
Cuando llevamos un POC al comité, alguien siempre pregunta lo mismo:
- ¿Qué pasa si se equivoca?
- ¿Cómo sabemos qué datos vio?
- ¿Quién es responsable cuando hay daño?
Si no tenés respuesta clara para las tres, el proyecto se frena. Y bien que se frena — son las preguntas correctas.
El gobierno del modelo no es burocracia. Es la condición para que el modelo exista en producción.
Adoptar es fácil, gobernar no
Adoptar IA en 2026 es trivial. Hay APIs, hay frameworks, hay tutoriales. En un fin de semana montás un RAG decente. El problema empieza el lunes a la mañana cuando alguien pregunta cómo se audita.
Lo que aprendí liderando el RTT en Santander es que el trabajo real está en otro lado: en armar el aparato de control que permite que la IA viva en una organización regulada.
Ese aparato tiene partes técnicas — logs, trazabilidad, evals — pero la mayor parte es organizacional. Quién aprueba un cambio de prompt. Quién monitorea drift. Qué pasa cuando una respuesta es discriminatoria.
La línea que importa
Si tu IA no puede responder estas preguntas con evidencia, no está lista para producción:
- ¿Por qué tomó esta decisión específica?
- ¿Qué información usó para tomarla?
- ¿Cómo cambiaría la decisión si cambiaran los datos?
- ¿Quién aprobó esta versión del modelo?
Las dos primeras son técnicas. Las dos últimas son de gobierno. Y las cuatro son obligatorias.