Imagina esto: estás a mitad de una licitación estratégica, con Operaciones reclamando continuidad de suministro y el negocio empujando por precio, mientras Legal insiste en blindar condiciones y Riesgos pide evidencias de homologación. Tu equipo de Compras va al límite, saltando entre RFQs, evaluaciones técnicas y negociaciones, y alguien propone la solución “mágica”: necesitamos un agente de IA que lance eventos, compare propuestas, gestione excepciones y “automatice de arriba abajo” el ciclo de compra, porque eso nos liberaría de mucha carga administrativa.
Suena tentador. Y, si has seguido la conversación de los últimos meses, también suena familiar: agentes que trabajan solos, toman decisiones y cambian las reglas del juego.
Pero cuando pasamos del discurso al uso real en Compras… aparece un choque bastante concreto: la realidad operativa. No es que la IA no funcione. Es que no funciona como esperamos cuando le pedimos fiabilidad, consistencia, control y trazabilidad. Y Compras vive (precisamente) de eso.
¿Tu proceso de homologación puede tolerar una respuesta distinta cada vez? ¿Tu compliance acepta “probablemente esto esté bien”? ¿Puedes auditar por qué se aprobó un proveedor crítico si la decisión la tomó un sistema que… predice palabras?
Este artículo aterriza qué está pasando con los agentes de IA, qué límites son estructurales (no “fallos puntuales”), y cómo debería responder el área de Compras: menos piloto automático y más arquitectura híbrida.
Tabla de contenidos
ToggleQué son realmente los “agentes” y por qué no son deterministas
La mayoría de agentes actuales están basados en LLMs (modelos de lenguaje grandes). No importa cuáles sean (ChatGPT, Gemini, Claude…), sino cómo operan: no “razonan” como el software tradicional; calculan probabilidades y predicen la siguiente palabra más probable según el contexto.
Esto los hace brillantes para:
- redactar y resumir,
- entender lenguaje humano,
- clasificar texto,
- proponer alternativas cuando hay ambigüedad.
Pero introduce un punto crítico para Compras: no son deterministas. Es decir, ante el mismo input, no garantizan la misma salida.
En un entorno de Compras, esto es un gran riesgo operativo:
- Una aprobación sin seguir el flujo exacto rompe segregación de funciones.
- Un “sí” en una excepción hoy y un “no” mañana cambia el resultado de una licitación.
- Un contrato con una cláusula inventada no es “un pequeño error”.
Los tres riesgos que chocan con Compras: alucinación, pérdida de instrucciones y deriva
En pilotos reales (no en demos), estos son los fallos que más se repiten cuando se intenta dar autonomía real a agentes:
1. Alucinaciones: la respuesta “convincente” que no es verdad
El modelo puede generar información incorrecta o inventada con un tono completamente seguro. En Compras, esto puede aparecer como:
- justificar un criterio de adjudicación que no existe,
- atribuir certificaciones o condiciones a un proveedor sin evidencia,
- citar políticas internas “fantasma”.
OpenAI ha explicado que las alucinaciones no son simplemente un bug aislado, sino un desafío difícil de eliminar por completo en este tipo de modelos, y que el foco práctico pasa por entenderlas y mitigarlas.
2. Pérdida de instrucciones: pasos omitidos cuando el flujo se complica
Cuando hay muchos condicionantes (umbral de gasto, categoría, centro de coste, tipo de proveedor, compliance, aprobaciones…) el agente puede saltarse un paso.
¿Traducción para nuestra área de Compras?
- Se “olvida” de pedir tres ofertas cuando toca.
- No aplica la matriz de delegación de autoridad.
- No lanza la validación de sanciones/terceros.
3. Deriva (drift): el agente pierde el objetivo si el contexto se desvía
En conversaciones largas o multitarea, el agente puede irse del objetivo inicial. En Compras, drift significa:
- empezar evaluando proveedores y acabar proponiendo un “plan de negociación” sin datos,
- confundir requisitos de una categoría con otra,
- tomar como “requisito” un comentario del usuario que era solo contexto.
El giro del mercado: menos autonomía total, más control
Este cambio de percepción se está viendo públicamente en compañías que empujaron fuerte el relato de los agentes.
Por ejemplo, en Salesforce, una directiva llegó a resumirlo de forma brutalmente honesta: “todos teníamos más confianza en los LLM hace un año”, señalando problemas como la aleatoriedad y que el modelo ignore instrucciones.
En paralelo, Gartner ha puesto números a la prudencia: solo un 15% de líderes de aplicaciones TI están considerando, pilotando o desplegando agentes totalmente autónomos (sin supervisión humana).
¿La lectura para Compras? Que el problema no es “si la IA sirve”, sino qué nivel de autonomía es razonable cuando hay dinero, riesgo, auditoría y cumplimiento en juego.
Desde Avanti, por ejemplo, estamos siendo muy cautos en la puesta en producción de elementos de IA en nuestro software. Seguimos investigando cómo aportar verdadero valor sin que esto suponga una pérdida de control y problemas para nuestros usuarios y sus empresas. Nada peor que poner en las manos de nuestros usuarios herramientas que les compliquen la vida, por mucho hype que haya en introducir la IA con calzador en cualquier herramienta tecnológica.

Implicaciones prácticas para Compras a lo largo del Source-to-Pay
Pongámoslo en términos Source-to-Pay. No todos los puntos del proceso toleran el mismo grado de incertidumbre.
1. Sourcing
La IA puede ayudar muchísimo a:
- redactar RFP/RFQ,
- proponer criterios y preguntas,
- resumir respuestas de proveedores,
- detectar incoherencias en textos largos.
Pero si la dejas “decidir” sin control:
- puede ponderar mal criterios,
- inventar comparativas,
- justificar adjudicaciones sin trazabilidad.
Recomendación: IA para preparar y analizar, pero adjudicación condicionada a reglas + aprobación humana, con un buen software que lo permita.
2. Homologación y riesgo de proveedor
Aquí el listón es altísimo: sanciones, ciber, ESG, compliance, prevención de fraude…
Un agente puede:
- clasificar documentación,
- detectar faltantes,
- generar un resumen de riesgos y “pendientes”.
Pero no debería:
- certificar que un documento es válido si no hay verificación,
- aprobar un proveedor crítico basándose en “parece correcto”.
Recomendación: “human-in-the-loop” obligatorio y fuentes verificables (repositorios, datos maestros) para cualquier afirmación.
3. Contratos y negociación
La IA puede ser un copiloto excelente para:
- preparar borradores,
- sugerir redlines,
- proponer argumentos de negociación.
El riesgo aparece cuando:
- inventa cláusulas o referencias legales,
- confunde versiones,
- recomienda aceptar términos fuera de política.
Recomendación: IA sí, pero con plantillas aprobadas, bibliotecas contractuales y validaciones deterministas (y Legal como puerta).
4. P2P (pedido, recepción, factura)
Aquí es donde más se sueña con “autonomía total”… y donde más caro sale el error:
- aprobar excepciones,
- tocar inventario,
- aplicar descuentos,
- liberar pagos.
Recomendación: Automatización con motores de IA sí (como, por ejemplo, aplicamos en Invoway), pero con criterios clarísimos y control total de excepciones. Cuando hablamos de acciones críticas (reembolsos, descuentos, inventario, normativa), necesitas reglas claras, límites definidos y muchas veces supervisión humana.
La arquitectura que sí está funcionando: híbrida (y poco glamurosa)
La conclusión pragmática que se está imponiendo es que el problema no es usar agentes sino usarlos “solos”.
Por eso, lo que más terreno está ganando es la arquitectura híbrida:
- IA generativa para entender lenguaje, proponer, resumir, manejar ambigüedad.
- Automatización determinista (reglas, flujos, validaciones) para garantizar que lo crítico ocurre siempre igual y queda auditado.
En Compras, traducido a diseño operativo podría verse de la siguiente forma:
- La IA redacta el RFQ → el sistema valida umbrales, categorías y aprobaciones.
- La IA resume ofertas → la plataforma calcula comparativas con datos estructurados.
- La IA sugiere adjudicación → reglas bloquean proveedores no homologados y fuerzan evidencias.
- La IA prepara un borrador contractual → solo puede usar cláusulas de librería aprobada.
Esto son solo ejemplos, y las herramientas tecnológicas como Avanti estamos trabajando en ello, pero dicho de otra forma más generalista:
La IA propone. Las reglas limitan. Las personas supervisan.
No queda tan bien en un Powerpoint de implantación de IA en Compras, pero encaja con cómo funcionan las empresas de verdad.

Checklist para implantar IA en Compras sin aumentar el riesgo
Si estás evaluando agentes o “compras autónomas” en tu departamento de Compras, este marco te evitará muchos golpes:
1. Clasifica tus casos de uso por tolerancia al error
- Baja criticidad: redacción, resumen, clasificación, búsqueda interna.
- Media: recomendación con evidencia.
- Alta: aprobar, adjudicar, modificar condiciones económicas, liberar pagos.
2. Define “guardarraíles” antes del piloto
- límites de actuación (qué puede y qué no puede ejecutar),
- umbrales (importe, categoría, criticidad),
- obligatoriedad de evidencias (links a fuentes, documentos, registros).
3. Exige trazabilidad
Si no puedes responder “por qué” y “con qué datos” se tomó una decisión, no es implantable en Compras.
4. Acota el acceso a sistemas
Un agente con permisos amplios se convierte en un nuevo vector de riesgo operativo y de seguridad (y esto no es paranoia: es una de las preocupaciones recurrentes en despliegues reales).
5. Mide consistencia, no solo ahorro de tiempo
No basta con “hizo la tarea rápido”. Pregunta:
- ¿lo hizo igual 100 veces?
- ¿cumplió el flujo completo?
- ¿se puede auditar?
6. Empieza por copilotos, no por autopilotos
La autonomía total es el final del camino, no el punto de partida. Y el mercado está demostrando que, hoy, la mayoría no está ahí.
La oportunidad es real, pero el estándar de Compras también
La función de Compras tiene impacto directo en margen, continuidad operativa, riesgo regulatorio, reputación, gobierno interno y un largo etcétera. Por eso, la pregunta no es si vas a usar IA (que lo harás de una u otra forma), sino:
¿Dónde te aporta ventaja sin romper control?
¿En qué puntos necesitas determinismo, y en cuáles puedes permitir ambigüedad?
¿Estás diseñando un departamento de Compras “más inteligente”… o simplemente “más rápido” (en el mejor de los casos) hasta que falle?
La IA puede ser un copiloto extraordinario. Pero en Compras, el piloto automático sin guardarraíles supone una gran exposición al riesgo, con consecuencias indeterminadas.
Desde Avanti, te aconsejamos familiarizarte con cualquier tecnología que te permita ser más eficiente, pero no dejar en sus manos los aspectos importantes hasta que el control sea como mínimo al mismo nivel que el que podrías tener tú como profesional “humano”.
Imagen diseñada por Freepik



