Post-SaaS: cómo los agentes de IA transforman el software
Como socio de data, AI & agentic en Converteo, Julien Ribourt acompaña a las organizaciones en la definición e implementación de su estrategia en la era de los datos y la IA. Experto en transformaciones agénticas y ecosistemas de datos, desarrolla enfoques a medida para hacer de la inteligencia artificial un motor de rendimiento e innovación.
Puntos clave
- En la era agéntica, el modelo SaaS tradicional (base de datos, lógica de negocio, interfaz) se descompone. La lógica de negocio migra hacia los agentes de IA, banalizando la capa de aplicación y convirtiendo la capa de datos estructurados en el verdadero activo estratégico de la empresa.
- Esta transformación requiere una capa de datos “consultable”: no un simple data lake, sino un conjunto de datos estructurados, gobernados y accesibles a través de contratos de interfaz estables y versionados (API, esquemas declarados) que los agentes pueden explotar de manera fiable.
- La interfaz de usuario se vuelve efímera y es generada bajo demanda por los agentes, lo que conduce a un paradigma de “everything as code”. El coste ya no reside en la licencia por usuario (“seat”), sino en el uso real (“compute”), alineando así el gasto con el valor producido.
La era de las aplicaciones ha terminado. Comienza el imperio del código.
Ya se ha escrito mucho sobre la corrección masiva de los valores del software a principios de 2026 y sobre la amenaza que los agentes de IA representan para el modelo SaaS. Este debate está ampliamente cubierto. Lo que me parece menos explorado es la lectura arquitectónica: no “¿qué va a desaparecer?”, sino “¿qué surge en su lugar y cómo se construye?”
La descomposición de la aplicación SaaS
Una aplicación SaaS clásica es un modelo de tres capas: base de datos, lógica de negocio e interfaz de usuario. En mayo de 2025, Satya Nadella describió este tríptico: “las aplicaciones SaaS son esencialmente bases de datos CRUD con lógica de negocio. La lógica de negocio migrará hacia los agentes”. McKinsey formalizó la idea en un arquetipo “post-SaaS” donde el agente consulta directamente los repositorios de datos a través de API, comoditizando la capa de aplicación.
Pero lo que ninguno de los dos detalla es lo que esto exige a la capa de datos. Sin embargo, es ahí donde reside la clave.
Datos consultables: ni un data lake, ni un contrato de interfaz
Cuando decimos “los agentes consultan los datos vía API”, no se trata de apuntar un LLM a un data lake en bruto. Un agente necesita datos estructurados, semánticamente tipados, accesibles a través de un contrato de interfaz estable: esquemas declarados y versionados (JSON Schema, Protobuf), API documentadas con un contrato OpenAPI, capas de metadatos, y gobernanza de la actualidad de los datos y de los permisos.
El caso Klarna ilustra esta lógica. En septiembre de 2024, Siemiatkowski anunció el cierre de Salesforce y Workday y la consolidación de 1.200 aplicaciones SaaS. La narrativa mediática habla de “reemplazar el SaaS por la IA”. La realidad es más instructiva.
Klarna extrajo los datos de clientes, transacciones y productos que vivían en Salesforce para consolidarlos en una base de datos de grafos Neo4j, hizo esta capa consultable por su IA interna y luego generó nuevas interfaces bajo demanda con Cursor. El resultado fue la eliminación de cientos de licencias SaaS y la reducción de la dependencia de interfaces propietarias que, al final, no eran más que capas gráficas sobre datos que Klarna ya poseía.
Sin embargo, esta lógica se dirige principalmente a los SaaS cuyo valor se reduce a una interfaz sobre datos que la empresa posee, y no a las plataformas de alta criticidad arquitectónica (ERP, sistemas transaccionales, PLM) cuya propuesta se basa en la escalabilidad, la fiabilidad de la infraestructura y una lógica de negocio profundamente integrada. El desafío no es reemplazar todo, sino identificar las herramientas cuyo uso real por parte del usuario final ya no justifica el coste de la licencia.
El punto importante es que este esquema no depende de Neo4j ni de Cursor. Es reproducible siempre que se cumplan tres condiciones:
- datos consolidados en una capa estructurada y gobernada (ya sea una base de datos de grafos, un data warehouse o un conjunto de microservicios);
- una superficie de acceso estandarizada que los agentes puedan consultar (API REST, SQL o un protocolo MCP que normalice la conexión entre los LLM y las fuentes de datos);
- y la capacidad de generar interfaces sobre la marcha en lugar de comprarlas bajo licencia.
La interfaz efímera y el “everything as code”
Si el agente puede generar la interfaz, entonces la interfaz ya no necesita ser un producto permanente. Karpathy describe haber “vibe-coded” aplicaciones efímeras para encontrar un solo error. El código de repente es gratuito, efímero, desechable después de un solo uso. Si el coste marginal del código tiende a cero, la aplicación se convierte en un artefacto generado sobre la marcha —un .jsx, un panel de Streamlit, un markdown interactivo— que se ejecuta y luego se desecha.
Este movimiento converge con el anterior hacia un principio que propongo leer como la extensión de la infraestructura como código a toda la pila de aplicaciones: una capa de datos de bajo nivel, estructurada, gobernada, expuesta a través de API versionadas; una capa de agentes que orquesta; y una capa de renderizado efímera, generada bajo demanda. Todo es declarativo y versionable. El coste se desplaza del “seat” al “compute”, más eficiente y más alineado con el valor producido.
¿Qué impacto tiene esto?
En consecuencia, la capa de datos estructurados y gobernados se convierte en el verdadero activo. Si sus datos están dispersos en múltiples SaaS con sus esquemas propietarios y sus exportaciones CSV poco fiables, usted depende de interfaces que los agentes harán superfluas. En cambio, si sus datos están consolidados y son accesibles a través de contratos estables, podrá conectarles cualquier agente, hoy o mañana.
Por supuesto, construir esta capa de datos sigue siendo un trabajo pesado: los agentes son probabilísticos, la capa determinista sigue siendo indispensable, y Sinofsky tiene razón al recordar que cada ola tecnológica ha multiplicado la demanda de software. Habrá más software que nunca, pero será más efímero, más modular y anclado en cimientos de datos más sólidos. Bienvenido a la era del “everything as code”.