Skip to main content
Divulgación
Oct. 2025

Entre la promesa y la amenaza: de la caída de los asistentes al auge de los agentes de IA

Juan Ignacio Moreno, Head of IA Solutions & Strategy de Innova-tsn para El Economista

La inteligencia artificial ha llegado para quedarse, eso es algo innegable, pero el ritmo al que se desarrollan estos aplicativos no es asumible, ni por el mercado ni por la ciudadanía. Nos encontramos en un momento de disrupción en el enfoque de las soluciones de inteligencia artificial. En el 2024 estábamos centrados en la conceptualización de los llamados “asistentes” o “agentes deterministas”, es decir, IAs soportadas por grandes modelos de lenguaje (LLMs) que trabajan bajo petición y ejecutan tareas específicas, normalmente encaminadas a clasificar, resumir o generar nueva información.

Un año después, parece existir un acuerdo generalizado entre todos los actores para concentrar el diseño de todas las soluciones productivas en arquitecturas “multi-agente”, que, ante una petición concreta, pueden tomar decisiones de encaminamiento y de clasificación, generación y agrupación de la información de forma proactiva y autónoma. Basadas en su propio criterio y en las preferencias de su consumidor humano, al que progresivamente van conociendo y a quien pueden fácilmente adaptarse. Lo hacen descomponiendo problemas complejos en subtareas y decidiendo por sí mismos -en cada interacción las acciones específicas que han de llevarse a cabo para dar respuesta a la solicitud.

Sea como fuere, conviene alejarse del ojo del huracán y reflexionar con cierta templanza. ¿Se alinea esta vorágine del mercado con el espíritu del EU AI Act? ¿Son complementarios estos nuevos “agentes” a los “asistentes” o los canibalizan por completo? ¿Qué hay de los costes y de su control? Estas son tan solo algunas de las cuestiones que merecen, como mínimo, una propuesta de actuación que contemple competitividad, control, seguridad, cumplimiento normativo y aúne los principios de desarrollo de una IA responsable.

La respuesta corta es que sí. De hecho, entre los objetivos principales de la ley europea de inteligencia artificial se encuentra el de establecer un marco regulatorio armonizado con el fin de garantizar que los sistemas de IA sean seguros, éticos y fiables, mientras que, al mismo tiempo, se fomenta la innovación y la competitividad.

No obstante, no se debe confundir lo posible con lo recomendado. El hecho de que tengamos la capacidad de desarrollar soluciones multi-agente de inteligencia artificial para dar respuesta a “cualquier” caso de uso, no significa que debamos desplegarlos de forma masiva sin antes pararnos a evaluar su impacto.

El desarrollo de soluciones basadas en IA debe partir de una comprensión real del problema a resolver. La mejor respuesta no siempre proviene de la tecnología más reciente; en muchas ocasiones, adaptar tecnologías consolidadas ofrece mayor eficacia, menor riesgo y una integración más sostenible, además de asegurar la certeza asociada al coste de explotación.

Nos encontramos en un momento marcado por la revolución constante y continuada. Los grandes fabricantes avanzan a pies juntillas en el desarrollo de nuevas tecnologías basadas en inteligencia artificial. En esta ocasión, con esfuerzos unificados y una visión homóloga del desarrollo evolutivo de sus plataformas cloud de servicios de IA: el desarrollo de soluciones basadas en frameworks multi-agente. Arrastrados por la necesidad voraz de vender nuevos servicios, con una capacidad de inversión y en un escenario de competencia nunca visto.

El mercado, mientras tanto, transita a una velocidad más pausada, incapaz de seguir el ritmo frenético marcado por los gigantes tecnológicos. Todavía temeroso de la productivización de las soluciones y de su integración en los procesos empresariales. Y atento a la evolución de la regulación y a la falta de madurez de una tecnología lastrada por su increíble velocidad de despliegue.

Tenemos capacidad para crear agentes autónomos, pero también la responsabilidad ética de decidir hasta dónde llegar.

Ante esta situación, merece la pena detenerse y pensar en la mejor solución para cada necesidad de negocio, ya sea basada en agentes, asistentes o incluso técnicas más tradicionales, que no utilizan grandes modelos de lenguaje y que siguen resultando perfectamente válidas y eficaces para muchos casos de uso. Y no dejarse confundir por la ceguera que pueden producir las tendencias y la “presión marketiniana” a la que nos someten cada vez más los grandes proveedores de servicios cloud.

Y es que enfoques de solución basados en agentes o en asistentes pueden y deben convivir a futuro, como la respuesta óptima y más adecuada a una u otra necesidad. Esta es quizás una de las cuestiones más delicadas. No se trata solo de eficiencia, productividad o ahorro de costes, sino de responsabilidad, privacidad y derechos digitales. ¿Dejaremos que un agente de IA decida sobre la aprobación de un crédito, la evaluación de un perfil profesional o el diagnóstico de un paciente sin supervisión humana?

Está claro que podemos diseñar sistemas que actúen sin nuestra intervención, pero también debemos tener claro lo que no estamos dispuestos a delegar. No por miedo, sino por principios. Porque no todo lo que puede automatizarse, debe seguir un mismo enfoque para lograr el automatismo.

Al final, cabe recordar que “despacio se llega lejos”. No debemos confundir el progreso con la precipitación. Tenemos la capacidad tecnológica para crear agentes autónomos, pero también la responsabilidad ética de decidir hasta dónde queremos llegar y con qué garantías. De actuar en línea con el espíritu del reglamento europeo que supone un marco de trabajo para el desarrollo de IAs con enfoque humanista, que salvaguardan los derechos fundamentales.

La disyuntiva no está entre avanzar o frenar, sino entre avanzar bien o dando palos de ciego. Si queremos una IA que sume y que fortalezca nuestras capacidades sin erosionar nuestros principios, debemos diseñarla con propósito, con control y con sentido común.