Después de anunciar un sólido informe financiero del primer trimestre de 2026, la directora ejecutiva de AMD, Lisa Su, dijo en la conferencia telefónica sobre resultados que con el advenimiento de la era de la IA agente (inteligencia artificial de agentes), el uso de CPU en los centros de datos se está elevando a niveles sin precedentes. Dijo que bajo esta nueva tendencia, la cantidad de CPU y GPU en un solo nodo informático se está acercando gradualmente de uno a uno de uno a muchos en el pasado, y es posible que incluso haya más CPU que GPU en el futuro.

Al responder las preguntas de los analistas, Su Zifeng señaló que los grupos de inferencia y entrenamiento de IA tradicionales generalmente usan una configuración de "una CPU con cuatro a ocho GPU", y la CPU desempeña más un papel de "anfitrión", responsable de programar e iniciar las tareas informáticas de la GPU. En el modo Agentic AI, una gran cantidad de agentes autónomos necesitan confiar en la CPU del host para realizar continuamente actualizaciones de estado, orquestación de tareas y colaboración, lo que está cambiando fundamentalmente la forma de los nodos informáticos.
Según Su Zifeng, con el rápido aumento en el número de agentes, la proporción de CPU a GPU se acerca a 1:1. Incluso sugirió que si los clústeres futuros ejecutan "cantidades extremadamente grandes" de agentes, es completamente concebible tener más CPU que GPU en un solo nodo. Esto significa que la ola de expansión informática acelerada impulsada por GPU de los últimos años se está superponiendo a una ola de demanda de CPU impulsada por "cargas de trabajo de agentes".
La llamada IA agente esencialmente ejecuta múltiples “agentes” autónomos sobre un modelo de lenguaje grande (LLM) para completar automáticamente procesos de tareas complejas. Por ejemplo, en un escenario de desarrollo de software, un agente puede revisar el código por sí mismo, implementar modificaciones, esperar a que se complete la compilación y continuar corrigiendo nuevos errores cuando se descubren, casi sin necesidad de intervención manual en todo el proceso. Sin embargo, para coordinar, programar y orquestar estas tareas de agentes que se ejecutan en paralelo, el sistema debe depender de la CPU para proporcionar capacidades de gestión y control continuo.
Bajo tales cargas de trabajo, la CPU ya no es solo una función de apoyo para "iniciar el entrenamiento o la inferencia de la GPU", sino que se ha convertido en el centro central que impulsa el funcionamiento de todo el sistema de IA agente. A medida que más y más tareas se dividen y delegan a los agentes, la utilización de la CPU se eleva a niveles extremadamente altos, incluso en la era de rápida expansión de la computación acelerada por GPU. El informe cita la declaración de AMD diciendo que la compañía actualmente está "vendiendo casi todas las CPU que puede proporcionar a laboratorios de inteligencia artificial y proveedores de servicios en la nube a hiperescala" para satisfacer esta ola de nuevas demandas provocadas por las tareas de agentes inteligentes.
Esto también significa que en el diseño de la futura infraestructura de IA, la relación entre CPU y GPU puede cambiar de "maestro-esclavo" a una forma más igual o incluso más intensiva en CPU. Para los proveedores de chips, Agentic AI no solo continúa impulsando la demanda de GPU, sino que también se espera que abra una nueva ronda de crecimiento en el mercado de CPU para servidores.