La compañía de Amazon lanza una nueva generación de sus procesadores Trainium para IA en plena ofensiva de Google.
Amazon intensifica su ofensiva en el desarrollo de chips propios para inteligencia artificial, un mercado dominado por Nvidia y donde su rival Google está ganando terreno con sus procesadores TPU. AWS, la compañía de cloud computing de Amazon, ha avanzado hoy en su conferencia re:Invent en Las Vegas (EEUU) los primeros detalles de Trainium 4, su próximo chip acelerador, que promete una mejora notable en rendimiento (multiplicará por seis el de la generación precedente), capacidad de memoria y eficiencia energética.
La compañía, que ha añadido 3,8 GW de capacidad a su red en el último año en plena euforia de la IA, enmarca esta apuesta en un contexto en el que prevé que se disparen las necesidades de computación por el despliegue de "miles de millones" de agentes inteligentes, ha dicho Matt Garman, CEO de AWS." Aquí es donde vamos a ver el retorno de la inversión en IA", ha añadido.
A corto plazo, la baza de AWS para intentar reducir su dependencia de Nvidia son los nuevos procesadores Trainium 3, que ya empieza a ofrecer en unos sistemas propios (Trn3 UltraServers), que integran hasta 144 chips. En la batalla de los aceleradores de IA, AWS quiere hacer valer la baza del coste-rendimiento para ampliar su base de clientes, y asegura que su nueva oferta permite acelerar el entrenamiento de modelos avanzados y reducir costes de ejecución de las aplicaciones de inteligencia artificial, lo que se conoce como inferencia. Según la empresa, estos procesadores multiplican por más de cuatro el rendimiento y ofrecen un 40% más de eficiencia energética que la actual generación.
Somos de lejos el mejor sitio en el que ejecutar GPU de Nvidia.
Matt Garman, CEO de AWS
En una nota informativa, Jefferies señala que AWS ha presentado con su hoja de ruta notables avances en su estrategia de chips propios, pero considera que el rendimiento total aún se queda "por detrás" de opciones rivales del mercado.
Uno de los grandes clientes de Trainium es Anthropic, la start up de IA en la que Amazon ha invertido 8.000 millones de dólares. AWS ha construido en EEUU un clúster con medio millón de sus chips Trainium 2 (alcanzará el millón de procesadores a final de año) donde Anthropic entrena su modelo Claude. Para AWS, este proyecto ha servido como carta de presentación de las posibilidades de sus procesadores. Sin embargo, la start up ha ampliado recientemente su apuesta por los TPU de Google y ha firmado un acuerdo de 30.000 millones de dólares con Microsoft y Nvidia. Aún así, mantiene a AWS como su mayor proveedor en la nube y su principal socio tecnológico para entrenar sus modelos.
No da la espalda a Nvidia
Trainium, con un millón de unidades desplegadas, es un negocio ya de "varios miles de millones de dólares" anuales para AWS, una compañía con 132.000 millones de dólares de ingresos anualizados. Pero en un mercado dominado por Nvidia, Amazon está obligada a seguir ampliando su oferta con tecnología de este fabricante. Precisamente, hoy ha anunciado que incorpora a su nube nuevos servidores equipados con las GPU más avanzadas de Nvidia, orientados a acelerar el despliegue de aplicaciones de inteligencia artificial a gran escala.
Garman ha recordado que grandes laboratorios de IA como OpenAI usan tecnología de Nvidia a través de AWS. "Somos de lejos el mejor sitio en el que ejecutar GPU de Nvidia. Fuimos los primeros en ofrecer sus chips en la nube y llevamos colaborando con ellos más de quince años. Esto significa que hemos aprendido a operar sus GPU a escala", ha remarcado el CEO de AWS.
Más modelos, factorías para IA y agentes
Amazon Bedrock, la plataforma de AWS para acceder a modelos de IA, es otro elemento central en su estrategia. Una parte muy relevante de las tareas de inferencia en este servicio (que cuenta con más de 100.000 clientes) ya se ejecuta sobre Trainium, lo que reduce la dependencia de Amazon de Nvidia y le da una ventaja en costes. Bedrock es uno de los servicios con más potencial de crecimiento, y AWS aspira a que acabe teniendo un peso comparable al de EC2, su histórico servicio para alquilar servidores en la nube. Hoy, ha anunciado la incorporación de 18 nuevos modelos abiertos de IA a Bedrock, incluyendo de la francesa Mistral.
Además, ha presentado la segunda generación de su familia de modelos fundacionales Nova, con la que busca reforzar su oferta propia respecto a Google y OpenAI. "No habrá un único modelo que se imponga a todos", ha señalado Garman, quien ha asegurado que "decenas de miles de clientes" usan Nova de Amazon.
Por otra parte, AWS ha anunciado una nueva oferta de factorías de IA, que permite a gobiernos y grandes empresas desplegar infraestructura de inteligencia artificial con chips de Nvidia y Trainium directamente en sus propios centros de datos, pero operada por AWS. Esta propuesta está pensada para proyectos que requieren soberanía del dato y despliegues a gran escala. En su conferencia re:Invent, que congrega a más de 60.000 asistentes, AWS también ha lanzado nuevas herramientas para crear y desplegar agentes de inteligencia artificial.