
La GPU de NVIDIA es la base principal para el volumen de trabajo de la IA, por lo que consume grandes cantidades de electricidad, lo que requiere sistemas de enfriamiento mas eficientes. Amazon dijo que diseñaron una nueva solucion llamada Heat Interchanger (IRHX), que puede integrarse en centros de datos actuales y futuros sin revisar todo el sistema.
"Las soluciones de enfriamiento liquidas actuales ocupan demasiado espacio y usan mucha agua, no adecuadas para nuestra escala", dijo Dave Brown, vicepresidente de AWS Computing and Learning Machine, compartido.
Anteriormente, el sistema refrigerado por aire era suficiente para las antiguas GPU NVIDIA. Pero con la nueva generacion como NVIDIA GB200 NVL72, integrada hasta 72 GPU en un solo soporte, Amazon se ve obligado a actualizar la infraestructura.
AWS ha lanzado la nueva linea P6E Server, utilizando el diseño Blackwell de NVIDIA, proporcionando una gran potencia para capacitar y operar un modelo de IA grande. Antes de Amazon, los sistemas basados en GB200 NVL72 se proporcionaron a traves de Microsoft y CoreWeave.
Como el proveedor de nubes mas grande del mundo, Amazon ha desarrollado hardware durante mucho tiempo, como chips de IA, servidores y enrutadores de red para reducir la dependencia de terceros y aumentar las ganancias. AWS actualmente contribuye en gran medida a la ganancia neta de Amazon, con el margen de beneficio mas alto desde 2014 en el primer trimestre de 2025.
Segun CNBC, Microsoft (el mayor competidor de AWS) tambien esta desarrollando hardware de IA. En 2024, Microsoft tambien introdujo el sistema de enfriamiento Sidekicks para el chip MAIA diseñado por la compañia.