Google Cloud acaba de anunciar la última generación de chips de inteligencia artificial (IA), marcando el siguiente paso en la estrategia de autodesarrollo de hardware para optimizar el rendimiento y el costo en la plataforma en la nube.
En particular, esta línea de chips de octava generación se divide en dos variantes separadas, que sirven a dos necesidades básicas de la IA: entrenamiento y razonamiento.
Google presenta la TPU 8t para el entrenamiento de modelos, que es una etapa que requiere una enorme capacidad de cálculo para enseñar a los sistemas de IA a comprender los datos.
Mientras tanto, la TPU 8i está optimizada para la inferencia, es decir, el proceso de modelo aprendido se utiliza para responder preguntas y procesar solicitudes de los usuarios en tiempo real.
Según Google, los nuevos TPU ofrecen un salto significativo en el rendimiento. En comparación con la generación anterior, la velocidad de entrenamiento del modelo puede ser hasta 3 veces más rápida.
En particular, el sistema también tiene la capacidad de conectar más de 1 millón de TPU en el mismo cúmulo, abriendo una escala de computación extremadamente grande para aplicaciones de IA complejas.
Además del rendimiento, también se enfatizan los factores de costo y energía. Los chips TPU diseñados por Google son famosos por su capacidad de ahorro de energía, lo que ayuda a las empresas a reducir significativamente los costos operativos al implementar la IA a gran escala.
Esta es una ventaja importante en el contexto de la creciente demanda de IA, lo que conlleva presión sobre la infraestructura y la energía.
Sin embargo, el lanzamiento del TPU de nueva generación no significa que Google le dé la espalda a Nvidia (el gigante que domina el mercado mundial de chips de IA).
De hecho, Google afirma que los TPU desempeñarán un papel complementario, no reemplazando los sistemas que utilizan GPU de Nvidia en su infraestructura en la nube.
La compañía incluso dijo que integrará los últimos chips de Nvidia, incluida la arquitectura Vera Rubin, en el servicio en un futuro próximo.
Esta tendencia no es exclusiva de Google. Los principales proveedores de la nube como Microsoft y Amazon también están desarrollando chips de IA internos, con el objetivo de reducir la dependencia de terceros y optimizar los costos.
Sin embargo, a corto plazo, Nvidia sigue manteniendo una posición casi insustituible.
El analista Patrick Moorhead predijo desde 2016 que los TPU de Google podrían ser perjudiciales para Nvidia. Pero la realidad actual muestra lo contrario cuando Nvidia se ha convertido en una empresa con una capitalización de mercado de casi 5.000 billones de dólares, gracias a la ola de IA en auge.
Incluso, el desarrollo de plataformas en la nube como Google Cloud podría seguir beneficiando a Nvidia. A medida que aumenta la demanda de IA, las empresas necesitarán más recursos informáticos, incluidas las GPU de Nvidia y las TPU de Google.
Sin detenerse ahí, estos dos gigantes también ampliaron la cooperación. Google dijo que está colaborando con Nvidia para optimizar el rendimiento de la red para los sistemas GPU en la nube, a través de la tecnología Falcon, que es una solución de red de software desarrollada por Google y que publica el código fuente bajo el patrocinio de Open Compute Project.
La combinación de desarrollo propio de chips y cooperación estratégica muestra que Google está persiguiendo una dirección equilibrada, construyendo capacidades independientes y aprovechando el ecosistema existente.