
En lugar de depender de Microsoft como la primera fase, OpenAI ahora usara muchos proveedores de servicios en la nube, incluidos: Google Cloud, CoreWeave y Oracle. Los analistas evaluan esta diversificacion como un paso estrategico para resolver la "congestion de la botella" de los recursos de GPU y reducir los riesgos dependientes.
Google es inherentemente inferior a la cuota de mercado en comparacion con Amazon y Microsoft en la computacion en la nube. Sin embargo, hasta ahora, se ha hecho una marca al convertirse en un socio de Albvent para las API de Chatgting y OpenAI en muchas regiones del mundo, como Estados Unidos, Japon, Europa.
En particular, aunque las dos partes participaron en la raza de IA y desarrollaron su propio modelo (Google Gemini y el GPT de Openi), todavia estan listos para cooperar en infraestructura. Esto refleja claramente la tendencia de "socios - rivales" en la industria de la tecnologia.
La expansion de esta infraestructura tiene lugar en el contexto que el CEO de Sam Altman ha reconocido publicamente la dificultad de encontrar una fuente de GPU para mantener modelos de IA a gran escala. "Si alguien tiene 100,000 GPU, diganos", escribio en la red social X en abril.
Anteriormente, Openai tambien firmo un contrato de 5 años por valor de casi $ 12 mil millones con CoreWeave y anuncio los planes de cooperar en enlaces de tres lados con Microsoft y Oracle para compartir recursos calculados en la plataforma en la nube.
Aunque Microsoft todavia juega un socio estrategico a largo plazo y exclusivo con las interfaces de programacion de Operai, la expansion de la red de infraestructura muestra que la compañia esta ingresando una fase de crecimiento global, que requiere flexibilidad y capacidad para optimizar los recursos al mas alto nivel.