La compañía detrás de ChatGPT amplía así su capacidad de cómputo para responder a una demanda que no deja de crecer. Según CNBC, este movimiento marca un giro en su estrategia operativa y revela cómo incluso los rivales más férreos deben cooperar en la feroz carrera de la inteligencia artificial.
Hasta ahora, Microsoft era el socio prioritario, tanto como inversionista como proveedor de Azure. Pero el boom global de ChatGPT ha disparado usuarios y consultas hasta niveles que han puesto en jaque su infraestructura. A esto se suma la escasez mundial de chips de alto rendimiento, en especial las GPU de Nvidia, que ya no bastan para sostener el entrenamiento e inferencia de modelos cada vez más complejos.
La alianza con Google no es un simple backup, sino una jugada crítica para escalar. El acceso a las TPUs de Google —aunque no las versiones más potentes, reservadas para proyectos como «Gemini»— permitirá a OpenAI optimizar costos por inferencia y mejorar la eficiencia energética. Diversificar hardware reduce además la dependencia tecnológica y aporta flexibilidad para seguir evolucionando.
Este movimiento también abre la puerta a una arquitectura multicloud con ventajas globales. La infraestructura de Google Cloud acerca los servicios a usuarios en más regiones, baja la latencia en horas pico, ayuda a cumplir regulaciones locales y reparte mejor las cargas de trabajo. Para millones de usuarios y desarrolladores, esto se traduce en una experiencia más estable y rápida.
OpenAI y Google compiten de forma directa en IA conversacional y en la carrera por dominar el futuro del sector, pero aquí actúan como aliados tácticos para superar un problema común: la falta de recursos de cómputo de alto nivel. Al mismo tiempo, Google se asegura ingresos extra para su división cloud y refuerza su imagen como proveedor de infraestructura puntera.
