OpenAI ha dado un paso relevante en su estrategia de infraestructura al cerrar un acuerdo multianual de miles de millones de dólares con Cerebras, uno de los actores más singulares del mercado de chips para inteligencia artificial.
El objetivo es claro: asegurar capacidad de computación a gran escala para sostener el crecimiento de sus modelos y servicios.
El pacto contempla el acceso progresivo a hasta 750 megavatios de potencia de cálculo en los próximos tres años, una cifra que sitúa la operación entre las mayores apuestas privadas en infraestructura de IA conocidas hasta ahora. El despliegue se realizará por fases y se extenderá, al menos, hasta 2028.
No dependencia
La operación se enmarca en un contexto de escasez estructural de capacidad computacional. Entrenar y operar modelos avanzados exige cantidades masivas de energía, chips especializados y centros de datos. OpenAI busca así reducir riesgos operativos y no depender en exclusiva de un único proveedor.
Cerebras aporta una propuesta diferencial. Sus procesadores de arquitectura wafer-scale integran memoria y computación en un solo chip de gran tamaño, lo que permite acelerar tareas de inferencia y reducir latencias frente a arquitecturas tradicionales basadas en clusters de GPU.
