Larry Ellison, cofundador y CTO de Oracle, ha puesto el dedo en la llaga sobre lo que considera el fallo fatal de la carrera actual de la IA: la falta de diferenciación real entre los competidores.
Según su visión, grandes modelos como «ChatGPT», «Gemini», «Grok» o «Llama» sufren del mismo mal: todos han aprendido exactamente con los mismos datos públicos de internet, lo que limita su valor único.
El problema de la uniformidad
Durante la llamada de ganancias del segundo trimestre fiscal de 2026, Ellison argumentó que esta base compartida convierte la IA de vanguardia en una «commodity» con diferencias mínimas entre unos y otros.
«Todos los grandes modelos de lenguaje se entrenan con los mismos datos», sentenció el ejecutivo. «Por eso son básicamente iguales y se están comoditizando tan rápido en el mercado actual».
La fiebre del oro privado
Para Ellison, la próxima gran oportunidad no está en mejorar los modelos fundacionales públicos, sino en permitir que la IA trabaje con datos empresariales propietarios de forma totalmente segura.
