La inteligencia artificial ha dejado de ser una promesa tecnológica para convertirse en una herramienta con impacto real en empresas, economía y sociedad.
Fernando Polo, CEO de Good Rebels y experto en transformación digital, defiende que el verdadero desafío no es solo técnico, sino también ético: integrar la IA en organizaciones y decisiones empresariales sin perder de vista el propósito social de la tecnología.
TOFF.- ¿En qué momento te diste cuenta de que la inteligencia artificial no era una moda pasajera, sino algo que había llegado para quedarse?
FP.- Llevo muchos años trabajando con inteligencia artificial. Cuando hablamos de si la IA es una moda, hay que matizarlo. La inteligencia artificial lleva décadas generando valor económico.
Yo personalmente lo he visto en dos momentos.
El primero fue con la IA no generativa, la de machine learning. Cuando empezó a utilizarse de forma masiva para regular transacciones en mercados financieros o para gestionar la compra de publicidad programática. Cuando ves cómo crece la compra programática entiendes que ya no hay vuelta atrás.
El segundo momento fue más personal y tiene que ver con nuestro negocio. Nosotros somos una agencia consultora de marketing digital y trabajamos mucho con contenido. En septiembre de 2022, tres meses antes de ChatGPT, OpenAI abrió DALL-E al público. Fue la primera vez que escribí un prompt y recibí una imagen generada automáticamente.
En ese momento pensé: «Esto es un cambio muy grande». Y cuando ves que herramientas como Midjourney pasan en apenas doce meses de generar imágenes mediocres a imágenes de altísima calidad, entiendes que el cambio es enorme. Luego llega ChatGPT y ya queda claro que habrá un antes y un después.
TOFF.- ¿Cuáles crees que son los principales beneficios que la IA puede aportar al tejido empresarial?
FP.- El principal beneficio tiene que ver con la competitividad. Si pensamos en Europa y en España, tenemos un tejido empresarial muy basado en pymes. En comparación con Estados Unidos hay menos consolidación empresarial.
La IA permite que una empresa pequeña o mediana con ambición pueda acceder a capacidades tecnológicas que antes solo estaban al alcance de grandes corporaciones. Antes necesitabas mucho capital para desarrollar tecnología; ahora muchas herramientas son accesibles y baratas.
Esto democratiza la ambición empresarial. Una empresa mediana puede desplegar tecnología avanzada con equipos relativamente pequeños. Además, las grandes empresas suelen tener más burocracia, lo que ralentiza la adopción de innovaciones. Las empresas medianas, en cambio, tienen mayor agilidad.
Nosotros mismos somos un ejemplo. Somos una empresa de unas 150 personas, por tanto una empresa mediana. No tenemos una infraestructura tecnológica heredada enorme ni sistemas legacy complejos. Eso nos permite adoptar nuevas tecnologías con rapidez y aprovechar la inteligencia artificial para crecer más rápido.

TOFF.- Muchas empresas utilizan ChatGPT de forma puntual, pero integrar la IA en una organización es algo mucho más complejo. ¿Qué barreras están encontrando las compañías?
FP.- La diferencia entre uso individual e implantación organizativa es enorme. En algunos estudios se habla de mejoras de productividad individual del 5%, e incluso del 40% o 50% en ciertos perfiles como programadores. Pero cuando miras el impacto en la organización, a veces apenas llega al 1%.
Esto ocurre porque la implantación estructural es complicada. Las principales barreras son bastante clásicas.
La primera es el problema de los datos. Una persona tiene sus datos relativamente ordenados, pero en una empresa suelen estar fragmentados en distintos sistemas y bases de datos.
La segunda barrera son los procesos. Cambiar o rediseñar procesos organizativos es complejo.
La tercera tiene que ver con las personas. Existe miedo a perder el empleo o a que una mayor productividad implique más carga de trabajo.
Y por último está el riesgo. Muchas iniciativas pasan por departamentos de compliance o de IT que frenan su adopción por motivos de seguridad, privacidad o ciberseguridad. Son riesgos reales, pero si la organización no los gestiona bien puede quedarse bloqueada durante años mientras los empleados utilizan herramientas externas sin control.
TOFF.- Entonces, ¿las empresas medianas tienen ventaja frente a las grandes?
FP.- Sí, especialmente en agilidad. Una empresa pequeña o mediana puede tomar decisiones más rápido. Las grandes organizaciones tienen más procesos internos y más cosas que proteger.
En nuestro caso, cuando aparecieron herramientas basadas en agentes o nuevos navegadores con IA, detectamos riesgos importantes. En muchas empresas ni siquiera se permitiría instalar ese tipo de software. Nosotros lo bloqueamos inicialmente, pero en dos meses encontramos una forma de utilizarlo con un nivel de riesgo aceptable.
La razón es que la mejora de productividad era demasiado grande como para ignorarla. En una empresa mediana el equipo directivo puede decidir que esa innovación es prioritaria y dedicar recursos a resolver el problema rápidamente.
TOFF.- Como CEO, ¿qué papel debe desempeñar el liderazgo en la adopción de la inteligencia artificial?
FP.- Es un papel clave. El problema es que el CEO suele estar en un nivel de abstracción muy alto. En una empresa grande, además, la capacidad de acción directa es menor porque hay muchos niveles jerárquicos.
Creo que muchos CEOs todavía están en deuda con este tema. Si solo aprendes sobre IA a través de la prensa, en realidad no estás aprendiendo sobre IA. Hay que experimentarla.
Un CEO debería dedicar tiempo a probar herramientas, a trabajar con su equipo técnico y a entender qué está pasando. Cuando experimentas esas herramientas directamente es cuando realmente entiendes su impacto. Si no, te quedas demasiado lejos de la transformación que está ocurriendo.

TOFF.- Como jurado de un concurso que premia proyectos de inteligencia artificial con impacto social, ¿cómo debería abordarse la gobernanza y la ética de la IA?
FP.- Es una cuestión muy importante. En realidad combina principios clásicos de gobernanza empresarial con nuevos desafíos tecnológicos.
Lo primero es la voluntad de hacer las cosas bien. A partir de ahí hay que establecer mecanismos concretos. Por ejemplo, nuestra empresa tiene certificación BCorp, que implica cumplir estándares de impacto social y responsabilidad empresarial. Es un sistema de gobernanza externo que te obliga a revisar constantemente cómo operas.
Con la inteligencia artificial ocurre algo parecido. Las empresas deben definir políticas de uso, sistemas de supervisión y criterios claros para evaluar los impactos sociales de la tecnología. La gobernanza no es solo una cuestión técnica, sino también cultural y estratégica.
Existe una normativa europea muy criticada, pero que está aportando un framework útil para entender qué están pensando los reguladores cuando reflexionan sobre la inteligencia artificial y su impacto en la sociedad. Más allá de que guste más o menos, o de que haya que cumplirla por obligación legal, también sirve como marco de referencia.
Además, hay otros organismos que han trabajado mucho en este ámbito. Naciones Unidas tiene un documento muy relevante sobre gobernanza y ética en el uso de la IA. También el Instituto de Inteligencia Artificial de Stanford ha desarrollado frameworks de referencia.
Del mismo modo que en el ámbito empresarial existe BCorp como sistema de gobernanza, en el caso de la IA también hay marcos a los que una organización puede acogerse. Hay cuestiones técnicas como la trazabilidad, la explicabilidad o las métricas, pero en el fondo lo importante es tener un buen sistema de gobierno.
Y, para mí, todavía más importante es el propósito de querer hacerlo bien. No se trata solo de maximizar el retorno de la inversión o la eficiencia, sino de tener una voluntad real de usar la tecnología de forma responsable.
TOFF.- Qué significa para ti la IA humanista y cómo puede marcar la diferencia frente a una IA centrada únicamente en la eficiencia o el beneficio?
FP.- Para mí está muy relacionado con la idea de una empresa for profit que, aun teniendo ánimo de lucro, quiere generar un impacto positivo en la sociedad y en el planeta. Es parecido a lo que ocurre cuando una empresa decide certificarse como BCorp. No es un gesto simbólico: implica decisiones, costes y la necesidad de equilibrar intereses.
Al final no se trata de elegir entre beneficio o propósito, sino de encontrar un equilibrio. Ese compromiso puede tener un impacto negativo en la cuenta de resultados a corto plazo, pero con suerte generará un impacto positivo a largo plazo. Puede ser porque los consumidores te elijan frente a tus competidores o porque contribuyes a construir un entorno económico y social más saludable.
En ese sentido, la IA humanista consiste en entender que debe estar al servicio de las personas. Hoy por hoy seguimos siendo nosotros quienes estamos en control, y debemos asegurarnos de que la IA minimice el daño, especialmente el daño permanente.
La IA no tiene valores propios. Los valores los diseñamos e incorporamos nosotros. Si decides que tus valores son maximizar la eficiencia a cualquier precio, entonces ese será el resultado.

TOFF.- ¿Crees realmente que la IA reemplazará trabajos o más bien transformará roles y potenciará habilidades humanas?
FP.- Es una de esas preguntas en las que es muy difícil tener una respuesta definitiva. Si me lo hubieras preguntado hace dos o tres años, cuando empezábamos a hablar de estos temas con más intensidad, probablemente habría dado una opinión más contundente.
Yo escribo una newsletter sobre inteligencia artificial aplicada al marketing y a la comunicación, y durante mucho tiempo defendíamos la idea de que la IA sustituye tareas, no personas. Sin embargo, hoy el debate es mucho más abierto. Hay economistas que creen que el impacto puede ser muy negativo en términos de empleo y otros que consideran que el aumento de productividad será limitado.
En realidad, casi solo caben dos posturas vitales: el optimismo o el pesimismo.
El argumento optimista es que todas las revoluciones tecnológicas anteriores han terminado generando más riqueza y, con el tiempo, también más empleo. Eso no significa que no haya sufrimiento en el proceso. Siempre lo ha habido. Pero hoy contamos con redes de protección social mucho más desarrolladas que hace cien años.
Por tanto, aunque algunas profesiones puedan verse afectadas, el reto será minimizar el impacto negativo en las personas que se vean desplazadas. La esperanza es que, como en otras revoluciones tecnológicas, el balance final sea positivo en términos de prosperidad.
Existe también la postura contraria, que sostiene que esta tecnología es distinta a todas las anteriores. Algunos la describen como una inteligencia completamente nueva, casi como una nueva especie en el mismo planeta. Si eso fuera cierto, podría llegar a sustituir muchos trabajos basados únicamente en tareas intelectuales.
Mi intuición personal es que, incluso si ese escenario fuera posible, tardaría mucho más tiempo del que imaginamos. Podríamos estar hablando de 20 o 30 años. Ese tiempo permitiría a la sociedad adaptarse, redefinir sistemas de redistribución de riqueza y reorganizar el mercado laboral.
La gran incógnita, en realidad, no es solo económica. La pregunta más profunda es qué ocurre con el ser humano si llega un momento en el que ya no necesita trabajar para vivir. Esa es una cuestión cultural, psicológica y social mucho más compleja.
Además, solemos olvidar que gran parte del trabajo en el mundo sigue siendo manual. Cuando hablamos de sustitución laboral solemos pensar en trabajos intelectuales, pero la realidad es que la mayor parte del empleo global sigue estando en trabajos físicos. Para que eso cambie no solo se necesita inteligencia artificial, sino también robótica avanzada. Y ahí todavía queda mucho camino por recorrer.
TOFF.- ¿Qué no puede faltar en un proyecto de IA para que no se quede simplemente en una demostración o en una prueba piloto?
FP.- Yo distinguiría dos casos. El primero es el de una startup que quiere construir un negocio cuyo núcleo sea la inteligencia artificial. En ese caso hay que ser consciente de un riesgo importante: la mayoría de las startups no desarrollan los modelos de IA, sino que utilizan los de grandes compañías a través de API.
Eso significa que cada nueva actualización de un modelo puede dejar obsoleto un producto. De hecho, hay una frase bastante conocida en el sector: cada nueva versión de ChatGPT mata a miles de startups.
Esto ocurre porque muchas empresas construyen lo que se llama un wrapper: una capa de experiencia de usuario sobre un modelo existente. Mientras el proveedor del modelo no ofrezca esa funcionalidad directamente, el negocio funciona. Pero si decide integrarla, el producto puede desaparecer de un día para otro.
Dicho esto, también hay ejemplos de startups que generan valor sin tener su propio modelo.
En nuestro caso, por ejemplo, hemos desarrollado una herramienta llamada Rank AI que mide la visibilidad de las marcas en motores de búsqueda basados en modelos de lenguaje como Perplexity o ChatGPT. Es una aplicación de nicho que probablemente no desarrollarán las grandes tecnológicas porque está por encima de sus modelos.
El reto es encontrar ese espacio de valor. A veces la ventaja está en el mercado local, en el servicio o en el conocimiento del cliente. Es un modelo bastante clásico en el mundo de las startups.

TOFF.- ¿Cuál crees que ha sido hasta ahora la mayor transformación que ha logrado la inteligencia artificial?
FP.- Hay muchas transformaciones en curso, así que todavía es pronto para medir el impacto definitivo. Un ámbito evidente es la educación.
Cuando apareció ChatGPT, una de las primeras preocupaciones era que los estudiantes podían hacer los deberes con IA y dejar de aprender. Pero al mismo tiempo sabemos que un buen tutor individual mejora mucho los resultados académicos de un alumno.
La realidad es que la mayoría de los niños del mundo no tiene acceso a un tutor humano. En muchos lugares comparten profesor alumnos de diferentes edades y niveles. En ese contexto, los tutores basados en IA pueden tener un impacto enorme.
Por ejemplo, iniciativas como Khan Academy llevan años trabajando con modelos de OpenAI para desarrollar tutores educativos. Estudios impulsados por el Banco Mundial han mostrado mejoras en el rendimiento académico cuando estos sistemas se utilizan bajo supervisión de profesores humanos.
Otro ejemplo muy claro del impacto positivo de la IA está en la investigación científica. Demis Hassabis, fundador de DeepMind, utilizó técnicas desarrolladas para juegos como el Go para resolver uno de los grandes retos de la biología: la predicción del plegamiento de las proteínas.
Ese proyecto, conocido como AlphaFold, logró resolver un problema que llevaba décadas sin solución y liberó los resultados para la comunidad científica. Esto puede acelerar enormemente el desarrollo de nuevos medicamentos y tratamientos médicos.
Para mí ese tipo de avances muestran el enorme potencial positivo de la inteligencia artificial.
TOFF.- Eres miembro del jurado de los premios AI For Good. ¿Qué esperas encontrar en los proyectos que se presenten?
FP.- Me gustaría poder evaluar el impacto real de los proyectos. Es decir, que aborden problemas relevantes y que puedan demostrar, con métricas o con una simulación razonable, que su tecnología puede mejorar alguna situación concreta.
Si el proyecto está avanzado, lo ideal es ver datos que respalden ese impacto. Si está en una fase más inicial, entonces es importante que la propuesta sea creíble y emocionante, algo que nos haga pensar que merece la pena apostar por ella.
También valoraré la viabilidad y la escalabilidad. Un proyecto puede ser interesante, pero si no tiene capacidad de crecer o de aplicarse a gran escala, su impacto será limitado.
Y, por supuesto, que tenga en cuenta cuestiones éticas y de gestión de riesgos. No necesariamente eliminar todos los riesgos —eso es imposible—, pero sí demostrar que se han identificado y que existe una estrategia para minimizarlos.
TOFF.- Para finalizar, ¿qué consejo darías a alguien no familiarizado con la IA?
FP.- Siempre que hablo de estos temas con personas que no trabajan directamente con estas herramientas, suelo insistir en algo muy sencillo: hay que probarlas.
Es importante experimentar con ellas en profundidad. Existe mucha reticencia o rechazo inicial que a veces no es racional. Ese rechazo puede impedir que descubramos el potencial positivo de la tecnología.
También conviene reflexionar sobre las fuentes de información que consumimos. A menudo se nos presentan escenarios apocalípticos que generan miedo, cuando quizá estamos perdiendo oportunidades importantes.
No sabemos exactamente cómo evolucionará todo esto, pero lo que sí sabemos es que la tecnología siempre abre nuevas posibilidades. Y merece la pena explorarlas con una actitud crítica, pero también abierta.
