José María Palomares: «Cuando la IA se integra con propósito se percibe como una aliada»

La IA exige un liderazgo sereno, humano y transparente, según José María Palomares, vicepresidente de Foro IA.
José María Palomares, vicepresidente de Foro IA José María Palomares, vicepresidente de Foro IA
José María Palomares, vicepresidente de Foro IA :: Foro IA

José María Palomares, vicepresidente de Foro IA y jurado de los AI for Good Awards 2026, analiza las claves del liderazgo en plena adopción de la inteligencia artificial.

Explica cómo la serenidad, la transparencia y el foco en las personas se han convertido en factores determinantes para que la tecnología genere confianza y resultados en las organizaciones.

TOFF.- Defiendes la necesidad de «serenidad» para liderar en tiempos de inteligencia artificial. ¿Qué significa exactamente eso en un contexto tan acelerado y cambiante?

JMP.- Para mí, liderar con serenidad implica aportar lucidez. El contexto actual nos ofrece tantas razones para el desasosiego que es momento para un liderazgo que sea capaz de sostener la incertidumbre sin multiplicar el miedo, de modular la hiperactividad y la hiperaceleración para hacerse preguntas importantes. ¿Para qué queremos esta tecnología? ¿Qué impacto queremos que tenga en las personas? ¿Qué tipo de organización y de cultura estamos construyendo?

PUBLICIDAD

Serenidad es no dejarse arrastrar ni por el catastrofismo ni por el optimismo ingenuo. Es más bien encontrar el equilibrio que nos permita decidir con criterio. Al final, la serenidad del líder se convierte en un regulador emocional del equipo. Si el líder para, escucha y reflexiona, la organización encuentra un ritmo más humano y sostenible.

TOFF.- Has hablado de una tensión entre dos inteligencias: la humana y la artificial. ¿Cómo puede un líder transformar esa tensión en cooperación productiva en lugar de competencia destructiva?

JMP.- Cambiando el relato. Si el discurso se formula en términos de sustitución («la máquina contra ti») se produce una dinámica destructiva. Hay que plantearlo en términos de ampliación de capacidades humanas. En el Foro IA nos gusta mucho hablar de «humanidad aumentada». Luego, hay que hacer realidad el relato, claro.

Por ejemplo, codiseñando los casos de usos con las personas que van a utilizarla, haciéndoles partícipes y explicando con claridad qué vamos a hacer, qué tiempo y qué talento vamos a liberar para qué. Cuando la IA se integra con propósito se percibe como una aliada. No se trata, por tanto, de competir con la máquina en lo que hace mejor, sino de reforzar lo que solo nosotros podemos aportar: criterio, empatía, contexto, sentido…

TOFF.- El miedo aparece como un actor silencioso en la adopción de la IA. ¿Cómo deberían las organizaciones abordar ese miedo para evitar que bloquee la innovación y la confianza?

JMP.- Lo primero, haciéndolo visible, poniéndole nombre. Hacerlo legítimo y conversable. Si se silencia, se acaba generando una resistencia pasiva y se desata la rumorología y la desconfianza. Las organizaciones deben crear espacios de conversación y de aprendizaje colaborativo donde las personas puedan expresar sus dudas y recibir respuestas honestas, no mensajes tranquilizadores vacíos.

Luego, claro, hay que comprometerse con la empleabilidad: si vas a introducir la IA, invierte en formación, reskilling, upskilling y, sobre todo, en acompañamiento a tus profesionales. Y un elemento más: hay que impulsar el bienestar. El miedo se reduce cuando las personas ven que la tecnología se está utilizando para cuidar más y mejor, no para exprimir más.

José María Palomares durante una conferencia
José María Palomares durante una conferencia :: JM Palomares

TOFF.- Hablas del riesgo de convertir la IA en una caja negra ¿Qué prácticas concretas pueden implementar las empresas para garantizar transparencia y comprensión por parte de los equipos?

JMP.- Necesitamos hacerla comprensible. En la práctica, esto supone explicar en lenguaje sencillo qué hace cada sistema, con qué datos trabajo, qué decisiones apoya, cuáles son sus límites y quién se responsabiliza del proceso.

Además, hay que implicar a las personas en el diseño, en las decisiones y en pilotos donde puedan probar, preguntar, equivocarse y dar feedback antes de escalar. Y, muy importante, se necesita acompañamiento en dos niveles: desde la formación y, sobre todo, desde el liderazgo.

TOFF.- Defiendes un liderazgo que no delega en la máquina lo que es estrictamente humano: escuchar, acompañar, decidir con criterio. ¿Qué habilidades humanas crees que serán más críticas en la próxima década?

JMP.- No soy especialmente hábil a la hora de hacer predicciones, la verdad. Pero el sentido común me dice que la ventaja diferencial estará en impulsar lo que la máquina no puede imitar: el autoconocimiento, la capacidad de sostener conversaciones difíciles, la empatía real, el juicio ético y la visión a largo plazo.

Todo esto es especialmente relevante en el ejercicio del liderazgo. El líder necesita (y necesitará) entender bien su propio propósito para no delegar su responsabilidad en unos cuantos indicadores.

Necesita aprender a escuchar de verdad a sus equipos, a leer el clima emocional, a integrar distintas perspectivas y a decir no a determinadas aplicaciones de la IA que vayan contra la dignidad de las personas o el propósito de la organización. Por ello, creo que el pensamiento crítico y el coraje serán las dos habilidades críticas más relevantes.

TOFF.- ¿Cuáles son los errores más comunes que cometen las organizaciones al integrar IA desde la perspectiva del bienestar laboral?

El más importante es pensar que el bienestar vendrá dado si la productividad mejora. Esto no funciona así. Introducir la IA sin rediseñar cargas de trabajo, procesos, tiempos, expectativas, etc. Suele acabar en más presión, más urgencias e, incluso, en más sensación de vigilancia.

Por otra parte, otro error habitual es no medir el impacto emocional. Si se incorporan casos de uso muy invasivos o poco transparentes, el impacto en la confianza va a ser demoledor.

Por último, me gustaría destacar el papel de los mandos intermedios. Antes explicaba que los líderes tienen un papel fundamental en el acompañamiento de los equipos. Para que puedan ejercer ese rol, ellos también tienen que sentirse acompañados. No olvidemos que les estamos pidiendo combinar la atención al negocio con el cuidado de las personas en un contexto que cada vez es más complejo.

José María Palomares
José María Palomares defiende la necesidad de medir el impacto :: JM Palomares

TOFF.- Propones tres pilares clave —cultura, diseño e intención— para que la IA genere impacto positivo. ¿Cuál de ellos consideras más desafiante y por qué?

La cultura, sin duda. Es lo más invisible y lo que menos se cambiar con un PowerPoint. Puedes montar procesos impecables y tener la mejor intención del mundo, pero si la cultura sigue midiendo sólo la productividad a corto plazo, vamos mal.

Cambiar la cultura significa revisar qué se premia, qué se tolera y qué no, qué se celebra y qué se considera un éxito. Supone pasar de una lógica de control a una de confianza. Y eso no se improvisa. Requiere tiempo, coherencia y un liderazgo que predique con el ejemplo.

TOFF.- Hablas de «humanidad aumentada» como horizonte deseable. ¿Cuáles serían, en tu opinión, señales claras de que una organización está avanzando hacia ese modelo y no hacia uno de sustitución?

JMP.- Cuando las personas sienten que tienen más capacidad de decisión, disponen de más tiempo para pensar, crear, aprender y relacionarse, porque la IA se encarga de las tareas más repetitivas o de menor valor humano. También cuando se observa que los indicadores de bienestar (por ejemplo, sentido de pertenencia, salud mental, compromiso…) mejoran.

Y, por supuesto, cuando se dice no a proyectos de IA que chocan con los valores de la organización, cuando se habla abiertamente de dilemas éticos, cuando los equipos conocen y entienden las herramientas…

TOFF.- En tu visión, la gobernanza de la IA es un elemento central. ¿Qué estructura mínima debería tener una empresa para garantizar una gobernanza ética y efectiva de la inteligencia artificial?

JMP.- Cada organización es diferente, pero, como criterio general, yo diría que siempre debería contar con un órgano transversal de gobernanza de IA donde estén representados negocio, personas, tecnología y, si es posible, una mirada ética independiente.

Ese órgano debe definir criterios, qué casos de uso se priorizas, cuáles son los límites éticos, cómo se evalúan los riesgos y cómo se mide el impacto en personas y reputación. Idealmente, esta gobernanza debe llegar hasta el máximo nivel de la organización: los consejos de administración necesitan capacidades para hacer las preguntas adecuadas y supervisar esta materia como un tema estratégico, no sólo técnico.

TOFF.- Has comentado que la pregunta no es si la tecnología está lista para nosotros, sino si nosotros estamos preparados para el liderazgo que exige. ¿Qué cualidades personales debería cultivar un líder para estar realmente preparado para esta nueva era?

JMP.- Necesitamos hoy más que nunca un liderazgo profundamente humano que actúe desde la humildad reconociendo que no tenemos todas las repuestas y que estamos en modo aprendizaje constante. Necesitamos líderes curiosos e íntegros que exploren las posibilidades de la tecnología sin miedo, sin ingenuidad y con coraje para poner límites.

Y, por supuesto, necesitamos líderes que actúen con serenidad para sostener la complejidad y el ruido sin caer en la reacción impulsiva. Si algo nos recuerda la IA es que podemos automatizar muchas cosas, pero no el sentido. Y ese es precisamente el trabajo del líder: mantener la brújula del propósito orientada, regenerar la confianza, fomentar las conversaciones y decidir, una y otra vez, a favor de la dignidad humana.

Add a comment

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

PUBLICIDAD