Isabel Fernández, responsable de IA de Babel Isabel Fernández, responsable de IA de Babel

Isabel Fernández: «La regulación de la IA debe dedicarse a los casos de uso»

Isabel Fernández sitúa la inteligencia artificial más allá de la tecnología y pone el acento en el dato y el rediseño de procesos.
Isabel Fernández, responsable de IA de Babel :: Isabel Fernández

La inteligencia artificial ya no se discute como tendencia, sino como infraestructura estratégica.

Isabel Fernández, directora de Tecnologías Exponenciales de Babel, pone el foco en lo que realmente separa los proyectos que escalan de los que se quedan en piloto: el propósito, la calidad del dato y un modelo de gobierno claro que acompañe a la tecnología.

Como miembro del jurado de los premios AI For Good 2026, la directiva apuesta por la escalabilidad del proyecto.

TOFF.- Llevas mucho tiempo trabajando en el campo de la inteligencia artificial. ¿Recuerdas el momento en el que dijiste: esto ya va a tener un impacto real en las personas, esto ya no va de experimentos?

IF.- Cuando hablamos ahora de IA, lo asociamos mucho a la IA generativa. Si hablamos de ella, tengo que referirme a 2022, cuando arrancó la distribución a escala de ChatGPT a precios razonables.

Pero si vamos más allá de la ola actual y hablamos de IA en general, esto es imparable desde el 98 o 99. Son otras mutaciones de la IA que llevan mucho tiempo con nosotros y han sido más invisibles.

Te damos More

Si te está gustando este contenido elaborado y te cuadra nuestro magazine, tenemos nuestro more.

¡Suscríbete! Te pondremos en tu correo contenidos exclusivos, análisis y reviews, charlas con expertos, podcasts, planes, regalos y utilidades.

Suscribirme

Por ejemplo, los filtros de tu teléfono, el enfoque automático, los modelos predictivos para procesos de control automático en la industria: plantas térmicas, cementeras, procesos de fabricación. Luego llegó el computer vision a escala para detectar defectos en piezas. Todo eso lo llamamos ahora machine learning, pero era aprendizaje automático a escala.

Eso vino para quedarse desde finales de los 90. Otra cosa es que afectara al usuario final sin que este lo supiera. Antes éramos sujetos pasivos. Ahora somos usuarios activos de la inteligencia artificial.

TOFF.- En los últimos años hablamos mucho de IA responsable, pero menos de cómo implementarla. ¿Qué prácticas crees que son irrenunciables en cualquier proyecto que aspire a tener impacto?

IF.- Más que hablar de buenas prácticas, hablaría de la dificultad de mantener el equilibrio entre no frenar la innovación —porque sería un error— y proteger el impacto.

Una de las cosas que ha llegado más despacio de lo deseable, pero que es crítica, es la normativa europea, el EU AI Act, ya de obligado cumplimiento. Lo primero que hace es definir cuatro niveles de riesgo. La regulación depende de ese nivel.

Isabel Fernández :: Isabel Fernández

Eso permite proteger especialmente lo que tiene impacto real. No es lo mismo usar Google Maps como usuario individual, donde el peor escenario es llegar a una farmacia cerrada, que integrarlo en un sistema de conducción autónoma. Las exigencias son distintas.

¿Es un problema llegar a una farmacia cerrada? Sí. ¿Es un drama? No.
El mensaje es claro: hay que proteger lo que hay que proteger. Ahora hay escala. Hay sujetos pasivos y activos. La regulación debe aplicarse solo donde corresponde.

Un sistema que decide sobre prestaciones sociales tiene que tener procesos de validación. No es de alto riesgo vital, pero sí tiene un impacto social profundo. En cambio, si un chaval usa ChatGPT para resumir El Quijote y hay una alucinación, ahí entra su responsabilidad. Hay que dejar volar la innovación y proteger solo lo esencial.

TOFF.- ¿La regulación es necesaria pero hay usos que nunca podrá sustituir la IA como el criterio humano?

IF.- El juicio humano. Yo añadiría un matiz: el juicio en la clasificación del riesgo. Hay sistemas 100% automáticos. El juicio humano llega hasta definir el nivel de riesgo; luego el sistema opera solo.

Por ejemplo, un regulador PID en una planta térmica funciona de forma automática. El juicio humano tiene que estar antes. Ese sistema controla gasómetros con miles de litros de gas licuado, y no explotan porque la clasificación y el diseño son correctos.

En los sujetos activos sí necesitamos juicio humano y pensamiento crítico.

TOFF.- ¿Y qué prácticas son irrenunciables si una empresa empieza un proyecto desde cero?

IF.- Te doy tres tips de obligado cumplimiento para cualquier industria o tamaño.

La primera es el dato: el dato tiene que estar muy bien curado y, si no tiene calidad, hay que arreglarlo antes de seguir construyendo.

La segunda es que no hay que coger el mismo proceso antiguo y pegarle la IA; hay que rediseñar el proceso, porque la tecnología es un habilitador para hacer las cosas de forma distinta.

Y la tercera es el modelo de gobierno: hay que pensar cómo se gestionará la precisión y la evolución del modelo ante cambios externos de tendencias o cambios internos en la calidad de los datos.

Isabel Fernández es experta en IA :: Isabel Fernández

TOFF.- ¿Cuáles son los principales errores que cometen las organizaciones?

IF.- Más que errores, son aprendizajes a medida que hacemos escala. El primero es no arrancar pensando en el «para qué» antes de elegir la tecnología. El «para qué» define los KPI y eso nos da el margen máximo de inversión.

Si no, podemos caer en la belleza de la tecnología y comprar un Aston Martin cuando solo necesitabas un ciclomotor. Hay que entender el «para qué» y, a partir de ahí, viene la tecnología adecuada.

TOFF.- ¿Crees que corremos el riesgo de hiperregular para curarnos en salud?

IF.- La regulación debe dedicarse al caso de uso, porque así la tecnología es irrelevante y proteges a las personas.

Observo una sobreregulación por falta de convergencia: tenemos DORA para resiliencia, NIS 2 para ciberseguridad y el EU AI Act para datos e IA. Existe mucha redundancia y solapamiento, lo que llamamos el fenómeno de hipercompliance.

TOFF.- ¿Qué diferencia un proyecto que se queda en piloto de uno escalable?

IF.- El «para qué» permite dimensionar la inversión. No es malo que existan pilotos para experimentar, pero el «para qué» ayuda a tomar decisiones tempranas.

Por ejemplo, si el objetivo es liberar un 10% de la ocupación de la plantilla, hay que tener preparados programas de reskilling para saber a qué dedicarán ese tiempo, para no perder el know-how ni despedir a nadie.

TOFF.- ¿Hay brecha entre el discurso público y la realidad de los proyectos?

IF.- Existe un discurso basado en lo que ya está ocurriendo y en evidencias, que a veces convive con el fracaso de quienes lo intentaron sin éxito por un tema de aprendizaje.

También convive el discurso de lo que la IA puede hacer por la sociedad con la evidencia de que un mal uso puede perjudicarla; esto ha existido desde que inventamos el fuego, que servía para iluminar pero también para matar.
Lo que importa es que la regulación se aplique de manera implacable a quienes la incumplen.

TOFF.- ¿Se está colaborando activamente entre empresas y administraciones?

IF.- No hay ninguna reticencia, pero no es fácil encontrar espacios porque cada uno tiene su propia agenda. La administración pública tiene programas para crear esos espacios; solo hace falta encontrar el tiempo para construir juntos. Caminamos en paralelo y hay que encontrar el punto de encuentro.

TOFF.- ¿Qué impacto tendrá la IA en el futuro de los proyectos sociales?

IF.- La IA generativa solo genera contenidos y es una pieza de un puzzle más grande. En teleasistencia, lo que importa es la telemetría y los sensores remotos; la IA generativa solo hace que el acompañamiento sea más amigable y humano.

El conjunto de las IAs nos permitirá tomar mejores decisiones a escala y ofrecer servicios de «ventanilla 24×7». Esto permitirá que los funcionarios se dediquen a tareas de mayor valor en horarios conciliados.

Los actuales chatbots «tontuelos» se transformarán en agentes inteligentes capaces de resolver asuntos complejos en cualquier momento. La IA generativa aporta personalización, acompañamiento y anticipación gracias al uso de contextos.

TOFF.- ¿Es la IA una moda?

IF.- En 2025 se acabaron las discusiones; ya no es una moda, es un hecho imparable con adopción a escala en todos los niveles, desde el puesto de usuario hasta la automatización de procesos.

TOFF.- Como jurado de los premios AI For Good 2026, ¿qué buscas en los proyectos?

IF.- La escala. Voy a valorar la capacidad de escala, porque el volumen aquí sí importa para tener impacto social. Mi consejo para los equipos es que no se dejen cegar por la belleza de la tecnología y se enfoquen en el «para qué», en qué van a obtener las personas.

Add a comment

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

PUBLICIDAD