Con la nueva ley de inteligencia artificial (IA) de la Unión Europea (UE) como telón de fondo, DIRIGENTES ha charlado con Victoria Corral, Strategic Growth Lead en Solver IA, para profundizar en los retos a los que se enfrenta esta tecnología. Para la experta, un gran desafío pasa por aglutinar todas las sensibilidades existentes, así como armonizar las legislaciones de los diferentes países.
En 2023 se produjo un impulso en la aplicación de la IA en el tejido empresarial. Las grandes corporaciones ya la han incluido en sus planes estratégicos y cada vez más pymes se suman a esta tendencia. De hecho, a la hora de analizar el territorio nacional, el desarrollo de esta tecnología suele estar “muy vinculado con aquellas zonas donde se concentran las grandes compañías con mayor capacidad de inversión”. No obstante, Corral también destaca la presencia de otros hubs tecnológicos como Valencia o Málaga.
El planteamiento de la ley de IA de la Unión Europea está estructurado en dos objetivos: garantizar que los sistemas de IA que se implementen sean seguros y respeten los derechos de los ciudadanos y que se estimule la inversión e innovación de esta tecnología. ¿Qué opinan desde Solver IA de esta normativa?
La IA es una tecnología que, sin duda, logrará cambios relevantes en la forma de operar de muchas empresas y habilitará posibilidades nuevas que afectarán a las personas como ciudadanos y consumidores. Como cualquier otra tecnología deberá estar sometida a los límites que nos hemos marcado como sociedad en términos de derechos humanos y dinámicas democráticas.
En este sentido, la ley de la UE es un paso en esta dirección. Sin embargo, hay dos aspectos que creo son aún más relevantes que la propia legislación. Por un lado, impulsar un debate que es extremadamente complejo, porque es una conversación global, es crucial y solo logrará el efecto deseado si se llega a amplios acuerdos. Muchos de los riesgos de la IA están vinculados a las prácticas de las grandes empresas tecnológicas y las fuerzas del mercado más que a la propia tecnología en sí. Por ello, uno de los aspectos clave es la opacidad sobre el funcionamiento interno de los modelos de IA que cada vez es más habitual.
Por otra parte, la velocidad a la que se está desarrollando la tecnología hace que no se entiendan actualmente los potenciales riesgos futuros. Por este motivo, es importante crear organismos, observatorios que tengan la capacidad de identificar dichos riesgos, realizar recomendaciones y que existan mecanismos legislativos ágiles que permitan modificar las leyes para minimizar los riesgos y no entorpecer la innovación.

