La Inteligencia Artificial se creó con el fin de complementar las capacidades del ser humano, no obstante, ya reemplaza muchas de las actividades desarrolladas por una persona. No es ninguna novedad que los procesos desarrollados por máquinas compartan cada vez más similitudes con el cerebro humano. Pero, ¿a dónde nos va a llevar esto?
Nos aproximamos a un futuro dibujado por la falta de claridad en determinados asuntos legales. Se habla de polémicas éticas en cuanto al uso de rasgos y características físicas para suplantar personalidades, como ha ocurrido en el caso de algunas celebridades. Recientemente, Scarlett Johanson ha sido víctima de uno de estos sucesos al rechazar una oferta por cuestiones personales, que le ofreció Openai para ser la voz del asistente de ChatGPT. Sin embargo, la empresa prosiguió a utilizar una voz extremadamente similar a la suya, lo cual llevó a que la actriz contratase asesoría legal para llevar el caso. Según el estudio realizado por ExpressVPN suplantar identidades con IA suscita a importantes preocupaciones éticas, que los marcos legales van a tener que abordar para proteger los derechos individuales.
Las estrellas de cine no son las únicas afectadas por la falta de transparencia en terrenos, todavía, pantanosos; como son en los que se encuentran actualmente la Inteligencia Artificial. Una extensa lista de trabajos podrían ser sustituidos por IA en un futuro, entre ellos, conductores reemplazados por vehículos autónomos, agricultores y obreros por maquinaria inteligente, o incluso trabajos que requieren cualidades más complejas como analistas financieros pueden llegar a ser sustituidos por sistemas capaces de realizar dichas funciones.
¿Cómo la IA está afectando a la integridad empresarial?
La falta de claridad en la automatización de algunos procesos dentro de las empresas es un problema que está siendo cada vez más común en el entorno laboral. Muchas empresas están adoptando sistemas automatizados e impulsados por logaritmos que tienen la capacidad de aprendizaje autónomo (machine learning) a partir de órdenes o sesgos. Aún así, pueden cometerse errores y repercutir en la actividad empresarial, lo cual lleva a replantearse algunas preguntas éticas y legales.
Si la máquina es programada para realizar ciertas funciones, como reclutar candidatos, y contiene sesgos inadvertidos que discriminan a postulantes totalmente válidos; ¿sería responsable la empresa desarrolladora del software o la utilizadora del software? ¿De quién son responsabilidad las decisiones opacas? ¿Se puede culpar únicamente al sistema automatizado?