La creciente implementación de sistemas de inteligencia artificial autónoma plantea nuevas exigencias legales en materia de protección de datos. Una de las más destacadas es la obligación de contar con un Delegado de Protección de Datos humano. A continuación, se detallan siete supuestos legales que motivan esta obligación.
Supervisión independiente obligatoria (Artículo 37 RGPD)
El RGPD exige que ciertas organizaciones designen un DPO para supervisar de forma independiente el cumplimiento normativo. Este rol no puede delegarse a sistemas automatizados, ya que debe actuar con juicio humano y libre de conflicto de intereses.
Un DPO humano evalúa, desde la lógica jurídica y ética, decisiones de tratamiento de datos personales, especialmente cuando se utilizan algoritmos complejos que pueden tener consecuencias significativas. Esta supervisión requiere interpretación contextual, que las IA no pueden realizar con la independencia exigida por la norma.
Derechos humanos y garantía de imparcialidad (Artículo 22 RGPD y Artículo 4 AI Act)
Cuando una empresa usa IA para tomar decisiones automatizadas con efectos legales o similares sobre personas, el RGPD exige que exista intervención humana significativa. Esto incluye la revisión por parte de un DPO capacitado.
La IA autónoma carece de la capacidad crítica para considerar factores morales, sociales o emocionales. Por tanto, un DPO humano debe asegurar que las decisiones automatizadas respeten los derechos fundamentales, especialmente el derecho a no ser evaluado exclusivamente por decisiones algorítmicas.
