La creciente implementación de sistemas de inteligencia artificial autónoma plantea nuevas exigencias legales en materia de protección de datos. Una de las más destacadas es la obligación de contar con un Delegado de Protección de Datos humano. A continuación, se detallan siete supuestos legales que motivan esta obligación.
Supervisión independiente obligatoria (Artículo 37 RGPD)
El RGPD exige que ciertas organizaciones designen un DPO para supervisar de forma independiente el cumplimiento normativo. Este rol no puede delegarse a sistemas automatizados, ya que debe actuar con juicio humano y libre de conflicto de intereses.
Un DPO humano evalúa, desde la lógica jurídica y ética, decisiones de tratamiento de datos personales, especialmente cuando se utilizan algoritmos complejos que pueden tener consecuencias significativas. Esta supervisión requiere interpretación contextual, que las IA no pueden realizar con la independencia exigida por la norma.
Derechos humanos y garantía de imparcialidad (Artículo 22 RGPD y Artículo 4 AI Act)
Cuando una empresa usa IA para tomar decisiones automatizadas con efectos legales o similares sobre personas, el RGPD exige que exista intervención humana significativa. Esto incluye la revisión por parte de un DPO capacitado.
La IA autónoma carece de la capacidad crítica para considerar factores morales, sociales o emocionales. Por tanto, un DPO humano debe asegurar que las decisiones automatizadas respeten los derechos fundamentales, especialmente el derecho a no ser evaluado exclusivamente por decisiones algorítmicas.
Responsabilidad legal directa (Artículo 39 RGPD y Art. 29 LOPDGDD)
El DPO es responsable de informar y asesorar al responsable del tratamiento y supervisar el cumplimiento del RGPD. Esta responsabilidad legal no puede recaer en una IA, ya que sólo las personas físicas o jurídicas pueden asumir consecuencias jurídicas.
La LOPDGDD refuerza esta exigencia al establecer que el DPO debe tener conocimientos especializados en derecho y protección de datos. Las IAs actuales no poseen personalidad jurídica ni la capacidad para asumir funciones reguladas legalmente por el derecho humano positivo.
Evaluaciones de impacto (Artículo 35 RGPD y Artículo 27 AI Act)
Los tratamientos de datos con alto riesgo, como los sistemas de IA autónoma, requieren una Evaluación de Impacto en la Protección de Datos (EIPD). Esta debe ser validada o supervisada por el DPO.
Según el AI Act, los sistemas de IA de alto riesgo deben estar sujetos a medidas de mitigación técnica y organizativa. Solo un DPO humano puede valorar adecuadamente el equilibrio entre riesgo y proporcionalidad, considerando factores éticos y regulatorios.
Salvaguarda del consentimiento válido (Artículos 6 y 7 RGPD)
Para que el consentimiento sea legalmente válido, debe ser informado, específico, libre y revocable. Las empresas que usan IA deben garantizar que los usuarios comprendan los tratamientos automatizados implicados.
Un DPO humano es crucial para verificar que los mecanismos de obtención de consentimiento sean transparentes y comprensibles. Las IAs no pueden evaluar si un consentimiento responde a un entendimiento real y no inducido, algo esencial en el ecosistema digital actual.
Canal humano de comunicación y reclamación (Artículo 38.4 RGPD y Artículo 68 AI Act)
El RGPD garantiza que los interesados puedan contactar directamente con el DPO en relación con el tratamiento de sus datos. Además, el AI Act exige vías de comunicación humanas accesibles para usuarios afectados por sistemas automatizados.
Esta función de interlocución directa requiere empatía, escucha activa y capacidad de respuesta jurídica, elementos que no pueden ser reemplazados por una IA. El DPO humano actúa como punto de contacto indispensable para la defensa efectiva de los derechos.
Salvaguarda ética y principios del AI Act (Artículos 5 y 9 AI Act)
El AI Act establece principios de diseño responsable, transparencia, trazabilidad y supervisión humana de los sistemas de IA. Exige que los sistemas de alto riesgo estén sujetos a control humano en todo su ciclo de vida.
El DPO humano cumple un papel central en la implementación de estos principios, asegurando que la IA no se convierta en una caja negra. Su labor preventiva y correctiva es esencial para evitar sesgos, opacidad o usos abusivos de la inteligencia artificial autónoma.En conclusión, la obligatoriedad de un DPO humano en entornos con IA autónoma garantiza el cumplimiento normativo, la protección de derechos fundamentales y la supervisión ética. Ni la responsabilidad legal ni el juicio contextual pueden ser delegados a sistemas automatizados. El factor humano es imprescindible para una gobernanza transparente, justa y conforme al marco legal europeo.