StopNCII: así funciona la IA que elimina deepfakes íntimos

StopNCII frena el abuso de imágenes íntimas mediante una huella digital que bloquea el contenido viral sin subir tus fotos.
Mark Zuckerberg, CEO de Meta Mark Zuckerberg, CEO de Meta
Mark Zuckerberg, CEO de Meta

«Ponle ropa más ajustada» o «quítale la chaqueta». Estos prompts que circulan por redes sociales como X ilustran la facilidad con la que hoy se generan imágenes íntimas no consentidas. Herramientas como «Grok» han democratizado la creación de material falso, incluyendo casos graves de abuso sexual infantil.

Para combatir esta viralidad nociva nace «Stop Non-Consensual Intimate Image Abuse» («StopNCII»). Se trata de una utilidad gratuita impulsada por Meta en colaboración con la organización «SWGfL», diseñada para proteger a los usuarios sin comprometer su privacidad durante el proceso de denuncia.

Privacidad sin subir archivos

La gran innovación de «StopNCII» reside en su funcionamiento local. La herramienta genera un hash —una huella digital única— de las imágenes o vídeos seleccionados directamente en el dispositivo del usuario. No es necesario subir el material sensible a la nube, lo que garantiza que las fotos originales nunca salgan del control del propietario.

Una vez generado el código, la plataforma compara ese hash con las imágenes que circulan en las redes asociadas. Si detecta una coincidencia exacta de contenidos infractores, la fotografía se elimina automáticamente. Todo el sistema está operado por la «Revenge Porn Helpline», veteranos en el apoyo a víctimas desde 2015.

Requisitos y eficacia del bloqueo

El sistema ya ha demostrado su capacidad eliminando más de 200.000 materiales de contenido íntimo no consensuado. Para activar el protocolo, las imágenes deben ser falsas (modificadas), no consentidas y el usuario debe tener acceso al archivo original (o una versión del mismo) para generar la huella digital comparativa.

Te damos More

Si te está gustando este contenido elaborado y te cuadra nuestro magazine, tenemos nuestro more.

¡Suscríbete! Te pondremos en tu correo contenidos exclusivos, análisis y reviews, charlas con expertos, podcasts, planes, regalos y utilidades.

Suscribirme

La efectividad del bloqueo oscila entre tres y cinco días desde la denuncia. La plataforma admite formatos estándar como jpeg, png o mp4, y permite cargar hasta 20 hashes simultáneos. En casos de «sextorsión» por webcam, también es posible abrir una incidencia si se conservan capturas recortadas.

La manipulación de fotos no es un juego: conlleva delitos contra la intimidad, revelación de secretos y violencia sexual digital. La presión social ha llevado a la Unión Europea a exigir a X que conserve la documentación sobre la generación de imágenes, mientras países como Malasia han prohibido el uso de «Grok».

El propio Elon Musk ha tenido que reaccionar ante la polémica. Tras el auge de imágenes sexualizadas de menores generadas por su IA, anunció en enero el bloqueo de este tipo de contenidos en «Grok», endureciendo unas medidas que inicialmente solo se planteaban como restricciones para cuentas sin suscripción.

Precedentes en las aulas españolas

La problemática ha saltado al entorno educativo. En 2026 se investiga a alumnos de un instituto de La Rioja por difundir falsos desnudos de compañeras por WhatsApp. Un caso que resuena con la sentencia de 2024 en Almendralejo, donde 15 menores fueron condenados a libertad vigilada por hechos similares.

Las sanciones económicas también son una realidad. La «Agencia Española de Protección de Datos» (AEPD) impuso la primera multa europea de este tipo el año pasado: 1.200 euros a un menor por difundir deepfakes de una compañera. Actualmente, hay procesos abiertos incluso por creación de pornografía infantil con IA en Álava.

Add a comment

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

PUBLICIDAD