Cuando la justicia falla: por qué las mujeres no pueden obtener protección frente a los deepfakes (ultrafalsos) generados por IA

En qué consiste el abuso mediante ultrafalsos y por qué las leyes, las plataformas y los sistemas de justicia están fallando a las mujeres

Basic Hero Banner

 

Los ultrafalsos que muestran imágenes sexuales constituyen en la actualidad la inmensa mayoría de los contenidos falsificados disponibles en Internet, y casi todas esas imágenes representan a mujeres. Las cifras son claras: el 98 por ciento de los vídeos falsos disponibles en línea se realizan a partir de imágenes pornográficas no consentidas, lo que a menudo se denomina desnudos ultrafalsos o imágenes de desnudos falsos.

Se despertó con el teléfono inundado de mensajes. Mientras dormía, se habían difundido imágenes manipuladas de ella, de carácter sexual, y se habían hecho virales.

Después, en el mundo real, escuchaba a la gente susurrar a su paso. En Internet, el abuso se disparó sin control: comentarios, burlas, imágenes compartidas, capturas de pantalla. Ella jamás había dado su consentimiento para nada de ello. Pero eso no detuvo a nadie.

En tan solo unos minutos, miles de personas habían visto el contenido. En unas horas, millones de personas.

La pesadilla apenas comenzaba.

Las plataformas tardaron días en responder. Para entonces, muchas personas habían visto, guardado y reproducido las imágenes. Ella se preguntaba: ¿A quién puedo denunciar esto? ¿Me creerá alguien? ¿Habrá alguna vez consecuencias para las personas que lo hicieron? ¿O me culparán exclusivamente a mí?

Esta es la realidad a la que se enfrentan miles de mujeres y niñas cada día. Los ultrafalsos generadas mediante inteligencia artificial (IA) están destruyendo vidas reales y la justicia sigue estando fuera del alcance de la mayoría de las supervivientes.

Su historia podría ser la tuya.

¿Qué son los ultrafalsos y qué tan frecuentes son las imágenes sexuales generadas de este modo?

Los ultrafalsos son imágenes, audios o vídeos manipulados por IA que muestran a personas diciendo o haciendo algo que jamás dijeron o hicieron. La tecnología que se utiliza para ello no es nueva. Sin embargo, su uso como arma contra mujeres y niñas sí es un fenómeno reciente, y se está acelerando con rapidez.

Un informe elaborado en 2023 puso de manifiesto que la pornografía basada en ultrafalsos representaba el 98 por ciento de los vídeos falsificados disponibles en línea, y el 99 por ciento de esos vídeos mostraban a mujeres. Se calcula que en 2023 el número de vídeos de este tipo habían aumentado un 550 por ciento respecto a 2019, y las herramientas que se emplean para crearlos son fáciles de conseguir, a menudo de forma gratuita, y requieren escasos conocimientos técnicos.

Una vez publicado, el contenido generado por IA puede reproducirse de forma indefinida, almacenarse en dispositivos privados y compartirse en todas las plataformas, por lo que resulta prácticamente imposible eliminarlo.

Examinemos un caso famoso reciente. En diciembre de 2025, la periodista británica Daisy Dixon descubrió en X imágenes sexualizadas de ella, generadas por IA utilizando Grok, la propia herramienta de IA de X. La plataforma tardó días en geobloquear la función, mientras las imágenes manipuladas seguían difundiéndose.

El uso de ultrafalsos en línea puede servir como detonante de los denominados “delitos relacionados con el honor” en determinados contextos culturales. Ahí, lo que se percibe como un incumplimiento de las normas que rigen el honor en las plataformas digitales puede dar lugar a violencia física extrema contra las mujeres, o incluso la muerte.

Según una investigación reciente, más de la mitad de las víctimas de ultrafalsos en los Estados Unidos contemplaron la posibilidad de suicidarse. No es un problema marginal de Internet. Representa una crisis mundial.

De la crisis a la acción: próximos pasos

El maltrato cometido mediante ultrafalsos es una acción humana: estas falsificaciones están generadas por herramientas de IA a petición de las personas que las manejan. Sin embargo, no es inevitable ni imparable. Para detenerlo, se requiere una acción urgente y coordinada por parte de los Gobiernos, las instituciones y las plataformas tecnológicas. A continuación se exponen los próximos pasos que deben darse.

1. Las leyes deben contemplar el maltrato cometido a través de ultrafalsos.

Los Gobiernos deben aprobar leyes que contengan definiciones claras del abuso generado por IA y se centren en el consentimiento, la responsabilidad estricta de las y los agresores, la imposición de obligaciones de retiro rápido a las plataformas y el establecimiento de protocolos transfronterizos para la ejecución de las leyes, porque estos abusos no respetan las fronteras nacionales.

2. Los sistemas de justicia deben tener capacidad para investigar y enjuiciar.

Los organismos encargados de hacer cumplir la ley necesitan capacitación, recursos y una facultad específica para recopilar y conservar pruebas digitales. Es preciso abordar los retrasos en la investigación forense digital, y los marcos de cooperación internacional deben ser ágiles, funcionales y adecuados para el fin perseguido.

3. Se debe exigir responsabilidades a las plataformas.

Las leyes deben exigir a las empresas tecnológicas vigilar y eliminar de manera proactiva los contenidos abusivos en plazos determinados y cooperar con los organismos encargados de hacer cumplir la ley, de forma que se enfrenten a consecuencias económicas reales si no responden. La autorregulación no ha funcionado.

4. Se debe proporcionar un apoyo real a las supervivientes.

La norma debe incluir profesionales capacitados y con conocimientos sobre traumas en los ámbitos policial y jurídico, así como asistencia jurídica gratuita, de forma que los procesos de denuncia no revictimicen a las personas a las que pretenden ayudar y el acceso a la justicia no conlleve unos costos inasumibles. Un sistema de justicia adecuadamente coordinado es aquel en el que la dversidad de agentes conecta a las supervivientes con los servicios que necesiten.

5. Los abusos deben prevenirse desde la educación.

La alfabetización digital —incluida la educación referente al consentimiento, la seguridad en Internet y qué hacer en caso de sufrir abusos— debe comenzar a una edad temprana y llegar a todas las personas. La prevención es tan importante como el enjuiciamiento.

El maltrato mediante ultrafalsos es la punta del iceberg de un patrón mucho más extenso de violencia digital contra las mujeres y niñas. Un patrón que está aumentando y presenta sesgo de género. Hoy día, los sistemas diseñados para proteger a las personas están fallando, mientras las herramientas para causar daño son cada día más baratas, más rápidas y más fáciles de utilizar.

Eso tiene que cambiar. Y tiene que cambiar ya.

Lo que puedes hacer por los derechos, la justicia y la acción.

La justicia no surge por casualidad. Se construye y debe financiarse.

Únase y apoye a ONU Mujeres en este Día Internacional de la Mujer, mientras seguimos respaldando los movimientos de mujeres en todo el mundo y colaborando con los gobiernos que apuestan por la igualdad.

Más información

Buscar justicia y encontrar más daño: por qué las supervivientes no denuncian y qué les ocurre cuando lo hacen

Para las supervivientes que deciden dar un paso hacia adelante, el sistema judicial suele convertirse en otra fuente de traumas.

Se les pide reiteradamente que vean y describan el contenido abusivo ante la policía, el personal de defensa y quienes moderan las plataformas. Se enfrentan a preguntas del tipo “¿está segura de que estas imágenes no son reales?” o “¿había compartido antes imágenes íntimas?”.

Si un caso llega a los tribunales, se analiza con microscopio su forma de vestir, sus relaciones y sus comportamientos pasados, no los de sus agresores.

Y el daño no se limita al mundo virtual. En una encuesta realizada por ONU Mujeres, el 41 por ciento de las mujeres involucradas en la vida pública que experimentaron violencia digital afirmaron también que se enfrentaban a ataques o a acoso vinculados con ella en el mundo real. El maltrato perpetrado mediante ultrafalsos se extiende a todos los ámbitos de la vida de las víctimas.

Reimaginar la justicia: ¿qué necesitan realmente las supervivientes?

Las supervivientes del maltrato cometido mediante ultrafalsos no piden simpatía. Piden un sistema que imparta justicia y evite el maltrato.

Eso significa que les crean.

Significa tener acceso a una justicia en la que sus agresores se enfrenten a consecuencias reales.

Significa tener apoyo para recuperarse del daño, que es real, duradero y devastador.

Y significa contar con plataformas y Gobiernos que actúen para prevenir futuros abusos, no solo responder una vez que el daño ya está hecho.

De la crisis a la acción: próximos pasos

El maltrato cometido mediante ultrafalsos es una acción humana: estas falsificaciones están generadas por herramientas de IA a petición de las personas que las manejan. Sin embargo, no es inevitable ni imparable. Para detenerlo, se requiere una acción urgente y coordinada por parte de los Gobiernos, las instituciones y las plataformas tecnológicas. A continuación se exponen los próximos pasos que deben darse.

1. Las leyes deben contemplar el maltrato cometido a través de ultrafalsos.

Los Gobiernos deben aprobar leyes que contengan definiciones claras del abuso generado por IA y se centren en el consentimiento, la responsabilidad estricta de las y los agresores, la imposición de obligaciones de retiro rápido a las plataformas y el establecimiento de protocolos transfronterizos para la ejecución de las leyes, porque estos abusos no respetan las fronteras nacionales.

2. Los sistemas de justicia deben tener capacidad para investigar y enjuiciar.

Los organismos encargados de hacer cumplir la ley necesitan capacitación, recursos y una facultad específica para recopilar y conservar pruebas digitales. Es preciso abordar los retrasos en la investigación forense digital, y los marcos de cooperación internacional deben ser ágiles, funcionales y adecuados para el fin perseguido.

3. Se debe exigir responsabilidades a las plataformas.

Las leyes deben exigir a las empresas tecnológicas vigilar y eliminar de manera proactiva los contenidos abusivos en plazos determinados y cooperar con los organismos encargados de hacer cumplir la ley, de forma que se enfrenten a consecuencias económicas reales si no responden. La autorregulación no ha funcionado.

4. Se debe proporcionar un apoyo real a las supervivientes.

La norma debe incluir profesionales capacitados y con conocimientos sobre traumas en los ámbitos policial y jurídico, así como asistencia jurídica gratuita, de forma que los procesos de denuncia no revictimicen a las personas a las que pretenden ayudar y el acceso a la justicia no conlleve unos costos inasumibles. Un sistema de justicia adecuadamente coordinado es aquel en el que la dversidad de agentes conecta a las supervivientes con los servicios que necesiten.

5. Los abusos deben prevenirse desde la educación.

La alfabetización digital —incluida la educación referente al consentimiento, la seguridad en Internet y qué hacer en caso de sufrir abusos— debe comenzar a una edad temprana y llegar a todas las personas. La prevención es tan importante como el enjuiciamiento.

El maltrato mediante ultrafalsos es la punta del iceberg de un patrón mucho más extenso de violencia digital contra las mujeres y niñas. Un patrón que está aumentando y presenta sesgo de género. Hoy día, los sistemas diseñados para proteger a las personas están fallando, mientras las herramientas para causar daño son cada día más baratas, más rápidas y más fáciles de utilizar.

Eso tiene que cambiar. Y tiene que cambiar ya.