Abuso en línea impulsado por la IA: cómo la IA amplifica la violencia contra las mujeres y qué puede detenerla
Ya vivimos en un mundo en el que al menos una de cada tres mujeres experimenta violencia física o sexual. A ello se suma una serie de herramientas de inteligencia artificial (IA) extremadamente poderosas, entrenadas con material marcado por los sesgos de género imperantes, lo que permite que la violencia se expanda de manera más profunda, rápida y compleja. El resultado: una tormenta perfecta.
Mientras que la violencia contra las mujeres y niñas facilitada por la tecnología se intensifica —según los estudios, entre el 16 y el 58 por ciento de las mujeres en todo el mundo se han visto afectadas—, la inteligencia artificial está creando nuevas formas de abuso y amplificando las disponibles a tasas alarmantes.
Las cifras son claras: según una encuesta mundial, el 38 por ciento de las mujeres han vivido alguna experiencia de violencia en línea a título personal y el 85 por ciento de las mujeres en línea han sido testigos de violencia digital contra otras. Esto no se trata solamente de lo que pasa en las pantallas. Lo que sucede en línea atraviesa la pantalla fácilmente y luego escala. Las herramientas de la inteligencia artificial pueden apuntarse en contra las mujeres: facilitan el acceso, el chantaje, el acecho, las amenazas y el acoso con consecuencias trascendentes en el mundo real a nivel físico, psicológico, profesional y financiero.
Un dato elocuente es que las herramientas para crear ultrafalsos (deepfakes), desarrolladas por equipos de varones, en muchos casos ni siquiera están diseñadas para funcionar sobre imágenes de cuerpos masculinos.
ONU Mujeres entrevistó a Laura Bates, feminista, activista y autora del libro The New Age of Sexism (La nueva era del sexismo), y a Paola Gálvez-Callirgos, experta en inteligencia artificial y políticas de la tecnología, para saber qué está en juego en la actualidad.
¿Qué es la violencia contra las mujeres facilitada por la IA?
La violencia contra las mujeres facilitada por la IA hace referencia a los actos de abuso digital generados y divulgados con tecnología de inteligencia artificial que provocan un daño físico, sexual, psicológico, social, político o económico, u otras violaciones a los derechos y libertades de las mujeres.
La escala, la velocidad, el anonimato y la facilidad de comunicación en los espacios digitales crean contextos propicios para este tipo de violencia. Los perpetradores creen que pueden salirse con la suya, las víctimas a menudo no saben si podrán obtener ayuda, ni cómo dar con ella, y los sistemas jurídicos corren detrás de los rápidos cambios de la tecnología.
Según la activista y autora feminista Laura Bates, la mejor forma de enfrentar el riesgo del abuso digital facilitado por la IA es “reconocer que la división entre lo que sucede dentro y fuera de Internet es una ilusión”.
“Cuando en el abuso doméstico se utilizan herramientas digitales para rastrear o acechar a una víctima; cuando los ultrafalsos pornográficos abusivos provocan que una víctima pierda su trabajo o la custodia de sus hijas o hijos; cuando el acoso en línea a una joven provoca que se la acuse en público de promiscua hasta que se avergüence y deje la escuela…” – Ejemplos como estos ilustran cuán fácil y peligroso es que el abuso digital se desborde a la vida real..
¿La IA está creando nuevas formas de violencia contra las mujeres?
Sí. La inteligencia artificial está creando formas totalmente nuevas de abuso y amplificando considerablemente las que ya estaban disponibles. La escala y la dificultad de detectar lo que puede lograrse con la IA generan un daño mucho mayor y más extendido que el que permitían las formas tradicionales de violencia facilitada por la tecnología.
Algunas de las nuevas formas de abuso contra las mujeres impulsado por la IA incluyen las siguientes:
- Abuso basado en imágenes mediante ultrafalsos: según las investigaciones, entre el 90 y el 95 por ciento de los ultrafalsos en línea son imágenes pornográficas sin consentimiento, y casi el 90 por ciento de estas imágenes muestran a mujeres. El número total de videos ultrafalsos en línea en 2023 fue un 550 por ciento más alto que en 2019. La pornografía con videos ultrafalsos corresponde al 98 por ciento de todos los videos ultrafalsos en línea, y el 99 por ciento de las personas afectadas son mujeres.
- Suplantación de identidad mejorada y sextorsión: la inteligencia artificial permite la creación de material ultrafalso interactivo que suplanta identidades y entabla conversaciones en línea con mujeres y niñas que no saben que están interactuando con un bot. La práctica de catfishing, engaño o estafa por suplantación de identidad en aplicaciones de citas, ahora puede escalar mediante bots de IA más realistas que se adaptan para simular conversaciones humanas y convencer a mujeres y niñas de que revelen información privada o concreten citas en persona.
- Campañas sofisticadas de doxeo: las herramientas de procesamiento de lenguaje natural pueden identificar contenido vulnerable o controversial en las publicaciones de mujeres —como discusiones sobre acoso sexual o señalamientos de misoginia—, lo que facilita identificarlas como blancos de campañas de doxeo. En algunos casos, la IA se usa para confeccionar mensajes personalizados y amenazantes que usan el vocabulario y la información de la propia víctima para magnificar el abuso psicológico. Lee la historia de Ljubica.
¿Qué es el contenido audiovisual ultrafalso y por qué apunta contra las mujeres?
El contenido audiovisual ultrafalso (los deepfakes) son imágenes, audios o videos alterados digitalmente y creados con IA que hacen parecer que alguien dijo o hizo algo que en realidad nunca dijo ni hizo. Si bien la tecnología puede usarse con fines creativos o de entretenimiento, el material ultrafalso se usa cada vez más indebidamente como una forma de abuso digital, por ejemplo, para crear imágenes sexuales sin consentimiento, difundir desinformación o dañar la reputación de una persona.
El material ultrafalso apunta cada vez más y de manera más abrumadora a las mujeres. Laura Bates expone los motivos: “En parte, se trata del problema de raíz de la misoginia, un asunto con un enorme sesgo de género, y lo que estamos viendo es una manifestación digital de una verdad mayor fuera del ámbito del Internet: los hombres atacan a las mujeres en actos de abuso y violencia de género”.
“Pero también se trata de cómo las herramientas facilitan ese abuso”, agrega Bates.
La IA ha hecho que las herramientas sean fáciles de usar; no se necesitan muchos conocimientos técnicos para crear y publicar una imagen o video ultrafalso. En este contexto, hay una creciente preocupación por el aumento de la “sextorsión” mediante ultrafalsos, con la amenaza de difundir imágenes inventadas y no consentidas en sitios pornográficos para acosar a las mujeres.
Una vez que las imágenes pornográficas ultrafalsas generadas con IA se difunden en línea, pueden reproducirse varias veces, compartirse y almacenarse en dispositivos privados, lo que dificulta su localización y eliminación.
¿Qué debe hacer una persona durante las primeras 24 horas cuando una imagen suya ultrafalsa o manipulada aparece en línea?
No hay una forma correcta o incorrecta de responder, y quienes se han especializado en el tema enfatizan que es clave responsabilizar a los perpetradores, es decir, a los creadores, los anunciantes y las plataformas que alojan estos contenidos, así como a las personas que los consumen. Si eres víctima de este tipo de abuso, la recomendación es contactar a organizaciones que tengan la información más actualizada sobre cómo ayudar.
Aquí hay algunos recursos, aunque la lista no es exhaustiva:
- Stop non-consensual image-abuse ayuda a las víctimas de la pornografía de venganza y evita que se compartan imágenes íntimas en línea. Si tu imagen íntima está en manos de alguien que podría hacer un mal uso de ella, StopNCII.org puede generar un hash (una huella digital) de la imagen que impide que las personas puedan compartirla.
- El Directorio mundial de Chayn ofrece una lista seleccionada de organizaciones y servicios que apoyan a las supervivientes de violencia de género, tanto en línea como en persona.
- El Manual de campo sobre el acoso en línea – Directorio de organizaciones de ayuda (en inglés) es un directorio especializado que contiene una lista de organizaciones regionales e internacionales que ayudan a periodistas, activistas y otras personas que enfrentan abusos en línea, brindan consejos de seguridad digital, referencias y contactos de emergencia.
- The Cybersmile Foundation brinda un servicio global que ofrece apoyo emocional y orienta a quienes experimentan ciberacoso o abuso en línea con recursos útiles.
- Take it down ayuda a eliminar desnudos en línea.
Para más consejos, consulta el artículo explicativo Seguridad en internet: guía práctica para mujeres y niñas.
¿Existen leyes que protejan a las mujeres del abuso generado por la IA?
Según los datos del Banco Mundial, menos del 40 por ciento de los países cuentan con leyes que protejan a las mujeres del acoso en línea o del acecho digital, y, cuando las hay, su aplicación es débil.
Además, hay pocas denuncia, un acceso limitado a la justicia, y las plataformas tecnológicas no han rendido cuentas. La naturaleza transnacional del abuso digital generado por la IA potencia aún más la impunidad.
El llamado a la acción de ONU Mujeres para los 16 días de activismo incluye la necesidad de que las leyes y su aplicación garanticen la responsabilización de los perpetradores, junto con un mejor apoyo a las víctimas y supervivientes, y la capacitación digital para mujeres y niñas.
Las leyes están comenzando a adaptarse a las tendencias emergentes, aunque están luchando por mantenerse al día con los rápidos desarrollos en IA generativa. Algunos ejemplos incluyen los siguientes:
- Según la Ley de seguridad en línea del Reino Unido (aprobada en 2023) es ilegal compartir imágenes o videos explícitos que hayan sido manipulados digitalmente. Sin embargo, esta ley no impide la creación de ultrafalsos pornográficos o su divulgación cuando no se pueda probar la intención de causar daño.
- La Ley de inteligencia artificial de la Unión Europea (2024) promueve la transparencia al exigir que los creadores de contenido ultrafalso informen al público sobre la naturaleza artificial de su trabajo y a los proveedores de herramientas de IA de uso general que etiqueten los contenidos generados por la IA.
- En México, la Ley Olimpia reconoce y castiga la violencia digital, y ha inspirado leyes similares en otros países de la región: se espera que la Argentina, Panamá y Uruguay sigan su ejemplo.
- Australia está fortaleciendo su legislación en materia de creación y difusión sin consentimiento de material sexualmente explícito en línea, incluido el material creado o alterado mediante IA generativa y ultrafalsos.
- Un enfoque recomendado es la cooperación mundial y la regulación de todo el sector que exija que las herramientas de IA cumplan con un estándar de seguridad y ética antes de ser lanzadas al público. La Convención Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho ofrece un modelo. El recientemente establecido Órgano Asesor de Alto Nivel sobre Inteligencia Artificial de las Naciones Unidas, representado por el Pacto Digital Mundial de las Naciones Unidas, es otro ejemplo de estas iniciativas coordinadas.
Paola Gálvez-Callirgos, experta en políticas y gobernanza de la IA y la tecnología digital, advierte que “no existe un modelo único para la gobernanza de la IA. Las personas responsables de formular políticas deben considerar que el contexto y la cultura de cada sociedad son importantes”.
Sin embargo, cree que hay algunas medidas básicas que todos los países pueden tomar para tipificar como delito todas las formas de violencia contra las mujeres facilitada por la tecnología e invertir en el desarrollo de capacidades institucionales para hacer cumplir la ley.
Otra brecha que recomienda cerrar mediante leyes se vincula a la procedencia del contenido, es decir, la capacidad de rastrear la historia de los materiales digitales. “Los productores de herramientas de medios sintéticos deben adjuntar credenciales de contenido verificables (metadatos en el archivo o marcas de agua o procedencia robustas según los estándares de estilo C2PA) que permitan a las plataformas y a quienes investiguen detectar el origen y la manipulación”, explica. “Esto dará apoyo a los filtros automatizados y dificultará que los perpetradores nieguen el origen de manera plausible”.
Gálvez-Callirgos forma parte de Escuela de IA de ONU Mujeres, un curso gratuito que se ofrece por invitación a las organizaciones por los derechos de las mujeres en el marco del programa ACTUEMOS para poner fin a la violencia contra las mujeres, con el fin de enseñarles a usar las herramientas de la IA de forma ética para la promoción, influir en el desarrollo de políticas sobre la IA y aprovechar sus herramientas de forma responsable para prevenir la violencia contra las mujeres y darle respuesta. El curso también incluye charlas de personas expertas y laboratorios de innovación.
“En el centro de la adopción exitosa de la IA está la confianza. La innovación que genera confianza, es inclusiva y previene daños es, en última instancia, más sostenible y ampliamente adoptada que aquella que socava esos valores.”
¿Qué deben hacer las empresas de tecnología para prevenir el abuso en línea facilitado por la IA?
Las empresas de tecnología tienen un papel fundamental que desempeñar para prevenir y detener la violencia digital generada por la IA. Algunas de las medidas que deben tomar incluyen:
- Impedir a infancias y consumidores el acceso a las herramientas pornográficas de generación de ultrafalsos o alteración de desnudos (nudify).
- Negarse a alojar imágenes o videos creados con estas herramientas.
- Desarrollar funciones de denuncia claras y de fácil acceso para reaccionar ante el abuso y responder de manera rápida y efectiva cuando las víctimas denuncien contenido abusivo.
- Implementar soluciones proactivas para identificar contenido falsificado, incluida la verificación automática de marcas de agua detectables algorítmicamente.
- Exigir el etiquetado o la identificación del contenido generado por la IA.
- Reclutar a más mujeres como investigadoras y desarrolladoras de tecnología, y trabajar con organizaciones de mujeres en el diseño de tecnología de IA.
¿Cómo entender la machosfera y cómo hablar con niños y hombres sobre la misoginia en línea?
“La explosión de la tecnología de la IA y la misoginia extrema y tóxica de la machosfera se refuerzan entre sí a una escala masiva”, dice Laura Bates. “Las herramientas de la IA permiten la amplificación del contenido de la machosfera con ajustes algorítmicos que priorizan el contenido cada vez más extremo para maximizar la interacción”.
La “machosfera” es un rincón creciente del mundo digital y está compuesta por una red diversa de comunidades en línea que afirman abordar las preocupaciones de los hombres (citas, estado físico o paternidad, por ejemplo), pero a menudo promueven consejos dañinos y actitudes misóginas. Este contenido está ganando terreno: dos tercios de los hombres jóvenes interactúan regularmente en línea con personas influyentes en el medio de la masculinidad, y el contenido de la machosfera no solo normaliza la violencia contra las mujeres y niñas, sino que también tiene vínculos crecientes con la radicalización y las ideologías extremistas. Más información sobre la machosfera y lo que puedes hacer.
Por la facilidad de uso de las herramientas de la IA, quienes navegan en línea ahora pueden generar y difundir materiales de propaganda, incluida información y estadísticas falsas, para reclutar y embaucar a jóvenes vulnerables en ideologías misóginas y extremistas.
Es vital comenzar las conversaciones lo antes posibles, dicen las voces expertas, porque la prevención es mucho más efectiva que la desradicalización. Además, gran parte de la prevención implica brindar a los jóvenes alfabetización digital y enseñarles a ser escépticos con respecto a las fuentes: quién dice qué, por qué y cómo verificar la credibilidad de la información.
Algunos consejos para hablar con hombres y niños que consumen contenido misógino y abusivo en línea:
- Usar un marco tranquilo, de apoyo y sin prejuicios.
- Observar los posibles temores o preocupaciones que este contenido puede estar alimentando.
- Trabajar en conjunto para encontrar información objetiva sobre esos temores.
- Hablar sobre las distintas formas significativas en que los hombres y los niños se ven afectados negativamente por el patriarcado y los estereotipos de género.
- Cuestionar si las personalidades en línea que dicen defender a los hombres y los niños los apoyan de verdad, o bien si contribuyen a los daños.
- Discutir quién se beneficia del contenido y cómo.
Los modelos masculinos a seguir tienen una función clave: las conversaciones con padres, tíos, hermanos, maestros, entrenadores deportivos o trabajadores especializados en la juventud pueden ser más efectivas para ayudar a los niños a mirar este contenido con otros ojos.
¿Cuáles son los tres hábitos para lograr que todas las personas se sientan más seguras en línea ya?
Nuestras voces expertas en materia digital recomiendan las siguientes medidas:
- Educar. A una misma y a otras personas sobre la alfabetización digital, el escepticismo de las fuentes y las realidades del abuso facilitado por la IA. Comprender cómo funcionan estas herramientas y su impacto con sesgo de género es el primer paso hacia un cambio significativo.
- Preservar la seguridad. Usar contraseñas seguras y únicas, activar la autenticación de dos factores en todas las cuentas, usar perfiles privados y verificar periódicamente la configuración de privacidad en todas las plataformas y aplicaciones de redes sociales para proteger información personal. Para más consejos sobre cómo detectar signos de abuso en línea, lee el documento de primeros pasos para la seguridad en línea.
- Actuar. Exigir la rendición de cuentas a las plataformas de tecnología y a las empresas que crean y se benefician de las herramientas de IA. Además, seguir y apoyar campañas lideradas por feministas que trabajan en el tema. Diseminar su contenido, firmar sus peticiones o comunicarte con su representante legal para mostrarle cuánto te importa el tema.
“La clave es avanzar hacia la rendición de cuentas y la regulación; crear sistemas en los que las herramientas de IA cumplan con estándares de seguridad y ética antes de su lanzamiento al público, en los que las plataformas sean responsables del contenido que alojan y donde la responsabilidad de la prevención pase de las víctimas potenciales a las manos de quienes crean y se benefician de tecnologías nocivas”, concluye Bates.
Para quienes se preguntan si las regulaciones y la gobernanza de la IA la harían menos innovadora, Gálvez-Callirgos aporta otra mirada: “La dicotomía de ‘regulación o innovación’ es una falsedad aprendida de la evolución no regulada de las redes sociales durante la última década”, dice.
La gobernanza de la IA no significa prohibir la invención, sino establecer salvaguardas que canalicen la innovación hacia resultados que sean beneficiosos para toda la sociedad, concluye.
16 días de activismo: #NoHayExcusa para el abuso en línea
Los espacios en línea y digitales deberían empoderar a las mujeres y niñas. Sin embargo, todos los días, para millones de mujeres y niñas, el mundo digital se ha convertido en un campo minado de acoso, abuso y control.
Del 25 de noviembre al 10 de diciembre, ÚNETE a la campaña para obtener más información y tomar medidas para detener el abuso digital contra las mujeres y niñas.