Deepfakes y violencia de género


En 2017, la periodista Samantha Cole descubrió en Reddit a alguien que utilizaba tecnología de inteligencia artificial (IA) de código abierto para crear pornografía casera y sin consentimiento e imágenes sexuales utilizando los rostros de celebridades. Esta persona se autodenominaba “deepfake”.

Los primeros deepfakes eran fáciles de detectar porque tenían fallos y parecían poco realistas. Sin embargo, esta tecnología se ha vuelto tan sofisticada que cualquier persona con un conocimiento medio decente de computadoras e inteligencia artificial y con acceso a una computadora decente ahora puede crear, distribuir y vender fácilmente un deepfake decente.

Todo lo que un deepfaker necesita hacer es encontrar fotografías de la persona a la que quiere atacar en una fuente pública como Instagram para crear imágenes sexualizadas o pornografía muy realistas.

“Existen cuestiones reales sobre la autonomía sexual y daños que vienen con la mera creación”, dijo Suzie Dunn, profesora adjunta de la Facultad de Derecho Schulich de Dalhousie. chusma.ca Durante una entrevista.

Dunn continuó diciendo: “Ahora, puedes tener personas que realmente pueden violar sexualmente a otras personas de maneras bastante graves sin siquiera tener contacto con ellas”.

Una nueva forma de violencia de género

La creación de un deepfake sexualizado, en sí misma, es una violación de la autonomía sexual: el derecho de un individuo a tomar decisiones sobre su propio cuerpo y sexualidad sin interferencias.

Publicar deepfakes en línea mientras se afirma que son contenido sexual real equivale a distribuir imágenes íntimas sin consentimiento, ya que el daño público resultante es el mismo.

El informe de Sensity AI, The State of Deepfakes 2019 Landscape, Threats, and Impact, concluyó que el 96 por ciento de los deepfakes se utilizan para crear contenido sexual no consensuado. De esos deepfakes, el 99 por ciento eran imágenes de mujeres.

Esta es la forma más nueva de violencia de género.

“En Canadá y en todo el mundo, se están reconociendo los daños que causan las falsificaciones sexuales. Cuando estas falsificaciones empezaron a salir de ese sitio de Reddit, mucha gente las publicaba en Pornhub y en otros lugares. Inmediatamente, la mayoría de las empresas de redes sociales, incluida Pornhub, crearon una política que decía que ese tipo de contenido no está permitido y lo incluimos en la misma categoría que otras reglas sobre imágenes no consensuadas que prohíben publicar contenido no consensuado en nuestros sitios web”, dijo Dunn.

La australiana Noel Martin fue el blanco de alguien que la encontró en Internet. Empezó a hacer pornografía falsa con Photoshop y, finalmente, deepfakes de Martin.

Martin abogó por cambios legales que incluían la incorporación del término “imágenes alteradas” a las leyes de imágenes no consensuales de Australia. La inclusión de las imágenes alteradas significa que cualquier persona que comparta una imagen sexual (ya sea una imagen verdadera o una falsificación profunda) sin consentimiento está sujeta a la ley.

La legislación penal de Canadá no incluye esa disposición, por lo que si se divulga una imagen sexual sin tu consentimiento, para poder presentar cargos, tiene que ser tu cuerpo desnudo.

Los estatutos civiles de Columbia Británica, Alberta, Saskatchewan, Nueva Escocia y Terranova y Labrador incluyen imágenes alteradas que brindan una opción de demandar por daños y perjuicios.

En las provincias y territorios que no cuentan con esta opción, alguien aún podría presentar una demanda civil, pero sería un argumento legal novedoso, es decir, el primero de su tipo; en otras palabras, un caso que sentaría precedente.

Ciertos grupos de mujeres son más propensos a convertirse en deepfakes, entre ellos periodistas, gamers y quienes utilizan el servicio de transmisión de video en vivo Twitch.

Los deepfakes representan consecuencias reales para las víctimas

“Una vez que un deepfake se asocia con tu nombre y se puede buscar en Google, incluso si la gente sabe que es falso, afecta la forma en que la gente te percibe”, explicó Dunn.

Los deepfakes pueden tener importantes repercusiones económicas, especialmente cuando las leyes laborales son débiles y no protegen a quienes son objeto de este contenido.

Las repercusiones pueden hacer que las mujeres se aíslen o sufran problemas de salud mental. Es posible que eliminen sus imágenes de los sitios en línea. Sin embargo, cada vez más, las carreras de las mujeres exigen que estén en línea y tengan presencia pública, por lo que optar por eliminar esas imágenes puede afectar sus ingresos y su avance profesional.

“Las mujeres sufren una pérdida real de autonomía sexual y, cuando la perdemos, las reacciones de la gente son muy variadas. Para algunas personas puede ser una simple molestia, pero para otras puede ser devastador y arruinarles la vida”, afirmó Dunn.

Sin embargo, Dunn dice que las leyes están progresando y la mayoría de las respuestas legales abordan la distribución de pornografía sin consentimiento.

Algunos sitios de pornografía tienen reglas de moderación de contenido sobre quién puede publicar y qué se puede publicar. Sin embargo, en Meta, Instagram y TikTok, aunque existen reglas claras de moderación de contenido, no siempre se aplican.

“Cuando hablo de pornografía, me refiero a contenido creado específicamente para ser visto por el público. Cuando hablo de material de abuso sexual o abuso basado en imágenes, se trata de contenido que se publica en sitios pornográficos, pero no creo que debamos categorizarlo como pornografía. Es material de abuso”, explicó Dunn.

Cuando se carga contenido de abuso sexual basado en imágenes en sitios pornográficos, generalmente hay una serie de casillas que deben marcarse, incluida la verificación de la edad y el consentimiento. Una vez que se marcan todas las casillas, el contenido se hace público.

Sin embargo, Dunn señala que es imposible mirar un vídeo y saber si fue consensuado o no.

Ése sigue siendo uno de los grandes desafíos que exige conversaciones constantes sobre las obligaciones de los sitios de pornografía y cómo planean garantizar que todos los involucrados hayan dado su consentimiento para que se cargue el material.

Según Dunn, a menos que se incorporen prácticas éticas sólidas en sus sistemas, los sitios web pueden cargar muy fácilmente contenido de agresión sexual basado en imágenes.

Dunn también señala que, a medida que evoluciona la violencia facilitada, la sociedad y el sistema legal deben crear un lenguaje para el abuso facilitado por la tecnología. Es necesario nombrarlo antes de poder categorizarlo y de identificar y abordar los daños que inflige.

Actualmente, el Código Penal de Canadá no incluye imágenes alteradas. Sin embargo, Dunn dice que su inclusión abre un amplio debate sobre dónde está el límite entre lo que es delictivo y lo que infringe la delincuencia. ¿Las imágenes tienen que ser extraordinariamente realistas? ¿Debería ampliarse esta definición para incluir historias sexualizadas y caricaturas de personas?

Estas complejas preguntas solo pueden abordarse mediante un crecimiento en los sistemas penales y civiles que se centren en la violencia de género impulsada por la tecnología, como los deepfakes.

Para que los cambios sean significativos, es necesario reforzarlos con mejores regulaciones para las empresas de redes sociales y los sitios de pornografía, a fin de garantizar que existan normas que prohíban las imágenes sexualizadas o el contenido pornográfico. También es necesario que existan normas sobre cómo manejar las situaciones en las que se publique este tipo de contenido, para garantizar que se elimine de manera oportuna.

Dunn advierte que es necesario diferenciar entre la expresión sexual consentida en Internet y el abuso sexual. Esto es importante porque, a veces, cuando las personas intentan deshacerse de contenido sexual abusivo, quieren eliminar todo el contenido sexual.

“El contenido sexualmente expresivo desempeña un papel muy importante en nuestra sociedad. Por eso, cuando pensamos en mejorar la forma en que se encuentra disponible el contenido sexual en Internet, creo que debemos tener cuidado de no tirar al bebé junto con el agua de la bañera. Queremos una expresión sexual positiva y saludable en nuestro ser físico y eso es diferente a la agresión sexual. De la misma manera que podemos tener una expresión sexual positiva y saludable en espacios digitales como los sitios para niños sobre información sobre salud sexual que podrían quedar atrapados en la redada”, dijo Dunn.

Deepa Mattoo, abogada y directora ejecutiva de la Clínica Conmemorativa Barbra Schlifer, con sede en Toronto, dijo: chusma.ca“Todavía no hemos visto que se presente un caso, pero cuando se presente un caso, será un desafío. La violencia en línea en general está en aumento y la IA definitivamente ha jugado un papel importante”.

Mattoo no cree que deba haber un criterio de prueba legal diferente para el contenido abusivo en línea. Si se trata de contenido generado por inteligencia artificial y realizado con la misma intención de acosar sexual o mentalmente a esa persona, atacar su reputación o chantajearla, entonces es un delito y debería considerarse violencia sexual.

“Es parte de un patrón de coerción y control que debe tomarse aún más en serio porque la intención del acto demuestra que lo planeaste y que te esforzaste al máximo para usar la tecnología. Por lo tanto, desde esa perspectiva, debe tomarse aún más en serio que otros delitos”, afirmó Mattoo.

Mattoo cree que no debería haber excusa de ningún tipo cuando alguien obtiene imágenes deliberadamente y luego las sexualiza con la intención de tratar de dañar a la víctima.

Mattoo señala que la ciencia ha establecido que el trauma resultante de la violencia sexual puede afectar a la víctima por el resto de su vida.

A Mattoo le gustaría ver el sistema carcelario convertirse en un sistema educativo porque, como ella lo ve, mantener a alguien dentro de un espacio pequeño y limitar su capacidad no es suficiente para cambiarlo realmente.

“Se trata de algo que sucedió sin tu consentimiento, te quitaron tu capacidad de decisión. Por lo tanto, el daño psicológico es mucho más profundo. Lo que realmente se necesita es un cambio en la sociedad para que estos crímenes dejen de suceder”, dijo Mattoo.



Source link