Imágenes falsas explícitas de Taylor Swift demuestran que las leyes no han seguido el ritmo de la tecnología, dicen los expertos

Fotografías explícitas generadas por IA de uno de los artistas más famosos del mundo se difundieron rápidamente en las redes sociales esta semana, destacando una vez más lo que los expertos describen como una necesidad urgente de tomar medidas enérgicas contra la tecnología y las plataformas que hacen posible que se compartan imágenes dañinas.

Las fotos falsas de Taylor Swift que mostraban a la cantautora en posiciones sexualmente sugerentes fueron vistas decenas de millones de veces en X, anteriormente conocido como Twitter, antes de ser eliminadas.

Una foto, compartida por un solo usuario, fue vista más de 45 millones de veces antes de que se suspendiera la cuenta. Pero para entonces, la foto ampliamente compartida había sido inmortalizada en otras partes de Internet.

La situación mostró cuán avanzada y fácilmente accesible se ha vuelto la IA, al tiempo que reavivó los llamados tanto en Canadá como en Estados Unidos para mejorar las leyes.

“Si puedo citar a Taylor Swift, X marca el lugar donde nos desmoronamos“, dijo Kristen Thomasen, profesora asistente de la Universidad de Columbia Británica.

“Donde deberíamos centrar más atención en la ley es también en los diseñadores que crean las herramientas que hacen que esto sea tan fácil, y [on] “Los sitios web que hacen posible que esta imagen aparezca… y luego sea vista por millones de personas”, dijo Thomasen.

Esta imagen, tomada a partir de un video falso del ex presidente estadounidense Barack Obama, muestra elementos de tecnología de mapeo facial que permite a cualquiera hacer videos de personas reales que parecen decir cosas que nunca han dicho. (La Prensa Asociada)

Después de que comenzaron a aparecer las fotos pornográficas que mostraban a Swift, los fanáticos de la artista inundaron la plataforma con publicaciones de “Protege a Taylor Swift”, en un esfuerzo por enterrar las imágenes para hacerlas más difíciles de encontrar mediante la búsqueda.

En una publicación, X dijo que sus equipos estaban “monitoreando de cerca” el sitio para ver si seguirían apareciendo fotos.

“Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas”, decía la publicación.

Ni Swift ni su publicista han comentado sobre las imágenes.

A medida que la industria de la IA continúa creciendo, las empresas que buscan compartir las ganancias han diseñado herramientas que brindan a los usuarios con poca experiencia la capacidad de crear imágenes y videos usando instrucciones simples. Las herramientas han sido populares y beneficiosas en algunos sectores, pero también hacen que sea increíblemente fácil crear lo que se conoce como deepfakes: imágenes que muestran a una persona haciendo algo que en realidad no hizo.

El grupo de detección de deepfake Reality Defender dijo que rastreó una avalancha de material pornográfico no consensuado que representa a Swift, particularmente en X. Algunas imágenes también llegaron a Facebook, propiedad de Meta, y otras plataformas de redes sociales.

“Desafortunadamente, se extendieron a millones y millones de usuarios cuando algunos de ellos fueron eliminados”, dijo Mason Allen, jefe de crecimiento de Reality Defender.

Los investigadores encontraron varias docenas de imágenes únicas generadas por IA. Los más compartidos estaban relacionados con el fútbol y mostraban a Swift pintada o ensangrentada que la objetivaba y, en algunos casos, sugería la imposición de daño violento.

Las herramientas traen una ‘nueva era’ del cibercrimen

“Uno de los mayores problemas es que es una herramienta increíble… y ahora todos pueden usarla”, dijo Steve DiPaola, profesor de inteligencia artificial en la Universidad Simon Fraser.

Un estudio de 2019 realizado por DeepTrace Labs, una empresa de ciberseguridad con sede en Ámsterdam, encontró que el 96 por ciento del contenido de vídeo deepfake en línea era material pornográfico sin consentimiento. También descubrió que los cuatro principales sitios web dedicados a la pornografía deepfake recibieron más de 134 millones de visitas en videos dirigidos a cientos de celebridades femeninas de todo el mundo.

VER | Las escuelas podrían hacer más para educar a los jóvenes sobre los daños en línea:

Los jóvenes necesitan una mejor educación sobre los riesgos del daño sexual en línea, según un informe

La violencia y el acoso sexual facilitados por la tecnología están aumentando en Canadá y un nuevo informe sugiere que las escuelas podrían estar haciendo más para educar a los jóvenes sobre los riesgos.

En Canadá, la policía inició una investigación en diciembre después de que se compartieran en línea fotografías falsas de desnudos de estudiantes de una escuela de inmersión en francés de los grados 7 a 12 en Winnipeg. A principios de ese año, un hombre de Quebec fue sentenciado a prisión por utilizar inteligencia artificial para crear siete videos deepfake de pornografía infantil, lo que se cree que es la primera sentencia de este tipo para los tribunales canadienses.

“La policía ha entrado claramente en una nueva era de ciberdelincuencia”, escribió en su fallo el juez del Tribunal de Quebec Benoit Gagnoni.

Jueces canadienses trabajan con leyes obsoletas

Después del ataque a Swift esta semana, los políticos estadounidenses pidieron nuevas leyes para penalizar la creación de imágenes deepfake.

Canadá también podría utilizar ese tipo de legislación, dijo Thomasen de la UBC.

Existen algunas leyes canadienses que abordan la cuestión más amplia de la distribución no consensuada de imágenes íntimas, pero la mayoría de esas leyes no se refieren explícitamente a los deepfakes porque no eran un problema.

Taylor Swift posando frente a una pared que dice Taylor Swift The Eras Tour.
Las imágenes deepfake de Swift, que se muestran aquí en octubre de 2023, circularon entre millones de usuarios de redes sociales antes de ser eliminadas. (Valerie Macon/AFP/Getty Images)

Significa que los jueces que se ocupan de los deepfakes tienen que decidir cómo aplicar las leyes antiguas a la nueva tecnología.

“Esta es una violación tan abierta de la dignidad de alguien, del control sobre su cuerpo, del control sobre su información, que me resulta difícil imaginar que no pueda interpretarse de esa manera”, dijo Thomasen. “Pero hay algún desacuerdo legal al respecto y estamos esperando que los tribunales lo aclaren”.

La nueva Ley de Protección de Imágenes Íntimas que entrará en vigor en Columbia Británica el lunes incluye referencias a deepfakes y dará a los fiscales más poder para perseguir a las personas que publican imágenes íntimas de otras personas en línea sin consentimiento, pero no incluye referencias a las personas que las crean ni a las redes sociales. empresas de medios.

Leave a Comment