💄 Deepfake se sale de control en el contenido para adultos

Ilustración: Getty Images.

Los motores de búsqueda de Google y Microsoft enfrentan un problema con videos deepfake de contenido para adultos no consensuales. Desde que surgieron los deepfakes hace aproximadamente cinco años, la tecnología se ha utilizado de manera consistente para abusar y acosar a mujeres, utilizando el aprendizaje automático para insertar el rostro de alguien en contenido pornográfico sin su consentimiento. Ahora, el número de videos deepfake no consensuales está creciendo a un ritmo exponencial, impulsado por el avance de las tecnologías de inteligencia artificial y la expansión del ecosistema de deepfakes.

Un nuevo análisis de videos, realizado por un investigador independiente y compartido con WIRED, muestra cuán extendidos se han vuelto estos videos. Según el investigador, quien solicitó permanecer en el anonimato para evitar ser blanco de ataques en línea, se han subido al menos 244,625 videos a los 35 principales sitios web, configurados exclusivamente o parcialmente para alojar videos pornográficos deepfake, en los últimos siete años.

Durante los primeros nueve meses de este año, se subieron 113,000 videos a estos sitios web, lo que representa un aumento del 54 por ciento en comparación con los 73,000 videos subidos en todo el año 2022. Según el análisis, se prevé que al final de este año se habrán producido más videos en 2023 que en todos los demás años combinados.

Estas cifras impactantes son solo una instantánea de la magnitud del problema de los deepfakes no consensuales, que es mucho mayor e involucra otros tipos de imágenes manipuladas. En los últimos años ha surgido toda una industria de abuso de deepfakes, que afecta principalmente a mujeres y se produce sin su consentimiento ni conocimiento. Aplicaciones de cambio de rostro que funcionan con imágenes estáticas y aplicaciones que permiten “desnudar” a una persona en una foto con solo unos clics también son muy prominentes. Es probable que se estén creando millones de imágenes con estas aplicaciones.

“Esto es algo que afecta a personas comunes, estudiantes de secundaria y adultos todos los días; se ha convertido en una ocurrencia diaria”, dice Sophie Maddocks, quien investiga sobre derechos digitales y violencia cibernética de carácter sexual en la Universidad de Pensilvania. “Haría una gran diferencia si pudiéramos dificultar el acceso a estas tecnologías. No debería tomar dos segundos potencialmente incitar un delito sexual”.

La nueva investigación destaca 35 sitios web diferentes, que existen exclusivamente para alojar videos deepfake o que incorporan estos videos junto con otro material para adultos. El investigador analizó los sitios web para examinar la cantidad y duración de los videos deepfake, y observó cómo las personas encuentran estos sitios web utilizando el servicio de análisis SimilarWeb.

Muchos de los sitios web dejan claro que alojan o distribuyen videos, a menudo utilizando la palabra “deepfake” o derivados de la misma en su nombre. Los dos principales sitios web contienen 44,000 videos cada uno, mientras que otros cinco tienen más de 10,000 videos deepfake. La mayoría de ellos tienen varios miles de videos, mientras que algunos solo enumeran unos pocos cientos. Algunos de los videos analizados por el investigador han sido vistos millones de veces.

La investigación también identificó otros 300 sitios web de pornografía general que de alguna manera incorporan pornografía deepfake no consensual. El investigador dice que los sitios web de “filtración” y los sitios web que existen para volver a publicar fotos de las redes sociales de las personas también están incorporando imágenes deepfake. Un sitio web que se dedica a las fotografías afirma haber “desnudado” a personas en 350,000 fotos.

Medir la escala completa de videos e imágenes deepfake en línea es extremadamente difícil. Seguir la pista de dónde se comparte el contenido en las redes sociales es un desafío, mientras que el contenido abusivo también se comparte en grupos de mensajes privados o canales cerrados, a menudo por personas conocidas por las víctimas. En septiembre, más de 20 niñas de 11 a 17 años se presentaron en el pueblo español de Almendralejo después de que se utilizaran herramientas de IA para generar fotos desnudas de ellas sin su conocimiento.

“Ha habido un crecimiento significativo en la disponibilidad de herramientas de IA para crear imágenes pornográficas deepfake no consensuales, y un aumento en la demanda de este tipo de contenido en plataformas de pornografía y redes en línea ilícitas”, dice Asher Flynn, profesor asociado de la Universidad Monash en Australia, especializado en IA y abuso facilitado por la tecnología. Esto solo aumentará con las nuevas herramientas de IA generativa.

La puerta de entrada a muchos de los sitios web y herramientas para crear videos o imágenes deepfake es a través de las búsquedas. Millones de personas son dirigidas a los sitios web analizados por el investigador, con un 50 a 80 por ciento de las personas encontrando estos sitios a través de búsquedas. Encontrar videos deepfake a través de búsquedas es trivial y no requiere que una persona tenga ningún conocimiento especial sobre lo que debe buscar.

El problema es global. Usando una VPN, el investigador probó búsquedas en Google en Canadá, Alemania, Japón, Estados Unidos, Brasil, Sudáfrica y Australia. En todas las pruebas, los sitios web deepfake se mostraron prominentemente en los resultados de búsqueda. A menudo, las celebridades, los streamers y los creadores de contenido son el blanco de estos videos. Maddocks dice que la propagación de los deepfakes se ha vuelto “endémica” y es lo que muchos investigadores temían cuando los primeros videos deepfake surgieron en diciembre de 2017.

Desde que surgieron las herramientas necesarias para crear videos deepfake, se han vuelto más fáciles de usar y la calidad de los videos producidos ha mejorado. La ola de herramientas de generación de imágenes también ofrece la posibilidad de crear imágenes y, eventualmente, videos abusivos de mayor calidad. Y cinco años después de que aparecieran los primeros deepfakes, apenas están surgiendo las primeras leyes que criminalizan la difusión de imágenes falsificadas.

La proliferación de estas aplicaciones deepfake, combinada con una mayor dependencia de las comunicaciones digitales en la era del Covid-19 y una “falta de leyes y políticas para mantener el ritmo”, ha creado una “tormenta perfecta”, según Flynn.

Los expertos sostienen que junto con las nuevas leyes, se necesita una mejor educación sobre estas tecnologías, así como medidas para detener la difusión de herramientas creadas para causar daño. Esto incluye la acción de las empresas que alojan los sitios web, así como de los motores de búsqueda, incluidos Google y Bing de Microsoft. Actualmente, las quejas de la Ley de Derechos de Autor del Milenio Digital (DMCA) son el principal mecanismo legal que tienen las mujeres para que se eliminen videos de sitios web.

Henry Ajder, un experto en deepfakes e inteligencia artificial generativa que ha supervisado la propagación de estas tecnologías, dice que agregar más “fricción” al proceso de búsqueda de videos porno deepfake, aplicaciones para cambiar el rostro de las personas y herramientas que permiten específicamente la creación de imágenes no consensuales puede reducir su difusión. “Se trata de intentar hacer que sea lo más difícil posible para alguien encontrar esto”, afirma. Esto podría implicar que los motores de búsqueda releguen los resultados de sitios web dañinos o que los proveedores de servicios de Internet bloqueen estos sitios. “Es difícil sentirse realmente optimista, dada la cantidad y la escala de estas operaciones, y la necesidad de que las plataformas, que históricamente no han tomado en serio estos problemas, de repente lo hagan”, sostiene Ajder.

“Como cualquier motor de búsqueda, Google indexa contenido que existe en la web, pero diseñamos activamente nuestros sistemas de clasificación para evitar sorprender a las personas con contenido dañino o explícito inesperado que no desean ver”, dice Ned Adriance, portavoz de Google, señalando su página sobre cuándo se eliminan los resultados de búsqueda. Las páginas de soporte de Google indican que es posible que las personas soliciten que se elimine la “pornografía falsa involuntaria”. Su formulario de eliminación requiere que las personas envíen manualmente URL y los términos de búsqueda que se utilizaron para encontrar el contenido. “A medida que evoluciona este espacio, estamos trabajando activamente en agregar más salvaguardias para ayudar a proteger a las personas, basándonos en los sistemas que hemos desarrollado para otros tipos de imágenes explícitas no consensuales”, agrega Adriance.

Courtney Gregoire, directora de seguridad digital de Microsoft, dice que no permiten los deepfakes y que se pueden denunciar a través de sus formularios web. “La distribución de imágenes íntimas no consensuales es una violación grave de la privacidad y la dignidad personal con efectos devastadores para las víctimas”, dice Gregoire. “Microsoft prohíbe las imágenes íntimas no consensuales en nuestras plataformas y servicios, incluyendo la solicitud de imágenes íntimas no consensuales o la promoción de la producción o redistribución de imágenes íntimas sin el consentimiento de la víctima”.

Aunque el número de videos e imágenes continúa aumentando, el impacto en las víctimas puede ser duradero. “El acoso en línea basado en el género está teniendo un efecto paralizante en la libertad de expresión de las mujeres”, dice Maddocks. Como informó WIRED, las streamers de Twitch mujeres que fueron blanco de deepfakes describen sentirse violadas, sufrir más acoso y perder tiempo, y algunas dijeron que el contenido no consensual llegó a familiares.

Flynn, la profesora de la Universidad Monash, afirma que su investigación ha encontrado “altas tasas” de problemas de salud mental, como ansiedad, depresión, autolesiones y suicidio, como resultado del abuso digital. “Los impactos potenciales en la salud mental y física de una persona, así como los impactos en su empleo, familia y vida social, pueden ser inmensos”, dice Flynn, “independientemente de si la imagen es un deepfake o ‘real'”.

Información de Wired

Autor

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *