A medida que las herramientas de IA se vuelven más sofisticadas y accesibles, también lo ha hecho una de sus peores aplicaciones: la pornografía deepfake no consentida. Aunque gran parte de este contenido se aloja en sitios dedicados, cada vez se cuela más en las plataformas sociales. Hoy, el Consejo de Supervisión de Meta ha anunciado que se está ocupando de casos que podrían obligar a la empresa a ajustar cuentas sobre cómo trata la pornografía deepfake.
Dos casos
El Consejo, que es un organismo independiente que puede emitir tanto decisiones vinculantes como recomendaciones a Meta, se centrará en dos casos de porno deepfake, ambos relacionados con celebridades cuyas imágenes fueron alteradas para crear contenido explícito. En uno de esos casos, relativo a una persona famosa estadounidense cuyo nombre se desconoce, se retiró de Facebook la pornografía falsa en la que aparecía, después de que ya se hubiera señalado en otros lugares de la plataforma. La publicación también se añadió al Media Matching Service Bank, de Meta, un sistema automatizado que encuentra y elimina imágenes que ya han sido marcadas como contrarias a las políticas de Meta, para mantenerlas así fuera de la plataforma.
En el otro caso, una imagen falsa de una celebridad india, también sin nombre, permaneció en Instagram incluso después de que los usuarios la denunciaran por infringir las políticas de Meta sobre pornografía. El deepfake de la celebridad india fue retirado una vez que el Consejo se hizo cargo del caso, según el anuncio.
En ambos casos, las imágenes se retiraron por infringir las políticas de Meta sobre acoso e intimidación, y no entraban dentro sus políticas sobre pornografía. Meta, sin embargo, prohíbe “contenidos que muestren, amenacen o promuevan la violencia sexual, la agresión sexual o la explotación sexual” y no permite anuncios pornográficos o sexualmente explícitos en sus plataformas. En una entrada de blog publicada junto con el anuncio de los casos, Meta dijo que eliminó las publicaciones por violar la parte de “photoshops o dibujos sexualizados despectivos” de su política de intimidación y acoso, y que también “determinó que violaba la política de desnudez y actividad sexual [de Meta] para adultos”.
La dificultad de detectar porno deepfake
EL Consejo espera utilizar estos casos para examinar las políticas y los sistemas de Meta para detectar y eliminar la pornografía deepfake no consentida, según Julie Owono, miembro del Consejo de Supervisión. “Ya puedo decir provisionalmente que el principal problema es probablemente la detección”, declara. “La detección no es tan perfecta o, al menos, no es tan eficiente como desearíamos”.
Meta también se enfrenta desde hace tiempo a críticas por su enfoque a la hora de moderar contenidos fuera de Estados Unidos y Europa Occidental. Para este caso, el Consejo ya expresó su preocupación por el hecho de que la celebridad estadounidense y la celebridad india recibieran un trato diferente en respuesta a sus deepfakes aparecidos en la plataforma.
“Sabemos que Meta es más rápida y eficaz a la hora de moderar contenidos en algunos mercados e idiomas que en otros. Al tomar un caso de los Estados Unidos y otro de la India, queremos ver si Meta está protegiendo a todas las mujeres a nivel mundial de una manera justa”, destaca la copresidenta del Consejo de Supervisión, Helle Thorning-Schmidt. “Es fundamental que este asunto se aborde, y el Consejo espera con interés explorar si las políticas de Meta y las prácticas de aplicación son eficaces para hacer frente a este problema.”
Un fenómeno que crece y preocupa
EL Consejo se negó a nombrar a las celebridades indias y estadounidenses cuyas imágenes motivaron las quejas, pero las deepfakes pornográficas de celebridades se han convertido en un fenómeno desenfrenado. Una reciente investigación de Channel 4 descubrió deepfakes de más de 4,000 famosos. En enero, un deepfake no consentido de Taylor Swift se hizo viral en Facebook, Instagram y, sobre todo, X, donde una publicación obtuvo más de 45 millones de visitas. X recurrió a restringir el nombre de la cantante de su función de búsqueda, pero las publicaciones siguieron circulando. Y mientras las plataformas se esforzaban por eliminar el contenido, fueron los fans de Swift quienes denunciaron y bloquearon las cuentas que compartían la imagen. En marzo, NBC News informó de que los anuncios de una aplicación de deepfakes que circulaban por Facebook e Instagram mostraban imágenes de una Jenna Ortega desnuda siendo menor de edad. En la India, los deepfakes se han dirigido a importantes actrices de Bollywood, como Priyanka Chopra Jonas, Alia Bhatt y Rashmika Mandann.
Desde que surgieron los deepfake hace media década, las investigaciones han revelado que la pornografía deepfake no consentida se dirige abrumadoramente a las mujeres, y no ha dejado de crecer. El año pasado, un informe de WIRED reveló que se habían subido 244,625 videos a los 35 principales sitios de alojamiento de pornografía deepfake, más que en cualquier año anterior. Y no se necesita mucho para hacer un deepfake. En 2019, VICE descubrió que solo 15 segundos de una historia de Instagram son suficientes para crear un deepfake fiable, y la tecnología se ha vuelto más accesible. El mes pasado, una escuela de Beverly Hills expulsó a cinco estudiantes que habían hecho deepfakes no consentidos de 16 de sus compañeros.
Aumenta el acoso
Según Thorning-Schmidt, “la pornografía deepfake es una causa creciente de acoso por razón de género en internet y se utiliza cada vez más para atacar, silenciar e intimidar a las mujeres dentro y fuera de la red”, y “múltiples estudios muestran que la pornografía deepfake se dirige abrumadoramente a las mujeres. Este contenido puede ser extremadamente perjudicial para las víctimas, y las herramientas utilizadas para crearlo son cada vez más sofisticadas y accesibles.”
En enero, los legisladores presentaron la Ley Disrupt Explicit Forged Images and Non-Consensual Edits, o Ley DEFIANCE, que permitiría a las personas cuyas imágenes se utilizaron en porno deepfake, demandar si pudieran demostrar que se hizo sin su consentimiento. La congresista Alexandria Ocasio-Cortez, que patrocinó el proyecto de ley, fue ella misma objeto de pornografía deepfake a principios de este año.
“Las víctimas de deepfakes pornográficos no consentidos han esperado demasiado tiempo para que la legislación federal responsabilice a los perpetradores”, denunció Ocasio-Cortez en un comunicado en ese momento. “A medida que los deepfakes se vuelven más fáciles de acceder y crear (el 96% de los videos deepfake que circulan en línea son pornografía no consentida), el Congreso necesita actuar para mostrar a las víctimas que no se quedarán atrás.”
Artículo publicado originalmente en WIRED. Adaptado por Mauricio Serfatty Godoy.
‘ Este Articulo puede contener información publicada por terceros, algunos detalles de este articulo fueron extraídos de la siguiente fuente: es.wired.com ’