Un gran poder conlleva una gran responsabilidad, un adagio popular hombre araña Serie que encaja perfectamente con la tecnología deepfake del mundo moderno.
La tecnología artificial es una bendición cuando se usa con buenos propósitos y es una pesadilla cuando se usa por razones equivocadas, como en el caso de la actriz Rashmika Mandanna, cuyo video deepfake se convirtió en un grave motivo de preocupación.
Tras el caso de Rashmika, celebridades y quién es quién del cine del sur de la India han expresado su profunda preocupación por el uso indebido generalizado de la tecnología deepfake.
Si bien va en aumento la demanda de un marco jurídico eficaz para hacer frente a la amenaza e identificar a los autores para aplicarles castigos estrictos, Sur primero informa el problema desde una perspectiva de todo el sur, incluida una idea de de qué se trata el deepfake.
De falso a deepfake
¿Alguna vez escuchaste el término “photoshopeado”? Bueno, esa es una característica básica de la manipulación de una imagen fotográfica que incluso las personas mayores, que no son expertas en tecnología, pueden hacer fácilmente en sus teléfonos inteligentes.
Varias imágenes, desde el presidente estadounidense Abraham Lincoln y el dictador ruso Joseph Stalin hasta el dictador italiano Benito Mussolini, han sido objeto de manipulación fotográfica en la que se alteran las imágenes originales.
Podría decirse que aquí es donde empezó todo y ahora, el nuevo término para una versión avanzada de falsificación se llama Tecnología Deepfake.
Akshay Kumar, un diseñador de gráficos en movimiento que también dirige una agencia creativa en Bengaluru con experiencia en el trabajo con funciones, comparte que cientos de sitios web y aplicaciones móviles ofrecen dichos servicios con el uso de tecnología de inteligencia artificial.
“Antes, para alterar o manipular una foto o un vídeo, se requería el conocimiento de un experto que conociera múltiples tecnologías de software. Ahora, se hace en sólo tres sencillos pasos en un sitio web/aplicación”, explica. Sur primero.
Akshay Kumar explica que todo solo requiere tres pasos: cargar una imagen/video de calidad, elegir fotos de celebridades y descargar el video de IA.
Relacionado: El gobierno de la Unión emite un aviso a las empresas de redes sociales sobre el video deepfake de Rashmika
Datos fácilmente disponibles
Varun, un editor de vídeo, señala que algunos sitios web cobran en función de la prestación y los servicios personalizados.
“Se cobra una cierta cantidad de dinero, como unos 10 dólares mensuales, por servicios limitados. La IA aprende de la información/datos disponibles en Internet. La IA utiliza imágenes del primer ministro Narendra Modi o cualquier otra celebridad popular, vídeos e incluso sus voces”, aclara.
Varun añade: “Sitios web como deepswap.ai.faceswap, picsi.ai, runwayml.com y muchos más hacen el trabajo con sólo unos pocos clics”.
No más diversión: el director malayalam Devan
De hecho, la aparición de los deepfake se utilizó con fines inofensivos y de entretenimiento. El término deepfake es una combinación de aprendizaje profundo y falsificación. Se ejecuta en técnicas de ejecución profunda, como redes generativas adversarias (GAN).
El director malayalam, Devan, dice: “La IA y los deepfake fueron divertidos durante un tiempo, pero sólo hasta que estas tecnologías empezaron a utilizarse con total descuido. He utilizado la tecnología AI en la película. Valatty (2023) para hacer hablar a los perros. No sabía entonces que se utilizaría para falsificar a seres humanos sin su consentimiento”.
Dice que se siente aliviado al saber que el gobierno de la Unión ha pedido a todas las plataformas de redes sociales que eliminen el contenido deepfake en un plazo de 24 horas. “Pero el impacto es mínimo ya que los daños ya se habrían producido en ese plazo”.
Devan señala que más allá de las regulaciones, algo debería cambiar dentro de la cultura. “La gente debería ser consciente de las consecuencias de infiltrarse en la privacidad de otras personas y utilizar contenidos sin permiso. Los niños deben ser educados en la propia escuela. De lo contrario, esto se propagará como un virus que nadie podrá contener”.
Mientras tanto, la actriz Manjima Mohan recurrió a X para compartir su profunda preocupación por la tecnología deepfake: “¡Esto da tanto miedo! ¡Se deben tomar medidas inmediatas! ¡De lo contrario, esto podría convertirse en una amenaza mayor en el futuro!
¡Esto da tanto miedo! ¡Se deben tomar medidas inmediatas! ¡De lo contrario, esto podría convertirse en una amenaza mayor en el futuro! https://t.co/qAyR8DZGT7
– Manjima Mohan (@mohan_manjima) 7 de noviembre de 2023
Relacionado: Rashmika destaca la necesidad de ‘abordarlo como comunidad y con urgencia’
Una tendencia peligrosa: Athulya Ravi
La actriz tamil Athulya Ravi expresó su solidaridad con Rashmika Mandanna en X.
Ella escribió: “¡El uso indebido de la inteligencia artificial y la creación de videos falsos se está volviendo peligroso día a día! Sé que es inevitable pero ¡creemos conciencia y trabajemos juntos para combatir ese mal uso de la tecnología! ¡Ya sea una celebridad o una chica común y corriente, el impacto será el mismo! ¡No te sientas deprimido y mantente fuerte, Rashmika!
¡El uso indebido de la IA y la creación de vídeos falsos se está volviendo peligroso día a día! Sé que es inevitable, pero ¡creemos conciencia y trabajemos juntos para combatir ese mal uso de la tecnología! Ya sea una celebridad o una chica común, ¡el impacto será el mismo! No te sientas deprimido y mantente fuerte… https://t.co/0bg99HUBlT
— Athulyaa Ravi (@AthulyaOfficial) 7 de noviembre de 2023
Además, la cantante Chinmayi Sripada, quien citó varios incidentes similares de Rashmika Mandanna, expresó en su cuenta X que realmente espera que haya una campaña de concientización a nivel nacional que pueda iniciarse urgentemente para educar al público en general sobre los peligros de los deepfakes para las niñas y para informar. incidentes en lugar de tomar el asunto en sus propias manos.
Hace varios meses, se publicó un vídeo de uno de nuestros actores favoritos con un avatar de IA interpretado ante Kaavaalaa de Jailer, solo que no era ella. Fue una profunda falsificación.
Nadie sabe con certeza si la Sra. Simran había dado su consentimiento de antemano para que su imagen fuera utilizada en Deep Fake AI…– Chinmayi Sripaada (@Chinmayi) 6 de noviembre de 2023
Creativo también
Si bien el deepfake es un arma de doble filo, la misma tecnología también se ha utilizado mucho por buenas razones.
Akshay Kumar cita anuncios diseñados por una importante cadena minorista de óptica. La empresa utilizó la tecnología del actor de Bollywood Ayushmann Khurrana.
Fue el siguiente nivel de marketing utilizando tecnología deepfake. Se trataba de una interacción en tiempo real entre el actor y los compradores, basada en una combinación de inteligencia artificial, reconocimiento facial y realidad aumentada.
Eso no es todo, un anuncio reciente de un productor líder de galletas de chocolate que involucra a Bollywood Badshah Shah Rukh Khan realizó una campaña creativa utilizando tecnología de inteligencia artificial.
El anuncio permitía a cualquiera subir una imagen que la reemplazaría con una persona que aparecía junto al actor. El anuncio lo decía: “¡Vamos a incluirlo en nuestro anuncio con SRK! Sabemos que también es tu fantasía”.
Lea también: Lanzado teaser de ‘Vela’ de Sunny Wayne-Shane Nigam
Tollywood reacciona
El video deepfake de Rashmika Mandanna claramente ha dejado repercusiones en la industria cinematográfica.
Además del hecho de que una herramienta de inteligencia artificial puede usarse para simular a una persona con una cara transformada, plantea algunas preguntas pertinentes sobre la seguridad de los derechos individuales en la sociedad.
Muchas celebridades de Tollywood reaccionaron al video y expresaron su profunda conmoción y preocupación por el uso indebido de la inteligencia artificial.
“Es realmente desalentador ver cómo se hace un mal uso de la tecnología y la idea de hasta dónde puede llegar esto en el futuro es aún más aterradora. Es necesario tomar medidas y aplicar algún tipo de ley para proteger a las personas que han sido y serán víctimas de esto. Fuerza para ti”, escribió Akkineni Naga Chaitanya.
Es realmente desalentador ver cómo se hace un mal uso de la tecnología y la idea de hasta dónde puede progresar esto en el futuro es aún más aterradora.
Se deben tomar medidas y se debe hacer cumplir algún tipo de ley para proteger a las personas que han sido y serán víctimas de esto. Fuerza para ustedes. https://t.co/IKIiEJtkSx-chaitanya akkineni (@chay_akkineni) 6 de noviembre de 2023
No te quedes callado: Mrunal Thakur
Mientras tanto, Mrunal Thakur, protagonista de la próxima película de Nani Hola nana, recurrió a su cuenta de Instagram y expresó su opinión sobre el video deepfake de Rashmika Mandanna.
“Qué vergüenza para la gente que recurre a tales cosas, demuestra que no les queda conciencia alguna. Gracias Rashmika Mandanna por hablar sobre el tema que hemos vislumbrado, pero muchos optaron por permanecer en silencio”.
Mrunal agregó: “Todos los días hay imágenes transformadas y videos editados de actrices flotando en Internet haciendo zoom en partes inapropiadas del cuerpo. ¿Hacia dónde nos dirigimos como comunidad y como sociedad? Puede que seamos actrices en el centro de atención, pero al final del día, cada una de nosotras es humana. ¿Por qué no hablamos de eso? No te quedes callado. ¿Ahora no es el momento?”
La tecnología deepfake tiene consecuencias de gran alcance y ha llegado demasiado lejos en nuestra sociedad moderna.
Entonces, la próxima vez que te encuentres con algo inusual y difícil de creer y que pueda parecer el posible trabajo de una IA tratando de engañarte, asegúrate de verificarlo usando las herramientas de software disponibles y, lo más importante, no las reenvíes a ningún costo. y no olvides reportarlo a las autoridades cibernéticas.
Lea también: Anasuya molesta por reseñas sesgadas sobre ‘Pushpa 2’
‘ Este Articulo puede contener información publicada por terceros, algunos detalles de este articulo fueron extraídos de la siguiente fuente: thesouthfirst.com ’