Según se informa, YouTube ha eliminado más de 1.000 vídeos publicitarios fraudulentos que presentaban anuncios, creados mediante el uso de tecnología de inteligencia artificial, para estafar a los usuarios. La plataforma propiedad de Google dijo que ha estado invirtiendo recursos para combatir estos anuncios fraudulentos de celebridades impulsados por inteligencia artificial.
Tras una investigación realizada por 404 Media, YouTube eliminó más de 1000 vídeos asociados con una red publicitaria que utilizaba inteligencia artificial para crear anuncios engañosos en los que aparecían personalidades famosas como Taylor Swift, Steve Harvey y Joe Rogan promocionando estafas contra Medicare.
Según el informe, estos videos habían acumulado casi 200 millones de visitas y fueron fuente de quejas frecuentes tanto de usuarios como de celebridades.
YouTube dijo que era plenamente consciente del problema y que estaba trabajando activamente para evitar la proliferación de deepfakes de celebridades.
YouTube elimina otro contenido generado por IA
A principios de este mes, YouTube anunció sus planes de tomar medidas contra el contenido generado por IA que retrata de manera realista a menores fallecidos o víctimas de eventos violentos bien documentados. La plataforma ha actualizado sus políticas de acoso y ciberbullying al respecto.
Los informes sugirieron que algunos creadores de contenido estaban utilizando tecnología de inteligencia artificial para recrear la imagen de niños fallecidos o desaparecidos, dándoles una “voz” infantil para describir los detalles de sus muertes.
YouTube ha dejado en claro que cualquier contenido que viole esta política será eliminado y los creadores serán notificados por correo electrónico.
Los deepfakes sexualmente explícitos de Taylor Swift
Mientras tanto, los deepfakes sexualmente explícitos con Taylor Swift se volvieron virales en X (anteriormente Twitter). Una sola publicación obtuvo más de 45 millones de visitas y 24.000 reenvíos antes de ser eliminada, después de haber estado activa durante aproximadamente 17 horas.
Un informe de 404 Media reveló que el origen de estas imágenes podría remontarse a un grupo de Telegram donde se comparten imágenes explícitas de mujeres generadas por IA.
Según la empresa de ciberseguridad Deeptrace, casi el 96% de los deepfakes son de naturaleza pornográfica y la inmensa mayoría de ellos están dirigidos a mujeres.
Tras una investigación realizada por 404 Media, YouTube eliminó más de 1000 vídeos asociados con una red publicitaria que utilizaba inteligencia artificial para crear anuncios engañosos en los que aparecían personalidades famosas como Taylor Swift, Steve Harvey y Joe Rogan promocionando estafas contra Medicare.
Según el informe, estos videos habían acumulado casi 200 millones de visitas y fueron fuente de quejas frecuentes tanto de usuarios como de celebridades.
YouTube dijo que era plenamente consciente del problema y que estaba trabajando activamente para evitar la proliferación de deepfakes de celebridades.
YouTube elimina otro contenido generado por IA
A principios de este mes, YouTube anunció sus planes de tomar medidas contra el contenido generado por IA que retrata de manera realista a menores fallecidos o víctimas de eventos violentos bien documentados. La plataforma ha actualizado sus políticas de acoso y ciberbullying al respecto.
Los informes sugirieron que algunos creadores de contenido estaban utilizando tecnología de inteligencia artificial para recrear la imagen de niños fallecidos o desaparecidos, dándoles una “voz” infantil para describir los detalles de sus muertes.
YouTube ha dejado en claro que cualquier contenido que viole esta política será eliminado y los creadores serán notificados por correo electrónico.
Expandir
Los deepfakes sexualmente explícitos de Taylor Swift
Mientras tanto, los deepfakes sexualmente explícitos con Taylor Swift se volvieron virales en X (anteriormente Twitter). Una sola publicación obtuvo más de 45 millones de visitas y 24.000 reenvíos antes de ser eliminada, después de haber estado activa durante aproximadamente 17 horas.
Un informe de 404 Media reveló que el origen de estas imágenes podría remontarse a un grupo de Telegram donde se comparten imágenes explícitas de mujeres generadas por IA.
Según la empresa de ciberseguridad Deeptrace, casi el 96% de los deepfakes son de naturaleza pornográfica y la inmensa mayoría de ellos están dirigidos a mujeres.
‘ Este Articulo puede contener información publicada por terceros, algunos detalles de este articulo fueron extraídos de la siguiente fuente: timesofindia.indiatimes.com ’
ADVERTISEMENT