‘Frank Sinatra’ canturreaba sobre jacuzzis en 2020, más de 20 años después de su muerte.
Puntos clave:
- La inteligencia artificial se utiliza para crear deepfakes de voces de cantantes
- Hay cuestiones legales y morales en torno al uso de la tecnología.
- Algunos músicos están comenzando a ver potencial para su uso.
Sin embargo, fue solo como un deepfake que la icónica voz de Ol ‘Blue Eyes cantó, “Ohh, es la hora de la bañera de hidromasaje” sobre una pista de acompañamiento gorjeada de piano y cuernos.
La canción, titulada Hot Tub Christmas, es producto de algoritmos de inteligencia artificial desarrollados por la empresa OpenAI de San Francisco, que cuenta con Microsoft entre sus inversores.
Producido por el sistema de inteligencia artificial de la compañía conocido como Jukebox, que puede generar nuevas canciones y voces que suenan casi exactamente como artistas reales, Hot Tub Christmas es solo uno de los miles de deepfakes de audio que los investigadores y entusiastas de la inteligencia artificial han compartido en línea.
Existen cuestiones legales y morales en torno a la tecnología, pero algunos artistas están comenzando a verla como una oportunidad para crear una imagen digital, que puede permitir que su voz viva para siempre.
Cargando
¿Qué es un deepfake de audio?
Los deepfakes son videos o audio realistas de eventos que en realidad nunca tuvieron lugar, generados por inteligencia artificial y lo que se conoce como aprendizaje automático, básicamente, algoritmos informáticos que pueden improvisar ingiriendo y recompilando una gran cantidad de datos.
La tecnología ya se ha utilizado para crear videos falsos de Tom Cruise, que hizo sonar las alarmas en los círculos de seguridad nacional.
También se utiliza a veces en abuso basado en imágenes, cuando las celebrity.land de las personas se agregan a material pornográfico sin su consentimiento.
Los deepfakes de audio, que suelen ser una recreación de la voz de alguien mediante la IA, hasta ahora han recibido menos atención.
Sin embargo, a principios de este año recreó una vieja canción de Eminem para una audiencia de 2020, y otra controvertida recreó la voz del fallecido chef Anthony Bourdain para su uso en un documental.
¿Cómo se hacen los deepfakes de audio?
El sistema Jukebox de OpenAI se entrenó ingiriendo y examinando 1,2 millones de canciones, sus letras e información correspondientes, como nombres de artistas, géneros y años de lanzamiento.
Con estos datos, Jukebox puede crear nuevas muestras de música desde cero.
Un portavoz de OpenAI dijo que Jukebox y algoritmos similares aún estaban en sus primeras etapas de desarrollo.
“Algunos podrían decir que son como estudiantes de un conservatorio que están aprendiendo a imitar a los grandes músicos del pasado”, dijeron.
Cargando
Hacer deepfake … o no
El año pasado, la compañía del rapero estadounidense Jay-Z, Roc Nation, afirmó que sus derechos de autor habían sido infringidos por un audio deepfake del magnate del hip hop publicado en un canal de YouTube llamado Voice Synthesis.
La persona anónima detrás del canal había utilizado el sistema Tacotron 2 con tecnología de inteligencia artificial desarrollado por Google para que pareciera que Jay-Z había rapeado el soliloquio “To be, or not to be” de Hamlet de Shakespeare, y cantó la canción de Billy Joel We No inició el fuego.
El reclamo de Roc Nation contra los deepfakes alegaba que el canal de YouTube había “usado ilegalmente” IA “para hacerse pasar por [their] la voz del cliente “.
El creador del canal, cuyos videos no tenían anuncios, argumentó que los clips no eran maliciosos y no generaban ingresos.
YouTube inicialmente eliminó los deepfakes, pero la plataforma propiedad de Google luego los restableció con poca explicación, destacando la turbia situación legal en torno a la recreación de la voz de alguien usando inteligencia artificial.
Cargando
¿Puedes copyright de una voz?
La forma en que suena una voz humana en particular no está protegida por la ley de derechos de autor, lo que puede dejar a los artistas en una posición precaria si alguien intenta crear un audio deepfake de ellos.
La profesora de derecho de la Universidad de Tecnología de Queensland, la Dra.Kylie Pappalardo, dijo que los titulares de los derechos de autor de las grabaciones de sonido de un artista podrían reclamar una infracción de derechos de autor si pudieran probar que sus grabaciones se copiaron en el proceso de creación de un deepfake, ya sea que alguien haya ganado dinero con ello o no.
“Entonces, si Jay-Z y su compañía no pueden probar ninguno de esos pasos, entonces sus acusaciones podrían fracasar”.
Chris Chow, director gerente de la firma de abogados de entretenimiento Creative Lawyers, dijo que la probabilidad de infracción de derechos de autor también dependía de la forma en que funcionaba un algoritmo.
“En el contexto de la música, si un sistema de IA simplemente escuchara las grabaciones de sonido sin reproducirlas, y luego se creara una grabación de sonido completamente nueva, como es el caso de algunos deepfakes, sin incluir ninguna parte de las grabaciones de sonido originales, lo haría Es muy poco probable que se haya producido una infracción de los derechos de autor de cualquiera de las grabaciones de sonido originales “, dijo Chow.
Factor de complicación
La situación era más complicada si un deepfake recién creado contenía cualquier parte de una “obra musical” protegida por derechos de autor, como una melodía existente, dijo Chow.
“Desde la perspectiva de los derechos de autor, hay complejidades y complejidades en juego que hacen que las deepfakes sean un fenómeno difícil de analizar y explicar con brevedad, y aún más difícil de demandar”, dijo.
El Dr. Pappalardo dice que si bien los límites de los derechos de autor en torno a los deepfakes de audio aún se están probando, los artistas australianos pueden tener otras protecciones para que sus voces se conviertan en deepfakes sin su permiso.
Esto se debe a que Australia reconoce los derechos morales de la interpretación de un artista como parte de la Ley de derechos de autor de 1968, y estos derechos no pueden transferirse a otra persona.
Diferencias legales en EE. UU.
Tales derechos no existen de la misma manera en los Estados Unidos, en parte debido a la libertad de expresión prometida por la Primera Enmienda de ese país.
Sin embargo, dijo el Dr. Pappalardo, las celebridades en Estados Unidos a veces pueden usar las leyes de privacidad de los Estados Unidos y las protecciones del derecho a la publicidad para detener el uso no autorizado de su imagen.
OpenAI dijo que estaba realizando una investigación sobre los derechos de propiedad intelectual y que su sistema Jukebox era solo para actividades no comerciales.
La agencia australiana de derechos de autor de la música APRA AMCOS, que representa a más de 108.000 compositores, compositores y editores, dijo que aún no tenía una posición sobre los deepfakes de audio, pero que estaba observando la tecnología de cerca.
Preocupaciones morales en torno a las voces que viven para siempre
El colega del Dr. Pappalardo, el profesor Patrik Wikstrom, dijo que los deepfakes de audio y los intentos de hacer que la voz de un artista viva para siempre eran muy problemáticos desde un punto de vista moral.
“¿Sería aceptado por los fanáticos? Eso es muy dudoso, creo. Me cuesta ver un [deepfake] canción en las listas de éxitos. La industria de la música tiene que ver con la novedad. Los artistas se recrean constantemente, pero ¿cómo sería eso si nos aferramos a la voz?
“Me sorprendería mucho si eso fuera algo importante. Creo que sería solo una curiosidad en la industria de la música. Un artista es mucho más que su voz”.
“No hay escasez de talento. No es que no tengamos cantantes y músicos talentosos que puedan comenzar nuevas carreras”.
Creando su propio ‘gemelo digital’
A pesar de la ambigüedad legal y las cuestiones éticas en torno a los deepfakes de audio, algunos están comenzando a ver potencial para el uso de la tecnología en la industria de la música.
Algunos creen que las compañías discográficas usarán deepfakes para explotar un nuevo tipo de inmortalidad comercial para sus artistas, en medio de la creciente prevalencia de cosas como conciertos de hologramas para músicos que ya no están vivos.
Ya existe una plataforma de audio deepfake llamada Marvel.ai, donde las celebridades pueden licenciar clips generados por IA de su propia voz, y los músicos están comenzando a pensar en cómo pueden controlar su propia imagen digital.
En julio, la cantante, compositora y músico electrónica estadounidense Holly Herndon lanzó un “gemelo digital” de ella misma llamado Acebo +.
Cualquiera puede subir audio a la plataforma Holly +, que convierte ese audio en una nueva composición utilizando una versión deepfake de la voz de Herndon.
El sistema se entrena utilizando varias horas de la voz cruda de Herndon según sus desarrolladores, Never Before Heard Sounds, que esperan crear herramientas similares para otros artistas en el futuro.
La muerte dirige el futuro de los deepfakes de audio
La plataforma Holly + de Herndon está gobernada por una Organización Autónoma Descentralizada, o DAO.
Es un grupo de amigos, familiares, coleccionistas y otros artistas a los que Herndon permite votar qué nuevas obras con su modelo de voz se pueden vender, incluso después de su muerte.
Herndon obtiene un 10 por ciento de las ganancias de las composiciones de Holly + que el DAO acepta que se pueden vender, para el uso de su voz.
Los derechos de catálogos de música rentables a menudo se transfieren a propiedades familiares cuando un artista muere, lo que, según Herndon, puede centrarse demasiado en “ganancias a corto plazo”, por lo que el nativo de Tennessee está adoptando un enfoque más colaborativo.
Cargando
Herndon dijo que, debido a los avances tecnológicos, creía que la creación de voces convincentes utilizando IA pronto se convertiría en una práctica estándar para artistas y celebridades.
“Al dar un paso al frente de un tema complicado, creemos que hemos encontrado una manera de permitir que las personas actúen a través de mi voz, reducir la confusión al establecer la aprobación oficial e invitar a todos a beneficiarse de los ingresos generados por su uso.
.
‘ Este Articulo puede contener información publicada por terceros, algunos detalles de este articulo fueron extraídos de la siguiente fuente: www.abc.net.au ’