Anuncio
¿Por qué una canción llega a lo más alto de las listas mientras otra cae en picado? La anatomía de un éxito sigue siendo un misterio obstinado que los investigadores y la industria de la música en general anhelan resolver. Un nuevo estudio sugiere que el secreto para distinguir un éxito radica en el cerebro de los oyentes, y que la inteligencia artificial puede analizar señales fisiológicas para revelar ese secreto. Pero otros investigadores de la “ciencia de las canciones exitosas” aún no están listos para cantar victoria.
Investigadores de la Universidad de Graduados de Claremont utilizaron un dispositivo portátil similar a un reloj inteligente para rastrear las respuestas cardíacas de las personas que escuchan música. Usaron un algoritmo para convertir estos datos en lo que dicen es un proxy de la actividad neuronal. El monitor se centró en las reacciones asociadas con la atención y la emoción. Luego, un modelo de aprendizaje automático entrenado con estos datos pudo clasificar si una canción fue un éxito o un fracaso con un 97 por ciento de precisión. El hallazgo fue publicado en Fronteras en Inteligencia Artificial a principios de este mes.
Este estudio es el último intento, y aparentemente el más exitoso, de resolver el “problema de la ciencia de las canciones exitosas” de décadas de antigüedad, que sugiere que los métodos automatizados, como el software de aprendizaje automático, pueden anticipar si una canción se convertirá en un éxito antes de su lanzamiento. Algunos comentaristas han sugerido que esta tecnología podría reducir los costos de producción musical, seleccionar listas de reproducción públicas e incluso volver obsoletos a los jueces de programas de televisión. La supuesta precisión casi perfecta del nuevo modelo en la predicción de la popularidad de las canciones plantea la tentadora posibilidad de transformar el proceso creativo de los artistas y el proceso de distribución de los servicios de transmisión. Pero el estudio también plantea preocupaciones sobre la confiabilidad y las implicaciones éticas de fusionar inteligencia artificial y datos cerebrales.
Anuncio
“El estudio podría ser innovador, pero solo si es replicable y generalizable. Hay muchos sesgos que pueden influir en un experimento de aprendizaje automático, especialmente uno que intenta predecir las preferencias humanas”, dice Hoda Khalil, científica de datos de la Universidad de Carleton en Ontario, que ha investigado la ciencia de las canciones exitosas pero no está afiliada al estudio. “E incluso si tenemos suficiente evidencia estadística para generalizar, debemos considerar cómo se podría usar mal este modelo. La tecnología no puede adelantarse mucho a las consideraciones éticas”.
Hasta ahora, determinar qué cualidades vinculan las canciones populares ha sido más una cuestión de alquimia que de ciencia. Los expertos de la industria de la música se han basado tradicionalmente en grandes bases de datos para analizar los aspectos líricos y acústicos de las canciones exitosas, incluido su tempo, claridad y bailabilidad. Pero este método de predicción ha funcionado solo mínimamente mejor que el lanzamiento de una moneda al azar.
En 2011, los ingenieros de aprendizaje automático de la Universidad de Bristol en Inglaterra desarrollaron un “golpear la ecuación potencial” que analizó 23 características de canciones para determinar la popularidad de una canción. la ecuación pudo clasificar un golpe con una tasa de precisión del 60 por ciento. Khalil y sus colegas también han analizado datos de más de 600,000 canciones y no encontraron correlaciones significativas entre varias características acústicas y la cantidad de semanas que una canción permaneció en las listas Billboard Hot 100 o Spotify Top 50. Incluso el empresario que acuñó el término “ciencia de la canción de éxito”, Mike McCready, fue examinado más tarde por investigadores que determinaron que había simplemente no era suficiente ciencia en ese momento para apoyar su teoría.
Anuncio
Se necesitaba un nuevo enfoque, dice Paul Zak, neuroeconomista de la Universidad de Graduados de Claremont y autor principal del nuevo estudio. En lugar de centrarse en las canciones en sí, su equipo buscó explorar cómo los humanos responder a ellos “La conexión parecía casi demasiado simple. Las canciones están diseñadas para crear una experiencia emocional para las personas, y esas emociones provienen del cerebro”, dice Zak.
Él y su equipo equiparon a 33 participantes con sensores cardíacos portátiles, que utilizan ondas de luz que penetran la piel para controlar los cambios en el flujo sanguíneo, de forma similar a la forma en que los relojes inteligentes tradicionales y los rastreadores de actividad física detectan la frecuencia cardíaca. Los participantes escucharon 24 canciones, desde el megaéxito “Dance Monkey”, de Tones and I, hasta el fracaso comercial “Dekario (Pain)”, de NLE Choppa. Luego, los datos de frecuencia cardíaca de los participantes se alimentaron a través de la plataforma comercial Immersion Neuroscience, que, según los investigadores, convierte algorítmicamente la actividad cardíaca en una métrica combinada de atención y resonancia emocional conocida como “inmersión”. El equipo dice que estas señales de inmersión pudieron predecir canciones de éxito con una precisión moderada, incluso sin análisis de aprendizaje automático: las canciones de éxito indujeron una mayor inmersión. Por el contrario, la clasificación subjetiva de los participantes sobre cuánto disfrutaban de una canción no era un indicador preciso de su popularidad pública final.
Zak, quien cofundó Immersion Neuroscience y actualmente se desempeña como su director de inmersión, explica la razón detrás del uso de datos cardíacos como un proxy para la respuesta neuronal. Él dice que una fuerte respuesta emocional hace que el cerebro sintetice la oxitocina neuroquímica “para sentirse bien”, intensificando la actividad en el nervio vago, que conecta el cerebro, el intestino y el corazón.
Anuncio
No todos están de acuerdo. “El estudio depende de la medida neurofisiológica de la inmersión, pero esta medida necesita una mayor validación científica”, dice Stefan Koelsch, neurocientífico de la Universidad de Bergen en Noruega e investigador invitado en el Instituto Max Planck de Ciencias Cognitivas y Cerebrales Humanas en Leipzig. Alemania. Koelsch también señala que, aunque el estudio citó varios artículos para respaldar la validez de la “inmersión”, muchos de ellos fueron coautores de Zak y no todos se publicaron en revistas revisadas por pares.
Esta no sería la primera vez que los científicos usan señales cerebrales para predecir la popularidad de una canción. En 2011, investigadores de la Universidad de Emory utilizaron imágenes de resonancia magnética funcional (fMRI), que mide la actividad cerebral al detectar cambios en el flujo sanguíneo, para predecir el éxito o el fracaso comercial de las canciones. Encontraron que respuestas débiles en el núcleo accumbens, la región que regula cómo nuestro cerebro procesa la motivación y la recompensa, predijo con precisión el 90 por ciento de las canciones que vendieron menos de 20 000 copias. Pero a pesar de que esta técnica fue buena para identificar la música menos exitosa, solo pudo predecir las canciones exitosas el 30 por ciento de las veces.
El enfoque de resonancia magnética funcional, además de tener un poder predictivo más bajo, es algo poco práctico. Una sesión típica de fMRI dura al menos 45 minutos y requiere que los participantes soporten la incomodidad de estar confinados en una cámara fría y estéril que puede hacer que algunas personas se sientan claustrofóbicas. Entonces, si un reloj inteligente portátil y liviano realmente puede medir la actividad neuronal de un individuo, puede revolucionar la forma en que los investigadores abordan el campo de la ciencia de las canciones exitosas.
Anuncio
También puede ser demasiado bueno para ser verdad, dice Koelsch. Basado en su investigación previa sobre el placer musical y la actividad cerebral, es escéptico no solo de la inmersión sino también de la idea misma de que los modelos de aprendizaje automático puedan capturar los intrincados matices que hacen que una canción sea un éxito. Por ejemplo, en 2019, Koelsch y sus colegas realizaron su propio estudio del disfrute musical. Involucró el uso de aprendizaje automático para determinar qué tan predecibles eran los acordes de una canción y escaneos fMRI para estudiar cómo reaccionaba el cerebro de los participantes a esas canciones. Aunque el estudio inicial descubrió una relación entre la previsibilidad y la respuesta emocional, desde entonces Koelsch no ha podido replicar esos hallazgos. “Es muy difícil encontrar indicadores fiables incluso para las diferencias más crudas entre la música agradable y la desagradable, y mucho menos para las sutiles diferencias que hacen que una buena pieza musical se convierta en un éxito”, dice. “Así que soy escéptico”. Al momento de la publicación, Zak no ha respondido a las solicitudes de comentarios sobre las críticas a su reciente estudio.
Sin embargo, si estos resultados recientes se replican con éxito, el nuevo modelo podría tener un enorme potencial comercial. Para Zak, su principal utilidad no radica necesariamente en la creación de nuevas canciones, sino en la clasificación eficiente de la amplia gama de canciones existentes. Según él, el estudio se originó cuando un servicio de transmisión de música se acercó a su grupo. Zak dice que el equipo del transmisor se había sentido abrumado por el volumen de nuevas canciones lanzadas diariamente (decenas de miles) y trató de identificar las pistas que realmente resonarían entre los oyentes (sin tener que analizar manualmente cada una).
Con el nuevo modelo, “se podría enviar el entretenimiento adecuado a las audiencias en función de su neurofisiología”, dijo Zak en un comunicado. presione soltar para el estudio. “En lugar de ofrecerles cientos de opciones, se les puede dar solo dos o tres, lo que les facilita y agiliza la elección de la música que disfrutarán”. Concibe la tecnología como un servicio opcional en el que los datos se anonimizan y solo se comparten si los usuarios firman un formulario de consentimiento.
Anuncio
“A medida que los dispositivos portátiles se vuelven más baratos y comunes, esta tecnología puede monitorear pasivamente su actividad cerebral y recomendar música, películas o programas de televisión en función de esos datos”, dice Zak. “¿Quién no querría eso?”
Pero incluso si este enfoque funciona, la perspectiva de combinar la lectura de la mente y el aprendizaje automático para predecir éxitos sigue plagada de dilemas éticos. “Si entrenamos un modelo de aprendizaje automático para comprender cómo los diferentes tipos de música influyen en la actividad cerebral, ¿no podría explotarse fácilmente para manipular las emociones de las personas?” dice Khalil. Ella señala que confiar únicamente en un enfoque de aceptación para dichos servicios a menudo no protege a los usuarios de las violaciones de la privacidad. “Muchos usuarios simplemente aceptan los términos y condiciones sin siquiera leerlos”, dice Khalil. “Eso abre la puerta para que los datos se compartan y abusen involuntariamente”.
Nuestras canciones favoritas pueden no parecer datos íntimos y personales, pero pueden ofrecer una ventana al estado de ánimo, los gustos y los hábitos de una persona. Y cuando estos detalles se combinan con datos personalizados sobre la actividad cerebral, nos vemos obligados a considerar cuánta información estamos dispuestos a ceder para obtener la lista de reproducción perfecta.
‘ Este Articulo puede contener información publicada por terceros, algunos detalles de este articulo fueron extraídos de la siguiente fuente: www.scientificamerican.com ’