“Nuestro trabajo es crear herramientas para ayudar a los artistas, a los locutores y a los ingenieros a hacer mejor su trabajo.
“Y mientras construimos este tipo de herramientas e integramos este tipo de tecnología, también tenemos que asegurarnos de que somos éticos en lo que estamos armando”, dijo el presidente de SMPTE, Renard Jenkins, durante una sesión reciente centrada en Ética y regulación en IA.
En esta conversación participaron representantes del Grupo de trabajo conjunto sobre inteligencia artificial y vídeo de la SMPTE, que compartieron sus perspectivas. Puedes ver el vídeo completo a continuación o seguir leyendo para conocer los aspectos más destacados.
El grupo de trabajo se formó en 2020. Yves Bergquist, director de Inteligencia Artificial y Neurociencia en los Medios de ETC dijo que el grupo encontró “tanto un problema como una oportunidad en… todas las cuestiones éticas y legales en torno al despliegue de la inteligencia artificial en la industria de los medios”.
Jenkins enfatizó que la industria de los medios de comunicación “son consumidores de esta tecnología”. Si bien eso por sí solo es un punto clave para el debate ético, dijo, “también tenemos una gran responsabilidad en nosotros mismos porque podemos llegar a millones de personas con un solo programa o un solo contenido”.
Bergquist, quien también se desempeña como director ejecutivo de Corto AIdijo: “Me encanta observar la inteligencia artificial desde dentro de la industria de los medios porque la industria de los medios es “Una industria tecnológica.”
Explica que M&E “tiene una trayectoria enorme en la combinación de la creatividad humana con la tecnología. Tampoco es un productor de inteligencia artificial. Es un consumidor de productos de inteligencia artificial.
“Eso realmente aporta cierta sobriedad a la hora de analizar la tecnología. Además, es una industria tecnológica muy, muy consciente de la sociedad”.
Bergquist también señaló que la omnipresencia de la tecnología ha tenido “algunas consecuencias e impactos muy importantes en la forma en que vivimos”. Por lo tanto, dijo, “la cuestión ética ahora tiene que estar presente en cada conversación sobre tecnología”.
Las buenas noticias
Sin embargo, Bergquist afirmó que “la práctica de una IA ética es idéntica a la práctica de una IA buena y metodológicamente sólida. Es necesario conocer los sesgos en los datos y contar con un equipo cultural e intelectualmente diverso”.
De hecho, dijo, “aún no he visto un requisito de IA ética que no sea también un requisito de práctica rigurosa de IA”.
Para ser ético e intelectualmente riguroso, dijo Bergquist, “es necesario comprender el impacto… de sus modelos en su organización, en la sociedad en general”.
Frederick Walls, miembro de AMD, estuvo de acuerdo y agregó: “La transparencia y la explicabilidad… son parte integral de garantizar que su modelo haga lo que se supone que debe hacer”.
Comprender el sesgo en la IA
“La cuestión de la transparencia es fundamental”, afirmó Bergquist. “También es algo para lo que tenemos herramientas que podemos abordar”.
Citó el libro “Trustworthy Machine Learning” del investigador de IBM Kush R. Varshney (descargable en formato PDF y encontrado aquí), que establece el “modelo de etiqueta de alimentos” para detallar elementos importantes como “cómo se entrenaron esos modelos, con qué datos se entrenaron, qué sesgos se identificaron en el entrenamiento, cuáles son las variables que más participan en el modelo”.
Bergquist también dijo que los investigadores de Google han propuesto “tarjetas modelo” para combinar con los LLM, que presentan “metadatos sobre cómo se entrenó el modelo, cuántos datos se entrenaron, cómo funciona, qué metodologías se incorporan al modelo y en qué sesgos se basan los datos”.
Después de todo, Jenkins señaló: “Como sabemos, es necesario introducir algún sesgo en el modelo porque, de lo contrario, puede descontrolarse. Y tenemos que pensar en el sesgo… esencialmente desde su definición original, que es mostrar una exclusión”.
Walls agregó: “Hay fuentes de sesgo en todas partes en un modelo de IA, y no creo que haya una manera de eliminarlas realmente.
“Pero creo que definitivamente quienes están implementando un modelo tienen la responsabilidad de comprender cuáles son esos sesgos y de dónde pueden provenir”. También señaló que la documentación (registro) también es fundamental.
El elemento humano y la política
Bergquist enfatizó que la IA “no es independiente de los humanos. Está construida por humanos y refleja los sesgos humanos”.
Él cree que debemos reducir el bombo publicitario de Silicon Valley, que afirma que “la IA es el tipo de tecnología mágica que va a apoderarse de nuestras vidas”.
Esta publicidad engañosa es perjudicial para el progreso porque, dijo Bergquist, “el ochenta y siete por ciento de todas las iniciativas de IA en grandes organizaciones fracasan porque la gente piensa que es mágico y [will] “Resolver todos sus problemas, o piensan que es realmente completamente incapaz y no puede hacer nada y, por lo tanto, no debería ser considerado”.
Jenkins dijo: “La mayoría de las veces, la razón por la que ese tipo de cosas fallan es porque las personas no se han tomado el tiempo de crear la infraestructura adecuada o de determinar quién debería ser la persona adecuada para liderar ese tipo de cosas internamente”.
Walls recomendó que las organizaciones comiencen con El marco de gestión de riesgos de IA del NIST cuando comiencen a desarrollar “una estrategia corporativa en torno a la mitigación de riesgos con el uso de IA”. La describió como “una herramienta excelente” y reconoció que las políticas diferirán entre las organizaciones.
También hizo referencia C2PAuna organización “que está trabajando en estándares relacionados con garantizar que se pueda verificar la procedencia y autenticidad del contenido”.
Jenkins sugirió que Informe de inteligencia artificial de la propia SMPTE Proporciona “una buena base” o quizás “una hoja de ruta” para que las organizaciones creen sus propios grupos de trabajo de IA para determinar políticas internas.
La segunda parte de este artículo se puede encontrar aquí: Una buena IA es una IA ética: todos los que trabajan en M&E deben experimentar
¿Por qué suscribirse a? El ángulo?
Información exclusiva: Obtenga resúmenes editoriales del contenido de vanguardia que más le importa.
Acceso detrás de escena: Eche un vistazo detrás de escena con preguntas y respuestas en profundidad con expertos de la industria y líderes de opinión.
Acceso sin igual: NAB Amplify es su centro digital de tecnología, tendencias y conocimientos que no están disponibles en ningún otro lugar.
Únase a una comunidad de profesionales tan apasionados como usted por el futuro del cine, la televisión y la narración digital. ¡Suscríbete a The Angle hoy!
‘ Este Articulo puede contener información publicada por terceros, algunos detalles de este articulo fueron extraídos de la siguiente fuente: amplify.nabshow.com ’