Language: EN | ES

La Academia de la Grabación e IBM llevarán la IA generativa a los Grammy de 2024

Suscríbete al newsletter de Digiday en Español aquí para recibir las últimas noticias sobre el sector de marcas y la industria del marketing.

Durante la gala de los Grammy 2024, un nombre aspira a tocar una fibra sensible diferente: Watson.

En lo que se conoce como “la noche más grande de la música”, la Academia de la Grabación e IBM utilizarán IA generativa para crear contenidos para las redes sociales de los Grammy y ofrecer a los aficionados de la música una forma de interactuar con contenidos generados por IA, según han informado las empresas a Digiday.

La nueva herramienta “AI Stories with IBM Watsonx” creará textos, imágenes, animaciones y vídeos basados en diversas fuentes y noticias en tiempo real antes y durante los premios. Además de que el equipo editorial de la Academia de la Grabación utilice AI Stories, los fans también podrán utilizar un widget de IA en la página web de los Grammy para generar texto que luego se integrará con recursos visuales preexistentes. El sitio web de los Grammy también ofrecerá una retransmisión en directo de los premios el 4 de febrero y otra cobertura del día de la gala.

También está previsto utilizar AI Stories para crear contenidos que compartan información sobre más de 100 artistas nominados y ganadores de los Grammy. Los datos de entrenamiento proceden de los contenidos de la Academia de la Grabación y otros datos históricos, páginas de artistas, perfiles de Wikipedia y otros contenidos públicos, como artículos sobre música y los Grammy.

“La realidad es que tenemos millones de artículos en nuestro sistema de contenidos”, dijo Ray Starck, vicepresidente de estrategia digital de The Recording Academy. “Una cosa es hacer una búsqueda y ver algunos resultados, pero también es ser capaz de mirar ese contenido y tal vez pivotar a partir de una oportunidad para algo que podría ser un tema candente en este momento dentro de la industria. Todo se mueve muy rápido”.

En una entrevista con Digiday, Starck dijo que el objetivo es experimentar con la IA y, al mismo tiempo, producir más contenido en tiempo real durante los Grammy de 2024. Incluso antes de hablar con IBM sobre el uso de Watson, la Academia ya estaba desarrollando ideas de productos para aprovechar la IA para la creación de contenidos y, al mismo tiempo, proteger su propiedad intelectual. La Academia de la Grabación e IBM también se asegurarán de que haya humanos en el bucle para garantizar la precisión y realizar actualizaciones basadas en noticias de última hora durante la ceremonia.

Starck ve el uso de la IA generativa como algo aditivo para mejorar la forma en que el equipo editorial investiga temas y crea contenidos. Y en lugar de permitir que los usuarios utilicen cualquier indicación, la Academia desarrolló indicaciones pregeneradas que también ayudan a limitar los riesgos relacionados con las salidas o los problemas de propiedad intelectual.

“Nuestra principal estrategia de contenidos fue echar un vistazo a todo el gran contenido que ha estado dentro de nuestro sistema de gestión de contenidos, mirar hacia atrás en nuestra historia, nuestros registros [y] nuestros datos de premios”, dijo Starck.

La experimentación se produce en un momento en que la industria musical se enfrenta al impacto potencial de la IA generativa en artistas y sellos discográficos. El año pasado, Universal Music y otros dos editores de música presentaron una demanda contra Anthropic alegando que la startup de IA violaba las leyes de derechos de autor al entrenar sus modelos de IA con letras de canciones protegidas por derechos de autor y distribuirlas en respuestas a través de su chatbot Claude.

El uso de GenAI para los contenidos de los Grammy se produce menos de un año después de que la Academia de la Grabación anunciara nuevas normas para la música generada por IA. El verano pasado, el CEO de la Academia de la Grabación, Harvey Mason Jr., dijo que los artistas que utilizan IA -por ejemplo, para una voz o un instrumento- podrían ser elegibles para la nominación si pueden demostrar que un humano todavía “contribuyó creativamente en las categorías apropiadas.”

Los esfuerzos de IA son la última evolución de una asociación de siete años entre la Academia de la Grabación e IBM, que utilizará el evento para promocionar las diversas ofertas de WatsonX. También es la primera vez que la Academia utiliza un gran modelo lingüístico para crear contenidos generados por IA. Aunque IBM no quiso revelar los términos del acuerdo, Noah Syken, vicepresidente de deportes y entretenimiento de IBM, dijo que la asociación incluye inversiones monetarias “que se hacen en ambos sentidos”.

“En realidad se trata de cómo entendemos el compromiso que intentamos crear con una persona de 50 años como yo, o con una de 18”, dijo Syken a Digiday. “¿Cuál es el lenguaje que va a resonar con ellos? ¿Y cómo entrenamos el modelo para que entienda el contexto en el que se ofrece la información?”.

Utilizando la plataforma WatsonX de IBM y el modelo de lenguaje de código abierto Llama 2 de Meta, AI Stories se desarrolló con un proceso llamado generación de aumento de recuperación (RAG) que ayuda a guiar el modelo de IA hacia el uso de datos de fuentes centradas en la música. IBM también utilizó un proceso llamado aprendizaje de pocos disparos, que ayuda a entrenar el modelo de IA con una pequeña cantidad de datos. Como parte del entrenamiento del modelo de IA para proporcionar información precisa, IBM también lo entrenó para asegurarse de que AI Stories genera pronombres precisos para cada artista en función de cómo se identifican.

El reto de crear una herramienta para los Grammy era cómo aprovechar la base de conocimientos de Llama 2 y la información específica de la música para crear una función que fuera creativa y libre, pero precisa. Aaron Baughman, ingeniero e inventor en IBM, ofreció una analogía líquida para describir el proceso de priorizar las fuentes de datos con el enfoque RAG en función de los tipos de contenido que quieren que genere un modelo de IA.

“Piense en ello como si varios cubos se llenaran de agua. Primero intentaríamos llenar el cubo con datos basados en hechos”, explica Baughman a Digiday. “Si aún queda espacio, verteríamos más información de Wikipedia o algo así. Y si aún quedan más fichas para el contexto, echaríamos más agua”.

https://digiday.com/?p=533495

More in Español

target

Como parte de un enfoque de bienestar, Target incorpora nuevas marcas de café ‘superlatte’

Suscríbete al newsletter de Digiday en Español aquí para recibir las últimas noticias sobre el sector de marcas y la industria del marketing. Esta historia fue reportada por primera vez en Modern Retail una publicación hermana de Digiday en Español. Tras meses retocando el aspecto y el coste de sus productos, dos marcas de café que promueven […]

La MLS expande junto a Messi su programación en Apple TV a la conquista de la audiencia hispana

Suscríbete al newsletter de Digiday en Español aquí para recibir las últimas noticias sobre el sector de marcas y la industria del marketing. Leo Messi está apunto de estrenar su primera temporada completa en la MLS, el capitán argentino, quien llegó a EE.UU. a mediados de 2023, le dio un giro 360 al Inter de Miami, […]

Animation of a person scrolling on their phone.

Cómo Urban Skin Rx planea aumentar su base de clientes Gen-Z y Gen-Alpha

Suscríbete al newsletter de Digiday en Español aquí para recibir las últimas noticias sobre el sector de marcas y la industria del marketing. Esta historia fue reportada por primera vez en Glossy, una publicación hermana de Digiday en Español. La marca de cuidado de la piel Urban Skin Rx quiere ampliar su base de clientes Gen-Z […]