Google et Universal Music discuteraient de la musique générée par l'IA

Google et Universal Music discuteraient de la musique générée par l'IA

09 août 2023

Google et Universal Music (ainsi que d'autres sociétés de musique) sont peut-être en négociation pour autoriser les voix et les mélodies d'artistes pour des chansons générées par l'intelligence artificielle (IA).

Ce développement, initialement rapporté par le Financial Times, émerge alors que l'industrie de la musique fait face à de nouveaux défis et possibilités de monétiser les chansons deepfake générées par l'IA.

rapporté

Négocier la musique générée par l'IA

La technologie capable de reproduire de manière convaincante les voix d'artistes établis est une préoccupation urgente pour les entreprises musicales.

En réponse, Google et Universal Music pourraient être en pourparlers précoces pour permettre aux fans de créer légalement pistes utilisant des voix générées par l'IA tout en payant les propriétaires légitimes des droits d'auteur. Les artistes auraient la possibilité de participer.

Avec des chansons deepfake imitant déjà des voix comme Frank Sinatra ou Johnny Cash, le problème n'est plus une menace lointaine mais une réalité actuelle. L'objectif serait maintenant de l'intégrer dans un cadre monétisable.

Des artistes tels que Drake et Taylor Swift ont été "présentés" dans des chansons générées par l'IA qui sont devenues virales.

A Fine frontière entre innovation et contrefaçon

Alors que l'IA gagne du terrain dans l'industrie de la musique, certains musiciens ont exprimé leur inquiétude quant au fait que leur travail pourrait être dilué par de fausses versions de leurs chansons et voix.

D'autres, comme l'artiste électronique Grimes, ont adopté la technologie.

Pour Google, la création d'un produit musical alimenté par l'IA pourrait aider l'entreprise à rivaliser avec des concurrents - comme Meta - qui développent également des produits audio IA.

Cependant, la question des licences et des droits d'auteur à l'ère de la musique générée par l'IA est beaucoup plus complexe.

Ce sera un équilibre délicat pour les entreprises entre le respect des droits des artistes, repousser les limites de l'innovation en IA et réaliser des bénéfices.

MusicLM : IA de haute qualité - Musique générée à partir de texte

Par ailleurs, Google a présenté MusicLM dans janvier. Les utilisateurs pouvaient s'inscrire pour tester MusicLM dans la AI Test Kitchen en mai.

janvierAI Test Kitchen

En saisissant simplement des invites telles que "jazz soul pour un dîner", les utilisateurs de l'outil expérimental peut explorer deux versions d'une chanson et voter sur leur préférence, aidant à affiner le modèle.

Les capacités du modèle vont plus loin en ce sens qu'il peut être conditionné à la fois sur le texte et la mélodie, transformant les airs sifflés et fredonnés selon le style décrit dans une légende de texte.

Bien que MusicLM soit un outil expérimental pour générer de la musique synthétique pour l'inspiration, il a certaines contraintes.

Les requêtes spécifiques mentionnant des artistes ou incluant des voix ne pas être produit, et les utilisateurs sont encouragés à fournir des commentaires si des problèmes surviennent avec l'audio généré.

C'est peut-être là qu'un partenariat avec Universal Music entre en jeu. Warner Music, un autre label important, pourrait également être en pourparlers avec Google pour des raisons similaires.

AudioCraft de Meta

Début août, Meta a annoncé AudioCraft comme un nouvel outil pour les musiciens et les concepteurs sonores, potentiellement façonner la façon dont nous produisons et consommons de l'audio et de la musique.

a annoncé

AudioCraft se compose de trois modèles principaux : MusicGen, AudioGen et EnCodec. MusicGen, soutenu par de la musique sous licence Meta, facilite la création musicale à partir d'invites de texte. AudioGen, formé aux effets sonores publics, donne vie au texte à travers des sons comme un chien qui aboie ou des voitures qui klaxonnent.

L'entreprise offre ces modèles en open source, donnant accès aux chercheurs et aux praticiens pour former leurs modèles pour la première fois. Cette décision vise à faire avancer le domaine de l'audio et de la musique générés par l'IA.

L'enthousiasme autour de l'IA générative a augmenté, mais l'audio a pris du retard. L'audio haute fidélité nécessite la modélisation de signaux et de modèles complexes, ce qui rend la génération de musique incroyablement difficile.

Meta espère que la famille AudioCraft simplifiera ce processus. Sa structure ouverte pourrait permettre aux individus de créer de meilleurs générateurs de sons, algorithmes de compression ou générateurs de musique.

L'avenir de la musique générée par l'IA

Les négociations et développements récents de Google et Meta marquent des points importants fait un bond en avant dans l'IA, ouvrant des portes aux professionnels de la musique, aux passionnés et aux créateurs de contenu pour explorer de nouveaux horizons créatifs.

Il semble clair que les grandes entreprises technologiques veulent être les premières à lancer des plateformes conviviales qui traduisent les idées en réalité musicale.

Le développement laisse également entrevoir l'orientation future de l'IA dans la musique , offrant un aperçu des opportunités et des risques potentiels.


Image sélectionnée : Sundry Photography/Shutterstock

Image sélectionnée : Sundry Photography/Shutterstock