En medio del caos causado por las imágenes falsas, ahora también tenemos que lidiar con la amenaza de la música falsa.

Las nuevas canciones de artistas famosos se están volviendo virales en las redes sociales, lo que normalmente no es un problema, excepto cuando un clon de voz es el que canta. Si bien fue uno de los últimos medios en resistir, la música deepfake ahora es una realidad.

Funciona entrenando un modelo de IA en la voz de un cantante y los resultados no siempre son malos. Hay mucha creatividad real en la creación de canciones falsas, pero el problema no es solo con la salida. En muchos casos, no se otorga el permiso y las preguntas sobre a quién se le paga y si es ético son solo algunos de los problemas de la música deepfake.

1. Conjuntos de datos no autorizados

Si desea crear una pista falsa de un artista famoso, debe recopilar archivos de audio de su voz cantando en un conjunto de datos. Al igual que cualquier dato que pertenece a alguien, probablemente deberías obtener su permiso para usarlo, pero un deepfake canción puede llegar a una gran plataforma de música como YouTube, Spotify o TikTok, después de haber utilizado una conjunto de datos

instagram viewer

Esto les sucedió a los artistas Drake y The Weeknd cuando un usuario llamado Ghostwriter creó "Heart on My Sleeve". La exitosa canción presentaba las voces sintetizadas por IA de los artistas, con letras sobre la ex novia de The Weeknd.

La canción fue realmente disfrutada por los fanáticos, con elogios adicionales para Ghostwriter por el uso creativo de las voces falsas, pero como El Seattle Times informó, no todos lo vieron así. Un portavoz de Universal Music Group, el sello principal detrás de ambos artistas, pregunta:

"¿De qué lado de la historia quieren estar las partes interesadas en el ecosistema de la música: el lado de los artistas, los fanáticos y expresión creativa humana, o del lado de las falsificaciones profundas, el fraude y negar a los artistas su debida compensación?"

2. Ley de derechos de autor obsoleta

Si eres un artista que no quiere que su voz sea clonada, es posible que la ley de derechos de autor no pueda ayudarte todavía. Dado que nuestras leyes de derechos de autor se escribieron en un momento en que no existía este tipo de tecnología de inteligencia artificial, no sorprende que las leyes todavía estén tratando de ponerse al día.

El caso legal más cercano de "robo de voz" en los EE. UU. se remonta a la década de 1990. Como reportado por Los Ángeles Times, el cantante Tom Waits ganó $2.475 millones en daños de Frito-Lay Inc., el poderoso gigante de las papas fritas detrás de Doritos, Cheetos, Cracker Jack's y más.

El anuncio utilizó la voz de alguien que sonaba lo suficientemente cercano a Tom Waits como para que la gente pudiera creer que el verdadero artista estaba detrás de la campaña publicitaria. Lo mismo podría decirse de las canciones falsas que circulan actualmente, pero la música de IA aún no se ha probado en una batalla legal.

Mientras esperamos que se actualice el sistema legal, vale la pena señalar que no todos tienen problemas con las personas que clonan su voz, toma acebo herndon, Por ejemplo. Frente a la marea inminente de aplicaciones de música de IA, optó por autorizar a su gemela vocal llamada Holly+ junto con un sistema que le otorgaba una remuneración justa.

Cualquiera que sea el lado que tome, el problema sigue siendo el mismo. No existe una ley de derechos de autor específica que diga que debe obtener el permiso del artista antes de usar su voz. Hasta entonces, los artistas pueden encontrarse en el salvaje oeste de la tecnología de inteligencia artificial, sin leyes que los guíen.

3. ¿Quién cobra?

¿Está bien ganar dinero con la música usando la voz de alguien? Es una pregunta espinosa que podría convertirse en un problema mayor a medida que se publique más música falsa en plataformas de transmisión y se monetice en las plataformas de redes sociales.

Como todos sabemos, está bien cantar una versión de una canción famosa y publicarla en YouTube o Spotify, y en ese caso, cosas como la letra, la estructura de la canción, la melodía, el ritmo, etc. son copiados. Pero los clones vocales son bastante diferentes, y la música deepfake no es exactamente un riff de una canción existente, sino la creación de una canción completamente nueva usando la voz de otra persona.

Dicho de otra manera, los clones de voz no existirían si no fuera por las herramientas de inteligencia artificial y los conjuntos de datos no autorizados. Los artistas pasan toda su vida perfeccionando la voz con la que nacieron y creando un sonido único. Robar la voz de alguien y ganar dinero con ello podría ser ir demasiado lejos.

4. Un género de área gris

Para complicar las cosas, es posible que algunas personas no consideren que la música deepfake sea del todo mala. A diferencia de las imágenes o videos falsos profundos de los que puede reírse brevemente antes de desplazarse por su teléfono, la música falsa profunda se está convirtiendo en un género propio.

Algunas personas lo comparan con la idea de escribir fanfiction, una forma divertida y creativa de rendir homenaje a un artista. Es una visión más positiva que dificulta descartar la música deepfake como un simple tabú. Solo eche un vistazo al enfoque de Holly Herndon para la clonación de voz de IA en el video a continuación.

Aunque no todo el mundo está de acuerdo en que este tipo de música debería estar permitida. Como El Financial Times escribe, el principal sello discográfico, Universal Music Group, tenía como objetivo eliminar las canciones de menor calidad de las plataformas de transmisión, incluidas las creadas por IA. Eventualmente, las plataformas de transmisión como Spotify, Apple Music o Tidal tendrán que tomar una decisión sobre si este género de música está permitido en su plataforma.

La música deepfake está provocando debates similares que ya están ocurriendo en el mundo del arte: ¿Debería el arte generado por IA ser considerado arte?? Solo que ahora estamos cuestionando la música de IA.

5. Preocupaciones éticas en torno a la raza y la identidad

La era de la música deepfake ha comenzado con mucha música que imita la música rap. Dado que las raíces históricas del género se remontan a la juventud afroamericana que creció en el Bronx, Nueva York, a principios de la década de 1970, algunas personas están preocupadas por la raza y la identidad en la música de IA.

Escritor lauren chanel, es una persona que considera que la música deepfake es un problema grave. Como se cita en un artículo del New York Times, explican:

“Es otra forma de que las personas que no son negras se pongan el disfraz de una persona negra, poner las manos en alto a Kanye o Drake y convertirlo en un títere, y eso es alarmante para mí.” “Este es solo otro ejemplo en una larga lista de personas que subestiman lo que se necesita para crear el tipo de arte que, históricamente, los negros hacer."

Esta no es la primera vez que la música creada con herramientas de IA no es ética. Como reportado en la revista Rolling Stone, un rapero de avatar virtual llamado FN Meka firmó con una etiqueta, luego cayó rápidamente cuando estaba en línea civil El grupo de derechos Industry Blackout escribió que el proyecto perpetuó "estereotipos groseros" sobre Back cultura.

En todo caso, la música deepfake nos recuerda que las herramientas de IA no se pueden separar de la historia de la creación musical, e ignorar eso se suma a Los peligros de las falsificaciones profundas de IA.

6. Daño a los artistas

Una cosa que no debe pasarse por alto es el impacto emocional que una canción falsa podría tener en el artista, especialmente cuando un clon de voz puede cantar sobre situaciones que nunca sucedieron, expresar emociones que no son propias y fingir que le importan cosas que tal vez no le interesen.

En el caso de la canción falsa de Drake ft. The Weeknd, la letra incluía líneas sobre Selena Gomez, quien solía salir con The Weeknd. Usando una mezcla de hechos de la vida real y letras inventadas, fue una extraña distorsión de la realidad que podría ser dañina para el artista que vivió la experiencia real.

Similarmente, producir letras generadas por IA "al estilo" de alguien famoso que usa generadores de texto de IA ha llevado a algunos artistas a desesperarse por el uso de la tecnología de IA. Como dice Nick Cave, "Lo que ChatGPT es, en este caso, es la replicación como una parodia".

La música deepfake es capaz de poner en boca del artista palabras que nunca habló, o en este caso, cantó. A nivel personal, esto puede ser perjudicial para el artista que tiene poco control sobre la eliminación del contenido, sin llevar la batalla a los tribunales.

Preparándose para los cambios en la industria de la música

Gracias al creciente acceso a herramientas de IA, la música ha entrado en el mundo de los deepfakes, en particular, a través de clones de voz. Decir la diferencia entre una voz de IA y una voz humana con solo escuchar es extremadamente difícil, lo que facilita que una canción falsa llegue fácilmente a las plataformas de transmisión antes de ser eliminada.

Por un lado, los fanáticos pueden disfrutar de la música deepfake y podría surgir un género válido que use voces famosas para crear música nueva e interesante. Pero no todos los artistas están de acuerdo con la clonación de su voz, y no existen leyes que impidan que las personas creen conjuntos de datos no autorizados.

Obtener el consentimiento, compensar a los artistas y analizar las preocupaciones éticas son solo algunos de los problemas que enfrentan los artistas y la industria de la música. Con el rápido desarrollo de la tecnología de IA, vale la pena hacer una pausa para reflexionar sobre los problemas que han creado.