¿Se puede proteger realmente el arte auténtico de la IA? Los creativos parecen cada vez más impotentes.

Las herramientas de IA generativa como Midjourney y Stable Diffusion están produciendo imágenes cada vez más convincentes. Sin embargo, confían en vastas bases de datos del trabajo de los creativos para generar su contenido. En este punto, es posible que se pregunte si existe una forma de proteger su trabajo de las herramientas de inteligencia artificial y la respuesta es: es complicado.

Las herramientas de IA generativa utilizan modelos de aprendizaje automático que están capacitados para realizar acciones utilizando grandes conjuntos de datos. Digamos que estamos hablando de un generador de imágenes de IA como Midjourney. En este caso, los conjuntos de datos utilizados para el entrenamiento incluyen miles de millones de pares de imágenes y textos, desde el trabajo de artistas legendarios como Picasso hasta creativos profesionales y aficionados por igual.

Los generadores de arte de IA utilizan estos emparejamientos de medios y texto para generar contenido visual en respuesta a las indicaciones de texto del usuario. Básicamente, utilizan el trabajo de artistas existentes y combinan patrones con combinaciones de texto (publicaciones sociales, subtítulos, texto alternativo, etc.) para que los usuarios puedan generar nuevos imágenes de indicaciones como "un cielo estrellado al estilo de Vincent van Gogh" o "una escena neo-noir de un detective bebiendo whisky en el centro de la ciudad de la década de 1950 LA".

instagram viewer

¿Por qué tantos artistas están molestos?

La mayor queja de los creativos es que las herramientas de IA generativa usan su trabajo sin permiso. Tampoco están simplemente usando su trabajo para entrenar algoritmos.

La charla de marketing sobre la IA generativa sugiere que estas herramientas crean contenido único, pero no es así. Lo que realmente hacen es combinar datos de múltiples obras de arte y unirlos para generar algo que coincida con el aviso del usuario.

El término generación de IA en sí mismo es engañoso. La replicación de IA sería más precisa, y el truco con estas herramientas es que replican grandes volúmenes de obras de arte y las combinan.

Las herramientas de IA generativa están diseñadas para reemplazar las creatividades, y lo hacen mediante el uso de sus ilustraciones. Y, como si eso no fuera suficientemente malo, la mayoría de las herramientas de IA hacen todo esto sin pedir permiso, ofrecer ninguna compensación o incluso acreditar a los creadores originales.

Desafortunadamente, la única forma de evitar que las herramientas de IA accedan a su contenido es no publicar nada en línea. Puede sonar extremo, pero esta es la realidad. Claro, puede usar el archivo robots.txt en su sitio web para bloquee las herramientas de IA para que no raspen su sitio web, o protege tus imágenes de la IA al excluirse de los conjuntos de datos de entrenamiento, pero estos métodos tienen varias limitaciones.

En primer lugar, los comandos en el archivo robots.txt son de asesoramiento, lo que significa que los sitios no tienen obligación legal de adherirse. En segundo lugar, tendría que impedir que una empresa como Google rastree su sitio web, lo que básicamente es un suicidio SEO. Y, por último, el archivo robots.txt solo le brinda control (limitado) sobre el acceso a su sitio web, no hace nada para proteger el contenido que publica en otros lugares: redes sociales, servicios en la nube, etc.

Desafortunadamente para los creativos, el panorama empeorará antes de mejorar.

La política de privacidad de Google podría significar que utiliza todo el contenido en línea para entrenar sus algoritmos de IA

En julio de 2023, Google actualizó su política de privacidad para decir que usará contenido en línea para entrenar sus sistemas de inteligencia artificial, incluidos Brad, Google Translate y otros. Google utiliza la frase "fuentes de acceso público". Aquí está la cita que hizo sonar algunas alarmas después de la actualización:

“Por ejemplo, podemos recopilar información que está disponible públicamente en línea o de otras fuentes públicas para ayudar entrenar los modelos de IA de Google y crear productos y funciones, como las capacidades de Google Translate, Bard y Cloud AI”. – Política de privacidad de Google

En otras palabras, Google ahora dice que cualquier cosa que publiques en línea está disponible. Como mínimo, Google facilita la comparación de las actualizaciones de su política de privacidad al resaltar los cambios más recientes:

Como puede ver, los cambios en la redacción son bastante sutiles, pero las implicaciones son significativas. Anteriormente, las funciones principales de los modelos de lenguaje de Google eran interpretar consultas de búsqueda y traducir texto a otros idiomas.

Ahora, la compañía dice que puede usar todas las fuentes de acceso público para entrenar su conjunto completo de modelos de IA. Esto incluye su sistema de inteligencia artificial generativa, Bard, y se expande más allá de los modelos de lenguaje para incluir todas las herramientas/características de inteligencia artificial de Google; el ejemplo más obvio es la generación de imágenes.

Las redes sociales pueden usar cualquier contenido que publiques en sus plataformas

Meta también tiene acceso ilimitado a todo lo publicado en Facebook, Instagram y Threads. Esta es una práctica estándar para las plataformas sociales si lee los términos y condiciones. Tan pronto como subes algo a una red social, tienen los derechos para usarlo y reutilizarlo de la forma que deseen.

Mucho los usuarios sociales han encontrado empresas que usan sus imágenes en anuncios sin permiso, incluidas las creatividades. Desafortunadamente, si esa empresa es la red social en la que cargó la imagen, la empresa matriz de la red u otra marca propiedad de la misma empresa matriz, no tendrá suerte.

Para la mayoría de las personas, las posibilidades de que una plataforma como Instagram utilice una de sus imágenes para una campaña publicitaria son muy bajas. Sin embargo, es casi seguro que Meta esté usando sus imágenes, videos y publicaciones para entrenar sus algoritmos de IA.

Servicios como Adobe pueden acceder y usar su trabajo para entrenar sus algoritmos

En enero de 2023, Adobe recibió críticas por una actualización de sus términos y condiciones. El lenguaje parecía sugerir que Adobe podría usar imágenes cargadas en sus servicios en la nube por fotógrafos para entrenar sus algoritmos de IA.

La redacción específica fue la siguiente:

“Adobe puede analizar su contenido utilizando técnicas como el aprendizaje automático (por ejemplo, para el reconocimiento de patrones) para desarrollar y mejorar nuestros productos y servicios”.

Para empeorar las cosas, Adobe estaba aceptando automáticamente a los usuarios en este sistema de análisis de contenido, lo que significa que tenían que desactivarlo manualmente en la configuración de su cuenta. Comprensiblemente, los creativos no respondieron muy amablemente y Adobe avivó las llamas al no responder inicialmente a las críticas.

Semanas más tarde, Adobe declaró que no se utilizan datos de clientes para entrenar sus herramientas de IA generativa. La compañía calificó el incidente como una llamada de atención y prometió aclarar cualquier confusión al hacer que la redacción de su política sea más específica.

De cualquier manera, el hecho es que si Adobe quiere usar los datos de los clientes para entrenar sus sistemas de IA, no hay nada que nadie pueda hacer al respecto, aparte del boicot. Al mismo tiempo, Adobe obtiene sus datos para herramientas como Relleno generativo de alguna parte, por lo que está utilizando el trabajo de los artistas, de una forma u otra.

Las empresas tecnológicas tienen acceso casi ilimitado a sus datos... por ahora

Tal como están las cosas, los gigantes tecnológicos como Google y Meta tienen acceso casi ilimitado a los datos de los creativos. El escrutinio sobre el manejo de los datos de los usuarios es casi tan antiguo como Internet, sin embargo, las regulaciones de privacidad aún se están poniendo al día.

La Unión Europea tardó hasta 2018 en implementar su Directrices de privacidad del RGPD y han hecho poco para proteger los datos de los usuarios.

La IA generativa es un nuevo campo minado en conjunto con casi ninguna regulación vigente para restringir las acciones de las empresas de tecnología en este espacio. Por el momento, empresas como Google y OpenAI pueden hacer casi lo que quieran con nuestros datos, y esto no va a cambiar en el corto plazo.

En última instancia, se necesitarán demandas y regulaciones para proteger a los artistas de la IA

Hasta que se regule la IA generativa y su acceso a los datos de los usuarios, las creatividades son casi impotentes para detener la tecnología. El escenario más probable serían cambios en las leyes de derechos de autor o, potencialmente, nuevas protecciones de datos relacionadas con la propiedad creativa. En cualquier caso, tomará mucho tiempo ver que se introduzcan nuevas regulaciones y, luego, se hagan cumplir.

El lado positivo para los creativos es que las demandas contra la IA generativa se están acumulando rápidamente y esto podría acelerar la respuesta legal. La mala noticia es que algunas de las empresas de tecnología involucradas tienen los fondos legales para arrastrar estos casos a través de las vías del debido proceso que consumen más tiempo.

Mientras tanto, persistirán las cuestiones éticas que se ciernen sobre la generación de arte con IA.