Puede ser divertido jugar con la tecnología deepfake, pero su potencial de daño es significativo. Esto es lo que podría traer el futuro de las falsificaciones profundas.

Los signos reveladores de una imagen falsa solían ser fáciles de detectar, pero la IA generativa nos hace cuestionar casi todo lo que vemos y escuchamos ahora. Con cada nuevo modelo de IA que se lanza, los signos reveladores de una imagen falsa están disminuyendo y para agregar a la confusión, ahora puede crear videos falsos, clones de voz de sus seres queridos y fabricar artículos falsos en mera segundos.

Para evitar ser engañado por los deepfakes de IA, vale la pena saber qué tipo de peligros representan.

La evolución de las falsificaciones profundas

Un deepfake muestra a una persona haciendo algo que nunca sucedió en la vida real. Es completamente falso. Nos reímos de los deepfakes cuando se comparten en Internet como un meme o una broma, pero a muy pocas personas les resulta divertido cuando se utilizan para engañarnos.

instagram viewer

En el pasado, los deepfakes se creaban tomando una foto existente y modificándola en un software de edición de imágenes como Photoshop. Pero lo que distingue a un deepfake de IA es que se puede generar desde cero utilizando algoritmos de aprendizaje profundo.

El Diccionario Merriam-Webster define un deepfake como:

Una imagen o grabación que ha sido alterada y manipulada de manera convincente para tergiversar que alguien hizo o dijo algo que en realidad no se hizo o dijo.

Pero con los avances en la tecnología de IA, esta definición comienza a parecer obsoleta. Con el uso de herramientas de IA, los deepfakes ahora incluyen imágenes, texto, videos y clonación de voz. A veces, los cuatro modos de generación de IA se usan a la vez.

Debido a que es un proceso automatizado que es increíblemente rápido y económico de usar, es la herramienta perfecta para producir deepfakes a un ritmo que nunca antes habíamos visto, todo sin necesidad de saber nada sobre cómo editar fotos, videos o audio.

Los grandes peligros de las falsificaciones profundas de IA

Una serie de Generadores de video de IA ya existen, junto con un montón de Generadores de voz de IA. Tirar en un modelo de lenguaje grande como GPT-4 y tienes una receta para crear los deepfakes más creíbles que hemos visto en la historia moderna hasta el momento.

Estar al tanto de los diferentes tipos de falsificaciones profundas de IA y cómo podrían usarse para engañarlo es una forma de evitar ser engañado. Estos son solo algunos ejemplos serios de cómo la tecnología de falsificación profunda de IA representa una amenaza real.

1. Robo de identidad por IA

Puede que los hayas visto. Entre los primeros deepfakes de IA verdaderamente virales que se difundieron por todo el mundo se encuentran una imagen de Donald Trump siendo arrestado y una del Papa Francisco con una chaqueta blanca acolchada.

Si bien uno parece una reinvención inocente de lo que una figura religiosa famosa podría ponerse en un día frío en Roma; la otra imagen, que muestra a un personaje político en una situación grave con la ley, tiene consecuencias mucho mayores si se toma como real.

Hasta ahora, las personas se han dirigido principalmente a celebridades, figuras políticas y otras personas famosas al crear deepfakes de IA. En parte, esto se debe a que las personas famosas tienen muchas fotos de ellas en Internet que probablemente ayudaron a entrenar a la modelo en primer lugar.

En el caso de un generador de imágenes de IA como Midjourney, utilizado tanto en el deepfake de Trump como en el del Papa, un usuario simplemente necesita ingresar un texto que describa lo que quiere ver. Las palabras clave se pueden usar para especificar el estilo artístico, como una fotografía o fotorrealismo, y los resultados se pueden ajustar aumentando la resolución.

Puedes con la misma facilidad aprende a usar Midjourney y pruébelo usted mismo, pero por obvias razones morales y legales, debe evitar publicar estas imágenes públicamente.

Desafortunadamente, ser un ser humano promedio y no famoso tampoco garantiza que estés a salvo de las falsificaciones profundas de IA.

El problema radica en una característica clave que ofrecen los generadores de imágenes de IA: la capacidad de cargar su propia imagen y manipularla con IA. Y una herramienta como Superposición de pintura en DALL-E 2 puede extender una imagen existente más allá de sus bordes ingresando un mensaje de texto y describiendo qué más le gustaría generar.

Si alguien más hiciera esto con tus fotos, los peligros podrían ser significativamente mayores que la falsificación profunda del Papa con una chaqueta blanca: pueden usarla en cualquier lugar, haciéndose pasar por ti. Si bien la mayoría de las personas generalmente usan IA con buenas intenciones, existen muy pocas restricciones que impiden que las personas la usen para causar daño, especialmente en casos de robo de identidad.

2. Estafas de clones de voz falsos profundos

Con la ayuda de la IA, los deepfakes cruzaron una línea para la que la mayoría de nosotros no estábamos preparados: los clones de voz falsos. Con solo una pequeña cantidad de audio original, tal vez de un video de TikTok que publicaste una vez, o un video de YouTube en el que apareces, un modelo de IA puede replicar tu única voz.

Es a la vez extraño y aterrador imaginarse recibir una llamada telefónica que suena como un miembro de la familia, un amigo o un colega. Los clones de voz deepfake son una preocupación lo suficientemente seria como para que el Comisión Federal de Comercio (FTC) ha emitido una advertencia al respecto.

No confíes en la voz. Llama a la persona que supuestamente te contactó y verifica la historia. Use un número de teléfono que sepa que es suyo. Si no puede comunicarse con su ser querido, intente comunicarse con él a través de otro miembro de la familia o sus amigos.

El Washington Post informó el caso de una pareja de 70 años que recibió una llamada telefónica de alguien que sonaba igual que su nieto. Estaba en la cárcel y necesitaba urgentemente dinero para la fianza. Al no tener otra razón para dudar de con quién estaban hablando, siguieron adelante y le entregaron el dinero al estafador.

No es solo la generación anterior la que está en riesgo, El guardián informó otro ejemplo de un gerente de banco que aprobó una transacción de $ 35 millones de dólares después de una serie de "llamadas falsas" de alguien que creía que era un director de banco.

3. Noticias falsas producidas en masa

Grandes modelos de lenguaje, como ChatGPT son muy, muy buenos para producir texto que suena como un ser humano, y actualmente no tenemos herramientas efectivas para detectar la diferencia. En las manos equivocadas, las noticias falsas y las teorías de la conspiración serán baratas de producir y llevará más tiempo desacreditarlas.

Difundir información errónea no es nada nuevo, por supuesto, sino un trabajo de investigación. publicado en arXiv en enero de 2023 explica que el problema radica en lo fácil que es escalar la producción con herramientas de IA. Se refieren a esto como "campañas de influencia generadas por IA", que dicen que podrían, por ejemplo, ser utilizadas por los políticos para subcontratar sus campañas políticas.

La combinación de más de una fuente generada por IA crea una falsificación profunda de alto nivel. Por ejemplo, un modelo de IA puede generar una noticia convincente y bien escrita que acompañe a la imagen falsa del arresto de Donald Trump. Esto le da más legitimidad que si la imagen se compartiera sola.

Las noticias falsas no se limitan a imágenes y escritura, los desarrollos en la generación de videos de IA significan que estamos viendo surgir más videos falsos. Aquí hay uno de Robert Downey Jr. injertado en un video de Elon Musk, publicado por el Canal de YouTube Deepfakery.

Crear un deepfake puede ser tan simple como descargar una aplicación. Puedes usar una aplicación como TokkingHeads para convertir imágenes fijas en avatares animados, que le permite cargar su propia imagen y audio para que parezca que la persona está hablando.

En su mayor parte, es entretenido y divertido, pero también existe la posibilidad de problemas. Nos muestra lo fácil que es usar la imagen de cualquier persona para que parezca que esa persona pronunció palabras que nunca pronunció.

No se deje engañar por un deepfake de IA

Deepfakes se puede implementar rápidamente a un costo muy bajo y con una barra baja de experiencia o poder de cómputo requerido. Pueden tomar la forma de una imagen generada, un clon de voz o una combinación de imágenes, audio y texto generados por IA.

Solía ​​ser mucho más difícil y laborioso producir una falsificación profunda, pero ahora, con muchas aplicaciones de inteligencia artificial disponibles, casi cualquier persona tiene acceso a las herramientas utilizadas para crear falsificaciones profundas. A medida que la tecnología de falsificación profunda de IA se vuelve cada vez más avanzada, vale la pena vigilar de cerca los peligros que plantea.