Todo el mundo cree que puede detectar un vídeo falso, pero la rápida mejora de la tecnología, incluidas las herramientas de inteligencia artificial, hace que detectar un vídeo falso sea más difícil que nunca.
Conclusiones clave
- Los deepfakes plantean amenazas importantes para la sociedad, incluida la difusión de desinformación, el daño a la reputación mediante la suplantación de identidad y la instigación de conflictos por la seguridad nacional.
- Si bien la tecnología de inteligencia artificial ofrece herramientas para la detección de deepfakes, no son perfectas y la discreción humana sigue siendo crucial para identificarlos.
- Los humanos y las herramientas de detección de IA tienen diferentes fortalezas y debilidades a la hora de identificar deepfakes, y combinar sus habilidades puede mejorar las tasas de éxito en la detección y mitigación de los peligros de los deepfake tecnología.
Los deepfakes amenazan todos los aspectos de la sociedad. Nuestra capacidad para identificar contenido falso es crucial para anular la desinformación, pero a medida que mejora la tecnología de inteligencia artificial, ¿en quién podemos confiar para detectar deepfakes: el hombre o la máquina?
Los peligros de los deepfakes
A medida que avanza la tecnología de IA, los peligros de los deepfakes representan una amenaza cada vez mayor para todos nosotros. Aquí hay un resumen rápido de algunos de los problemas más apremiantes que plantean los deepfakes:
- Desinformación: Los vídeos y las grabaciones de voz deepfaked pueden difundir desinformación, como noticias falsas.
- Interpretación: Al hacerse pasar por personas, los deepfakes pueden dañar la reputación de las personas o engañar a cualquiera que los conozca.
- Seguridad nacional: El escenario apocalíptico obvio con los deepfakes son imágenes o audio fabricados de un líder global que instiga un conflicto.
- Disturbios civiles: Las partes también pueden utilizar imágenes y audio engañosos para avivar la ira y el malestar civil entre grupos específicos.
- La seguridad cibernética: Los ciberdelincuentes ya están utilizando herramientas de clonación de voz de IA para dirigirse a personas con mensajes convincentes de personas que conocen.
- Privacidad y consentimiento: El uso malicioso de deepfakes toma la imagen de personas sin su consentimiento.
- Confianza y confidencia: Si no se puede distinguir entre la verdad y el engaño, la información precisa se vuelve igualmente poco confiable.
Los deepfakes serán cada vez más convincentes, por lo que necesitamos herramientas y procesos sólidos para detectarlos. La IA proporciona una de esas herramientas en forma de modelos de detección de deepfake. Sin embargo, como algoritmos diseñados para identificar escritura generada por IA, las herramientas de detección de deepfakes no son perfectas.
En este momento, la discreción humana es la única herramienta en la que podemos confiar. Entonces, ¿somos mejores que los algoritmos para identificar deepfakes?
¿Pueden los algoritmos detectar deepfakes mejor que los humanos?
Los deepfakes son una amenaza lo suficientemente grave como para que los gigantes tecnológicos y los grupos de investigación estén dedicando enormes recursos a la investigación y el desarrollo. En 2019, empresas como Meta, Microsoft y Amazon ofrecieron 1.000.000 de dólares en premios durante un Desafío de detección de deepfake para obtener el modelo de detección más preciso.
El modelo de mejor rendimiento tuvo una precisión del 82,56% en comparación con un conjunto de datos de videos disponibles públicamente. Sin embargo, cuando los mismos modelos se probaron con un "conjunto de datos de caja negra" de 10.000 vídeos no vistos, el modelo de mejor rendimiento tenía sólo un 65,18% de precisión.
También tenemos muchos estudios que analizan el rendimiento de las herramientas de detección de deepfake de IA contra seres humanos. Por supuesto, los resultados varían de un estudio a otro, pero en general, los humanos igualan o superan la tasa de éxito de las herramientas de detección de deepfake.
Un estudio de 2021 publicado en PNAS descubrió que los "observadores humanos comunes" lograron una tasa de precisión ligeramente mayor que las principales herramientas de detección de deepfake. Sin embargo, el estudio también encontró que los participantes humanos y los modelos de IA eran susceptibles a diferentes tipos de errores.
Curiosamente, las investigaciones realizadas por La Universidad de Sídney ha descubierto que el cerebro humano es, inconscientemente, más eficaz para detectar deepfakes que nuestros esfuerzos conscientes.
Detección de pistas visuales en deepfakes
La ciencia de la detección de deepfakes es compleja y el análisis requerido varía según la naturaleza del metraje. Por ejemplo, el infame vídeo deepfake del líder norcoreano Kim Jong-un de 2020 es básicamente un vídeo de una cabeza parlante. En este caso, el método de detección de deepfake más eficaz podría ser analizar visemas (movimientos de la boca) y fonemas (sonidos fonéticos) en busca de inconsistencias.
Los expertos humanos, los espectadores ocasionales y los algoritmos pueden realizar este tipo de análisis, incluso si los resultados varían. El MIT define ocho preguntas para ayudar identificar videos deepfake:
- Presta atención a la cara.. Las manipulaciones DeepFake de alta gama casi siempre son transformaciones faciales.
- Presta atención a las mejillas y la frente.. ¿La piel parece demasiado suave o demasiado arrugada? ¿El envejecimiento de la piel es similar al envejecimiento del cabello y de los ojos? Los DeepFakes pueden ser incongruentes en algunas dimensiones.
- Presta atención a los ojos y las cejas.. ¿Aparecen sombras en lugares que cabría esperar? Es posible que DeepFakes no represente completamente la física natural de una escena.
- Presta atención a las gafas.. ¿Hay algún resplandor? ¿Hay demasiado resplandor? ¿Cambia el ángulo del resplandor cuando la persona se mueve? Una vez más, es posible que DeepFakes no represente completamente la física natural de la iluminación.
- Presta atención al vello facial o a la falta del mismo.. ¿Este vello facial parece real? DeepFakes puede agregar o quitar bigote, patillas o barba. Sin embargo, es posible que DeepFakes no consiga que las transformaciones del vello facial sean totalmente naturales.
- Presta atención a los lunares faciales.. ¿El lunar parece real?
- Presta atención al parpadeo. ¿La persona parpadea lo suficiente o demasiado?
- Presta atención a los movimientos de los labios.. Algunos deepfakes se basan en la sincronización de labios. ¿Los movimientos de los labios parecen naturales?
Las últimas herramientas de detección de deepfake de IA pueden analizar los mismos factores, nuevamente, con distintos grados de éxito. Los científicos de datos también desarrollan constantemente nuevos métodos, como detectar el flujo sanguíneo natural en los rostros de los oradores en pantalla. Nuevos enfoques y mejoras a los existentes podrían dar como resultado que las herramientas de detección de deepfake de IA superen consistentemente a los humanos en el futuro.
Detectar pistas de audio en Deepfakes
Detectar audio deepfake es un desafío completamente diferente. Sin las señales visuales del vídeo y la oportunidad de identificar inconsistencias audiovisuales, los deepfake La detección depende en gran medida del análisis de audio (otros métodos, como la verificación de metadatos, también pueden ayudar, en algunos casos). casos).
Un estudio publicado por Colegio Universitario de Londres en 2023 se descubrió que los humanos pueden detectar discursos deepfake el 73% de las veces (inglés y mandarín). Al igual que con los videos deepfake, los oyentes humanos a menudo detectan intuitivamente patrones de habla antinaturales en el habla generada por IA, incluso si no pueden especificar lo que parece extraño.
Los signos comunes incluyen:
- arrastrando
- falta de expresión
- Ruido de fondo o interferencia
- Inconsistencias vocales o del habla.
- Falta de "plenitud" en las voces.
- Entrega con demasiado guión
- Falta de imperfecciones (comienzos en falso, correcciones, carraspeos, etc.)
Una vez más, los algoritmos también pueden analizar la voz en busca de las mismas señales deepfake, pero nuevos métodos están haciendo que las herramientas sean más efectivas. Investigación por USENIX Patrones identificados en la reconstrucción del tracto vocal por IA que no logran emular el habla natural. Resume que los generadores de voz de IA producen audio que coincide con tractos vocales estrechos (aproximadamente del tamaño de una pajita) sin los movimientos naturales del habla humana.
Investigaciones anteriores de la Instituto Horst Görtz analizó audio genuino y deepfake en inglés y japonés, revelando diferencias sutiles en las frecuencias más altas del habla genuina y de los deepfakes.
Tanto el tracto vocal como las inconsistencias de alta frecuencia son perceptibles para los oyentes humanos y los modelos de detección de IA. En el caso de diferencias de alta frecuencia, los modelos de IA podrían, en teoría, volverse cada vez más precisos, aunque lo mismo podría decirse de los deepfakes de IA.
Los humanos y los algoritmos son engañados por los deepfakes, pero de diferentes maneras
Los estudios sugieren que los humanos y las últimas herramientas de detección de IA son igualmente capaces de identificar deepfakes. Las tasas de éxito pueden variar entre el 50% y el 90+%, según los parámetros de la prueba.
Por extensión, los humanos y las máquinas también se dejan engañar por los deepfakes en grados similares. Sin embargo, lo más importante es que somos susceptibles de diferentes maneras, y este podría ser nuestro mayor activo para abordar los peligros de la tecnología deepfake. La combinación de las fortalezas de los humanos y las herramientas de detección de deepfake mitigará las debilidades de cada uno y mejorará las tasas de éxito.
Por ejemplo, MIT La investigación encontró que los humanos eran mejores para identificar falsificaciones de líderes mundiales y personajes famosos que los modelos de IA. También reveló que los modelos de IA tuvieron problemas con imágenes con varias personas, aunque sugirió que esto podría deberse a que los algoritmos se entrenaron en imágenes con un solo hablante.
Por el contrario, el mismo estudio encontró que los modelos de IA superaron a los humanos con imágenes de baja calidad (borrosas, granuladas, oscuras, etc.) que podrían usarse intencionalmente para engañar a los espectadores humanos. Del mismo modo, los métodos recientes de detección de IA, como monitorear el flujo sanguíneo en regiones faciales particulares, incorporan análisis que los humanos no son capaces de realizar.
A medida que se desarrollen más métodos, la capacidad de la IA para detectar señales que no podemos solo mejorará, al igual que su capacidad para engañar. La gran pregunta es si la tecnología de detección de deepfakes seguirá superando a los propios deepfake.
Ver las cosas de manera diferente en la era de los deepfakes
Las herramientas de detección de deepfakes mediante IA seguirán mejorando, al igual que la calidad del contenido deepfake en sí. Si la capacidad de la IA para engañar supera su capacidad de detección (como ocurre con el texto generado por IA), la discreción humana puede ser la única herramienta que nos queda para luchar contra los deepfakes.
Todo el mundo tiene la responsabilidad de conocer los signos de los deepfakes y cómo detectarlos. Además de protegernos de estafas y amenazas a la seguridad, todo lo que discutimos y compartimos en línea es vulnerable a la desinformación si perdemos la comprensión de la realidad.