Dado que los deepfakes son potencialmente devastadores para la reputación de alguien y muy difíciles de detectar cuando se hacen correctamente, son un problema de seguridad importante. Ahora, Microsoft tiene como objetivo ayudar a detener los deepfakes lanzando una herramienta que puede detectarlos.

La amenaza que plantean los deepfakes es tan sustancial que provocó Facebook para prohibir todo el contenido deepfake. Sin embargo, el mayor obstáculo es cómo se hacen los deepfakes para que parezcan convincentes; como tal, localizar y confirmar un deepfake es muy difícil.

Facebook prohíbe los deepfakes y los photoshop

Facebook está prohibiendo los deepfakes y las fotos con Photoshop. La idea es eliminar los medios manipulados diseñados para engañar a los usuarios.

Como se informó en Microsoft sobre los problemas, la empresa quiere cambiar eso con su nueva herramienta. Se llama Microsoft Video Authenticator y analiza videos para buscar las "costuras" dejadas por la creación de deepfake. Estas uniones son invisibles para los ojos humanos, pero una computadora puede detectarlas mediante el análisis fotograma a fotograma.

instagram viewer

Para evitar que agentes malintencionados realicen ingeniería inversa en la tecnología, Microsoft Video Authenticator no será un lanzamiento público. En cambio, Microsoft está distribuyendo su sistema a organizaciones políticas y de noticias. De esa manera, esas organizaciones pueden usar la herramienta para separar lo real de lo falso.

Sin embargo, Microsoft ha anunciado una segunda tecnología para identificar deepfakes. La empresa propone un sistema en el que un creador de contenido puede etiquetar sus videos con una "firma" única. Si el video está editado, generará una firma diferente a la original, identificando así una deepfake.

La autora de Deep Fakes and the Infocalypse, Nina Schick, dijo lo siguiente:

El único uso realmente extendido que hemos visto hasta ahora es en la pornografía no consentida contra las mujeres. Pero se espera que los medios sintéticos se vuelvan omnipresentes en unos tres a cinco años, por lo que debemos desarrollar estas herramientas en el futuro. Sin embargo, a medida que mejoran las capacidades de detección, también lo hará la capacidad de generación: nunca va a ser el caso de que Microsoft pueda lanzar una herramienta que puede detectar todo tipo de video manipulación.

Los deepfakes son un problema importante para la credibilidad de los medios, y las empresas necesitan una forma de di lo que es real de lo que es ficción. Microsoft ha lanzado una herramienta para ayudar a detectar videos editados. Sin embargo, aún está por verse si la herramienta será suficiente o no para mantenerse al día con los desarrolladores de deepfake.

Si no está seguro de qué son los deepfakes y por qué son importantes, definitivamente vale la pena tomarse un tiempo para aprender sobre ellos. Los deepfakes están a punto de convertirse en el equivalente de esta década a las imágenes de "Photoshopping" y pueden causar graves daños si se utilizan de forma malintencionada.

Correo electrónico
Deepfakes explicado: la inteligencia artificial que hace que los videos falsos sean demasiado convincentes

Los videos falsos generados por IA socavan por completo nuestra comprensión de los eventos mundiales. Así es como los deepfakes pueden cambiarlo todo.

Temas relacionados
  • Internet
  • Seguridad
  • Noticias tecnológicas
  • Microsoft
  • Noticias falsas
  • Deepfakes
  • La seguridad cibernética
Sobre el Autor
Simon Batt (434 Artículos publicados)

Licenciado en Ciencias de la Computación con una profunda pasión por la seguridad. Después de trabajar para un estudio de juegos independiente, descubrió su pasión por la escritura y decidió usar su conjunto de habilidades para escribir sobre todo lo relacionado con la tecnología.

Más de Simon Batt

Suscríbete a nuestro boletín

¡Únase a nuestro boletín de noticias para obtener consejos técnicos, reseñas, libros electrónicos gratuitos y ofertas exclusivas!

Un paso más…!

Confirme su dirección de correo electrónico en el correo electrónico que le acabamos de enviar.

.