La inteligencia artificial (IA) tiene el potencial de cambiar la naturaleza misma de nuestra sociedad. Y si las herramientas de inteligencia artificial que tenemos actualmente a nuestra disposición son una indicación de lo que está por venir, tenemos mucho que esperar.
También tenemos mucho de lo que tener cuidado. A saber, la militarización de la IA por parte de los ciberdelincuentes y otros actores de amenazas. Esta no es una preocupación teórica, y ni siquiera los generadores de imágenes de IA son inmunes al abuso.
¿Qué son los generadores de imágenes de IA? ¿Cómo trabajan?
Si alguna vez ha usado un generador de imágenes de IA, tiene una idea bastante clara de qué se trata. Incluso si nunca ha usado uno, lo más probable es que haya encontrado imágenes generadas por IA en las redes sociales y en otros lugares. El software que es popular hoy en día funciona con un principio muy simple: el usuario escribe el texto y la IA genera una imagen basada en ese texto.
Lo que sucede debajo del capó es mucho más complejo. La IA ha mejorado mucho en los últimos años, y la mayoría generadores de texto a imagen hoy en día son los llamados modelos de difusión. Esto significa que están "entrenados" durante un largo período de tiempo en una enorme cantidad de texto e imágenes, que es lo que hace que sus creaciones sean tan impresionantes y asombrosamente realistas.
Lo que hace que estas herramientas de IA sean aún más impresionantes es el hecho de que no solo modifican imágenes existentes o combinan miles de imágenes en una sola, sino que también crean imágenes nuevas y originales desde cero. Cuanta más gente utilice estos generadores de texto a imagen, más información reciben y mejores se vuelven sus creaciones.
Algunos de los más conocidos Los generadores de imágenes AI son Dream by WOMBO, DALL-E, Difusión estable, Midjourney, DeepAI, Fotor y Craiyon. Están apareciendo nuevos de izquierda a derecha, y los gigantes tecnológicos, incluido Google, están lanzando los suyos, por lo que solo podemos especular sobre lo que traerá el futuro.
4 formas en que los actores de amenazas arman los generadores de imágenes de IA
Como casi toda la tecnología, los generadores de imágenes de IA pueden ser objeto de abuso por parte de actores malévolos. En realidad, ya se están utilizando para todo tipo de fines nefastos. Pero, ¿exactamente qué tipo de estafas y ciberataques puede llevar a cabo un delincuente con la ayuda de generadores de imágenes de IA?
1. Ingeniería social
Una cosa obvia que los actores de amenazas podrían hacer con los generadores de imágenes de IA es dedicarse a la ingeniería social; por ejemplo, crear perfiles de redes sociales falsos. Algunos de estos programas pueden crear imágenes increíblemente realistas que parecen fotografías genuinas de personas reales, y un estafador podría usar estos perfiles de redes sociales falsos para engañar.
A diferencia de las fotos de personas reales, las generadas por IA no se pueden descubrir a través de la búsqueda inversa de imágenes, y el ciberdelincuente no tiene que trabajar con un número limitado de fotografías para engañar a su objetivo: utilizando IA, pueden generar tantas como quieran, construyendo una identidad en línea convincente a partir de rascar.
Pero hay ejemplos de la vida real de actores de amenazas que usan generadores de imágenes de IA para estafar a las personas. En abril de 2022, TechTalks El bloguero Ben Dickinson recibió un correo electrónico de un bufete de abogados que afirmaba que había usado una imagen sin permiso. Los abogados enviaron por correo electrónico un Aviso de infracción de derechos de autor de DMCA, diciéndole a Dickinson que necesita vincular a un cliente de ellos o eliminar la imagen.
Dickinson buscó en Google el bufete de abogados y encontró el sitio web oficial. Todo parecía completamente legítimo; el sitio incluso tenía fotos de 18 abogados, completas con sus biografías y credenciales. Pero nada de eso era real. Todas las fotos fueron generadas por IA y se enviaron los supuestos avisos de infracción de derechos de autor. por alguien que busca extorsionar backlinks de blogueros desprevenidos, como parte de una política negra y poco ética sombrero SEO (optimización de motores de búsqueda) estrategia.
2. Estafas de caridad
Cuando los devastadores terremotos azotaron Turquía y Siria en febrero de 2023, millones de personas en todo el mundo expresaron su solidaridad con las víctimas donando ropa, alimentos y dinero.
Según un informe de BBCLos estafadores se aprovecharon de esto y usaron IA para crear imágenes realistas y solicitar donaciones. Un estafador mostró imágenes de ruinas generadas por IA en TikTok Live, pidiendo donaciones a sus espectadores. Otro publicó una imagen generada por IA de un bombero griego rescatando a un niño herido de las ruinas y pidió a sus seguidores donaciones en Bitcoin.
Uno solo puede imaginar qué tipo de estafas de caridad ejecutarán los delincuentes con la ayuda de la IA en el futuro, pero es seguro asumir que solo mejorarán en el abuso de este software.
3. Deepfakes y desinformación
Los gobiernos, los grupos de activistas y los think tanks han advertido durante mucho tiempo sobre la peligros de las falsificaciones profundas. Los generadores de imágenes de IA agregan otro componente a este problema, dado lo realistas que son sus creaciones. De hecho, en el Reino Unido, incluso hay un programa de comedia llamado Deep Fake Neighbor Wars que encuentra el humor en parejas de celebridades poco probables. ¿Qué impediría que un agente de desinformación creara una imagen falsa y la promocionara en las redes sociales con la ayuda de bots?
Esto puede tener consecuencias en la vida real, como casi sucedió en marzo de 2022, cuando circuló en línea un video falso que mostraba al presidente ucraniano Volodymyr Zelensky diciéndoles a los ucranianos que se rindieran. NPR. Pero ese es solo un ejemplo, porque las posibilidades son casi infinitas, y hay innumerables formas de El actor de amenazas podría dañar la reputación de alguien, promover una narrativa falsa o difundir noticias falsas con la ayuda de IA.
4. fraude publicitario
Trend Micro Los investigadores descubrieron en 2022 que los estafadores estaban utilizando contenido generado por IA para crear anuncios engañosos y promocionar productos sospechosos. Crearon imágenes que sugerían que celebridades populares usaran ciertos productos y realizaron campañas publicitarias basadas en esas imágenes.
Por ejemplo, un anuncio de una "oportunidad de asesoramiento financiero" presentaba al multimillonario Elon Musk, fundador y director ejecutivo de Tesla. Por supuesto, Musk nunca respaldó el producto en cuestión, pero las imágenes generadas por IA lo hicieron parecer así, presumiblemente atrayendo a los espectadores desprevenidos a hacer clic en los anuncios.
IA y ciberseguridad: un problema complejo que debemos abordar
En el futuro, los reguladores gubernamentales y los expertos en seguridad cibernética probablemente tendrán que trabajar juntos para abordar la amenaza emergente del delito cibernético impulsado por la IA. Pero, ¿cómo podemos regular la IA y proteger a la gente común sin sofocar la innovación y restringir las libertades digitales? Esa pregunta será muy importante en los años venideros.
Hasta que haya una respuesta, haga lo que pueda para protegerse: examine cuidadosamente cualquier información que vea en línea, evite sitios web dudosos, use software seguro, mantenga sus dispositivos actualizados y aprenda a usar inteligencia artificial para su ventaja.