¿Te has unido a una aplicación de citas? ¿O estás buscando el amor en otra parte? Los estafadores pueden aprovecharse de usted usando inteligencia artificial. Así es cómo.
Las aplicaciones de citas en línea siempre han sido un semillero de estafas románticas. Los ciberdelincuentes van más allá para robar dinero, información personal y fotos explícitas. Encontrarás sus perfiles falsos en todas partes.
Y con la proliferación de herramientas de inteligencia artificial generativa, las estafas románticas son cada vez más fáciles de ejecutar. Bajan las barreras de entrada. Aquí hay siete formas comunes en que los estafadores románticos explotan la IA, además de cómo puedes protegerte.
1. Envío masivo de correos electrónicos generados por IA
Los correos electrónicos no deseados son cada vez más difíciles de filtrar. Los estafadores románticos abusan de las herramientas generativas de inteligencia artificial para escribir mensajes engañosos y convincentes y crear varias cuentas en cuestión de horas. Se acercan a cientos casi al instante.
Verá mensajes de spam generados por IA en varias plataformas, no solo en su bandeja de entrada de correo electrónico. toma el estafa de número equivocado como ejemplo. Los ladrones envían lindas selfies o fotos sugerentes en masa. Y si alguien responde, lo interpretarán como un error inocente.
Una vez que alguien esté en línea, será transferido a otra plataforma de mensajería (por ejemplo, WhatsApp o Telegram). La mayoría de los planes duran semanas. Los estafadores generan confianza gradualmente antes de pedirles a los objetivos que se unan a esquemas de inversión, paguen sus facturas o paguen viajes.
Manténgase seguro evitando por completo los mensajes de spam. Limite su compromiso con extraños, independientemente de cómo se vean o lo que ofrezcan.
2. Responder a más conversaciones rápidamente
Los bots se están extendiendo como la pólvora en línea. imperva informa que los bots maliciosos representaron el 30 por ciento del tráfico web automatizado en 2022. Encontrarás uno a los pocos segundos de pasar por las coincidencias de Tinder.
Una de las razones de este aumento repentino de bots es la proliferación de herramientas de IA generativa. Producen bots a granel. Simplemente ingrese el mensaje correcto y su herramienta presentará un fragmento de código completo y eficiente para la generación de bots.
Sepa cuándo está hablando con un bot. Aunque AI usa un tono conversacional natural, su diálogo aún suena monótono e incómodo. Después de todo, los chatbots simplemente siguen patrones. Puede producir respuestas similares a diferentes preguntas, declaraciones y solicitudes.
3. Creación de múltiples identidades a partir de imágenes robadas
Generadores de arte de IA manipular imágenes. Tome la siguiente demostración como ejemplo. Alimentamos a Playground AI con una fotografía sincera de un cantante famoso: la plataforma produjo tres variaciones en segundos.
Sí, tienen defectos. Pero tenga en cuenta que usamos una herramienta gratuita que ejecuta un modelo de texto a imagen obsoleto. Los estafadores producen resultados más realistas con iteraciones sofisticadas. Pueden renderizar rápidamente cientos de fotos manipuladas y personalizadas a partir de unas pocas muestras.
Desafortunadamente, las imágenes de IA son difíciles de detectar. Su mejor apuesta sería hacer un búsqueda inversa de imágenes y examinar los resultados relevantes.
4. Creación de perfiles engañosamente auténticos
Los bots se acercan a las víctimas en masa. Entonces, los estafadores románticos que prefieren un esquema dirigido crean solo uno o dos perfiles que parecen auténticos. Usarán IA para parecer convincentes. Las herramientas de IA generativa pueden componer descripciones de apariencia auténtica que suenan naturales y genuinas; la mala gramática ya no será un problema.
Aquí está ChatGPT sugiriendo algunos pasatiempos para incluir en un perfil de citas.
Y aquí está ChatGPT escribiendo una biografía completa para su perfil de citas.
Dado que este proceso consume tanto tiempo, también requiere una recompensa mayor. Entonces, los estafadores tienden a pedir más. Una vez que se ganen su confianza, pedirán ayuda con varios "problemas", como facturas de hospital, pagos de préstamos o tasas de matrícula. Algunos incluso afirmarán visitarlo si se hace cargo de su boleto.
Estos ciberdelincuentes son expertos en manipular a las víctimas. La mejor táctica es evitar comprometerse con ellos desde el primer momento. No dejes que digan nada. De lo contrario, podría caer gradualmente en sus métodos de engaño y gaslighting.
5. Explotación de la tecnología Deepfake para la extorsión sexual
AI avanzó herramientas de falsificación profunda a un ritmo alarmantemente rápido. Las nuevas tecnologías reducen imperfecciones menores en videos deepfake, como parpadeo no natural, tonos de piel desiguales, audio distorsionado y elementos inconsistentes.
Desafortunadamente, estos errores también sirven como banderas rojas. Permitir que los usuarios los eliminen hace que la diferenciación entre videos legítimos y falsos sea más difícil.
Bloomberg muestra cómo cualquier persona con conocimientos básicos de tecnología puede manipular su voz y sus imágenes para replicar a otros.
Además de crear perfiles de citas realistas, los estafadores explotan herramientas falsas para la extorsión sexual. Mezclan fotos y videos públicos con pornografía. Después de manipular contenidos ilícitos, chantajearán a las víctimas y les exigirán dinero, datos personales o favores sexuales.
No cedas si te apuntan. Llame al 1-800-CALL-FBI, envíe un aviso al FBI o visite la oficina local del FBI si se encuentra en esta situación.
6. Integración de modelos de IA con sistemas de piratería de fuerza bruta
Si bien los modelos de lenguaje de código abierto admiten algunos avances de IA, también son propensos a la explotación. Los delincuentes se aprovecharán de cualquier cosa. No puede esperar que ignoren el algoritmo detrás de modelos de lenguaje altamente sofisticados como Llama y asistente abierto.
En las estafas románticas, los piratas suelen integrar modelos de lenguaje con el descifrado de contraseñas. Las capacidades de aprendizaje automático y NLP de AI permiten que los sistemas de piratería de fuerza bruta produzcan combinaciones de contraseñas de manera rápida y eficiente. Incluso podrían hacer predicciones informadas si se les proporciona suficiente contexto.
No tienes control sobre lo que hacen los estafadores. Para proteger sus cuentas, asegúrese de crear una contraseña verdaderamente segura que comprende caracteres especiales, combinaciones alfanuméricas y más de 14 caracteres.
7. Imitando a personas reales con clonación de voz
Los generadores de voz de IA comenzaron como un juguete genial. Los usuarios convertirían pistas de muestra de sus artistas favoritos en versiones o incluso nuevas canciones. Tome Heart on My Sleeve como ejemplo. usuario de Tik Tok escritor fantasma977 hizo una canción súper realista imitando a Drake y The Weeknd, aunque ninguno de los artistas la cantó.
A pesar de las bromas y los memes a su alrededor, la síntesis de voz es muy peligrosa. Permite a los delincuentes ejecutar ataques sofisticados. Por ejemplo, los estafadores románticos explotan las herramientas de clonación de voz para llamar a los objetivos y dejar grabaciones engañosas. Las víctimas que no estén familiarizadas con la síntesis de voz no notarán nada inusual.
Protéjase de las estafas de clones de voz de IA estudiando cómo suenan las salidas sintetizadas. Explora estos generadores. Simplemente crean clones casi idénticos; aún detectará algunas imperfecciones e inconsistencias.
Protéjase contra los estafadores de citas con IA
A medida que avanzan las herramientas generativas de inteligencia artificial, los estafadores románticos desarrollarán nuevas formas de explotarlas. Los desarrolladores no pueden detener a estos delincuentes. Asuma un papel proactivo en la lucha contra los delitos cibernéticos en lugar de simplemente confiar en que las restricciones de seguridad funcionan. Todavía puedes usar aplicaciones de citas. Pero asegúrese de conocer a la persona al otro lado de la pantalla antes de interactuar con ella.
Y tenga cuidado con otros esquemas asistidos por IA. Además de las estafas románticas, los delincuentes usan la IA para el robo de identidad, la extorsión cibernética, el chantaje, los ataques de ransomware y la piratería de fuerza bruta. Aprenda a combatir estas amenazas también.