FraudGPT es un modelo de lenguaje perfeccionado para ayudar a los delincuentes en actividades fraudulentas. Aprenda lo que es protegerse contra amenazas potenciales.
El auge de la inteligencia artificial (IA) es un arma de doble filo. Como toda tecnología transformadora, la IA ofrece un inmenso potencial pero también enormes riesgos. A pesar del impulso enfático para regular la IA, los actores de amenazas parecen haberse adelantado a la curva.
Una nueva herramienta estilo ChatGPT, FraudGPT, está ganando terreno entre los ciberdelincuentes, permitiéndoles automatizar y ejecutar mejor una gran parte de sus operaciones de fraude. Cualquiera puede convertirse en víctima, por lo que es importante mantenerse informado. Aquí está todo lo que sabemos sobre FraudGPT hasta ahora.
¿Qué es FraudGPT?
FraudGPT es una herramienta de IA impulsada por un gran modelo de lenguaje que está particularmente ajustado para ayudar a los ciberdelincuentes a cometer delitos cibernéticos. La herramienta de inteligencia artificial basada en suscripción permite a los actores de amenazas facilitar sus actividades delictivas, como el carding, el phishing y la creación de malware.
Aunque los detalles sobre la herramienta siguen siendo muy limitados, los investigadores de Netenrich, una firma de investigación de seguridad, han descubierto varios anuncios en la web oscura que anuncian la herramienta. De acuerdo con la informe de investigación de Netenrich, las tarifas de suscripción oscilan entre $ 200 por mes y $ 1,700 por año.
Para visualizar mejor la herramienta, puede pensar en FraudGPT como ChatGPT pero para el fraude. Pero, ¿cómo funciona exactamente FraudGPT y cómo lo utilizan los ciberdelincuentes?
¿Cómo funciona FraudGPT?
En esencia, FraudGPT no es significativamente diferente de cualquier herramienta que funcione con un modelo de lenguaje grande. En otras palabras, la herramienta en sí es una interfaz interactiva para que los delincuentes accedan a un tipo especial de modelo de lenguaje que se ha ajustado para cometer delitos cibernéticos.
¿Aún no lo entiendes? He aquí una idea aproximada de lo que estamos hablando. En los primeros días del lanzamiento de ChatGPT, el chatbot de IA se podía usar para casi cualquier cosa, incluso para ayudar a los ciberdelincuentes a crear malware. Esto fue posible porque el modelo de lenguaje subyacente de ChatGPT se entrenó en un conjunto de datos que probablemente contenía muestras de una amplia gama de datos, incluidos datos que podrían ayudar a una empresa criminal.
Los modelos de lenguaje extenso generalmente se alimentan de todo, desde cosas buenas, como teorías científicas, información de salud y política, a los no tan buenos, como muestras de código de malware, mensajes de campañas de carding y phishing, y otros criminales materiales Cuando se trata con el tipo de conjuntos de datos necesarios para entrenar modelos de lenguaje como el que impulsa ChatGPT, es casi inevitable que el modelo contenga muestras de materiales no deseados.
A pesar de los esfuerzos típicamente meticulosos para eliminar los materiales no deseados en el conjunto de datos, algunos se escapan, y por lo general todavía son suficientes para darle al modelo la capacidad de generar materiales para facilitar ciberdelincuencia Por eso con el derecho pronta ingenieria, puede obtener herramientas como ChatGPT, Google Bard y Bing AI para ayudarlo a escribir correos electrónicos fraudulentos o malware informático.
Si herramientas como ChatGPT pueden ayudar a los ciberdelincuentes a cometer delitos a pesar de todos los esfuerzos para hacer que estos chatbots de IA sean seguros, ahora piense en el potenciar una herramienta como FraudGPT podría traer, teniendo en cuenta que se ajustó específicamente en materiales maliciosos para que sea adecuado para ciberdelincuencia Es como si el gemelo malvado de ChatGPT se pusiera esteroides.
Por lo tanto, para usar la herramienta, los delincuentes podrían simplemente solicitar el chatbot como lo harían con ChatGPT. Podrían pedirle que, por ejemplo, escriba un correo electrónico de phishing para Jane Doe, que trabaja en la empresa ABC, o tal vez pedirle que escriba malware usando C++ para robar todos los archivos PDF de una computadora con Windows 10. Los delincuentes básicamente crearían una mecanización malvada y dejarían que el chatbot hiciera el trabajo pesado.
¿Cómo puede protegerse del fraudeGPT?
A pesar de ser un nuevo tipo de herramienta, la amenaza que plantea FraudGPT no es fundamentalmente diferente. Se podría decir que introduce más automatización y eficiencia en los métodos ya establecidos de ejecución del delito cibernético.
Los delincuentes que utilizan la herramienta, al menos en teoría, podrían escribir correos electrónicos de phishing más convincentes, planificar mejor estafas y crean malware más efectivo, pero en su mayoría todavía confían en las formas establecidas de ejecutar sus infames planes Como resultado, las formas establecidas para protegerse aún se aplican:
- Tenga cuidado con los mensajes no solicitados que le piden información o le indican que haga clic en los enlaces. No proporcione información ni haga clic en enlaces en estos mensajes a menos que verifique la fuente.
- Comuníquese con las empresas directamente utilizando un número independiente y verificado para verificar la legitimidad. No utilice la información de contacto proporcionada en mensajes sospechosos.
- Use contraseñas seguras y únicas que sean difíciles de descifrar y adopte la autenticación de dos factores cuando esté disponible para todas las cuentas. Nunca comparta contraseñas o códigos que le hayan enviado.
- Verifique periódicamente los estados de cuenta en busca de actividades sospechosas.
- Mantenga el software actualizado y use herramientas antivirus o antimalware.
- Triture los documentos que contengan información de identificación personal o financiera cuando ya no los necesite.
Para obtener más información sobre cómo protegerse, lea nuestra guía sobre cómo protegerse en la era de la IA.
Manténgase informado para protegerse
La aparición de herramientas como FraudGPT nos recuerda que, a pesar de todo el bien que la IA puede hacer por nosotros, sigue representando una herramienta muy potente en manos de los actores de amenazas.
A medida que los gobiernos y las grandes empresas de IA emprenden una carrera frenética para promulgar mejores formas de regular la IA, es importante ser consciente de la amenaza que representa actualmente la IA y tomar las precauciones necesarias para proteger tú mismo.