¿Quién no ha usado ChatGPT en este momento? Es divertido, absolutamente fascinante si tienes algún interés en la inteligencia artificial y gratis (por ahora).
Aunque generalmente se lo describe como un chatbot, ChatGPT es mucho más que eso. Puede generar textos, explicar temas complejos, actuar como traductor, inventar chistes y escribir código. Pero también puede ser armado por actores de amenazas.
Cómo funciona ChatGPT y por qué es atractivo para los ciberdelincuentes
ChatGPT (Transformador preentrenado generativo) fue desarrollado por el laboratorio de investigación de inteligencia artificial OpenAI y lanzado en noviembre de 2022. Es un modelo de lenguaje grande que utiliza una combinación de técnicas de aprendizaje automático supervisadas y de refuerzo.
Quizás lo más importante es que los usuarios ajustan y entrenan constantemente ChatGPT, que pueden votar a favor o rechazar sus respuestas, haciéndolo aún más preciso y poderoso, ya que recopila datos por sí mismo.
Eso es lo que diferencia a ChatGPT de otros chatbots. Y si lo has usado alguna vez, sabes que la diferencia se nota inmediatamente: a diferencia de otros productos similares, es capaz de participe activamente en una conversación y complete tareas complejas con una precisión sorprendente, al mismo tiempo que ofrece resultados coherentes y similares a los humanos. respuestas
Si le mostraran un breve ensayo escrito por un humano y uno escrito por ChatGPT, probablemente le costará determinar cuál es cuál. Como ejemplo, aquí hay una parte del texto que ChatGPT generó cuando se le pidió que escribiera un breve ensayo sobre El guardián entre el centeno.
Esto no quiere decir que ChatGPT no tenga sus limitaciones, ciertamente las tiene. Cuanto más lo uses, más notarás que este es el caso. Tan poderoso como es, todavía puede luchar con la lógica elemental, cometer errores, compartir información falsa y engañosa. información, malinterpretar las instrucciones de una manera cómica y ser manipulado para dibujar el error conclusión.
Pero el poder de ChatGPT no radica en su capacidad para conversar. Más bien, radica en su capacidad casi ilimitada para completar tareas en masa, de manera más eficiente y mucho más rápida de lo que podría hacerlo un ser humano. Con las entradas y los comandos correctos, y algunas soluciones creativas, ChatGPT se puede convertir en una herramienta de automatización inquietantemente poderosa.
Con eso en mente, no es difícil imaginar cómo un ciberdelincuente podría armar ChatGPT. Se trata de encontrar el método correcto, escalarlo y hacer que la IA complete tantas tareas como sea posible a la vez, con múltiples cuentas y en varios dispositivos si es necesario.
5 cosas que los actores de amenazas podrían hacer con ChatGPT
Ya hay algunos ejemplos reales de ChatGPT que utilizan los actores de amenazas, pero es más lo más probable es que esté siendo armado de varias maneras diferentes, o lo estará en algún momento del futuro. Aquí hay cinco cosas que los piratas informáticos pueden hacer (y probablemente estén haciendo) con ChatGPT.
1. Escribir software malicioso
Si ChatGPT puede escribir código, puede escribir malware. No hay sorpresa allí. Pero esto no es sólo una mera posibilidad teórica. En enero de 2023, la empresa de ciberseguridad Check Point Research descubrió que los ciberdelincuentes ya están usando ChatGPT para escribir malware—y alardeando de ello en foros clandestinos.
El actor de amenazas que Check Point Research descubrió usó el chatbot avanzado de manera bastante creativa para recrear el malware basado en Python descrito en ciertas publicaciones de investigación. Cuando los investigadores probaron el programa malicioso, el ciberdelincuente decía la verdad: su malware generado por ChatGPT hizo exactamente lo que estaba diseñado para hacer.
2. Generar correos electrónicos de phishing
A pesar de lo poderosos que se han vuelto los filtros de spam, correos electrónicos de phishing peligrosos todavía se deslizan por las grietas, y no hay mucho que la persona promedio pueda hacer excepto informar el remitente a su proveedor. Pero hay mucho que un actor de amenazas capaz podría hacer con una lista de correo y acceso a ChatGPT.
Con los comandos y sugerencias correctos, ChatGPT puede generar correos electrónicos de phishing convincentes, automatizando potencialmente el proceso para el actor de amenazas y permitiéndole escalar sus operaciones.
3. Crear sitios web fraudulentos
Si simplemente busca en Google el término "construir un sitio web con ChatGPT", encontrará un montón de tutoriales que explican con gran detalle cómo hacerlo. Si bien esta es una buena noticia para cualquiera que desee crear un sitio web desde cero, también lo es para los ciberdelincuentes. ¿Qué les impide usar ChatGPT para crear un montón de sitios fraudulentos o páginas de destino de phishing?
Las posibilidades son casi infinitas. Un actor de amenazas podría clonar un sitio web existente con ChatGPT y luego modificarlo, crear sitios web de comercio electrónico falsos, ejecutar un sitio con estafas de scareware, etcétera.
4. Crear contenido no deseado
Para configurar un sitio web falso, ejecutar una página de redes sociales fraudulenta o crear un sitio de imitación, necesita contenido, mucho. Y debe parecer lo más legítimo posible para que la estafa funcione. ¿Por qué un actor de amenazas contrataría a escritores de contenido o escribiría publicaciones de blog por su cuenta, cuando solo puede dejar que ChatGPT lo haga por él?
Por supuesto, un sitio web con contenido generado por IA probablemente sería penalizado por Google con bastante rapidez y no aparecería en los resultados de búsqueda. pero hay muchas maneras diferentes en las que un pirata informático puede promocionar un sitio web, enviar tráfico a él y estafar a las personas con su dinero o robar su información personal.
5. Difundir desinformación y noticias falsas
La desinformación en línea se ha convertido en un problema importante en los últimos años. Las noticias falsas se propagan como la pólvora en las redes sociales, y las personas que no saben nada mejor a menudo caen en historias engañosas y, a veces, literalmente inventadas. Esto puede tener consecuencias nefastas en la vida real, y parece que nadie tiene idea de cómo detenerlo. la difusión de noticias falsas sin violar las leyes de libertad de expresión.
Herramientas como ChatGPT podrían exacerbar este problema. Los actores de amenazas que tienen acceso a un software que puede generar miles de noticias falsas y publicaciones en las redes sociales todos los días parece una receta para el desastre.
No confíe en nuestra palabra
Si no está convencido, le preguntamos a ChatGPT cómo lo usaría un ciberdelincuente. Parece estar de acuerdo con el quid de este artículo.
En las manos equivocadas, ChatGPT se vuelve peligroso
Uno solo puede imaginarse de qué será capaz la inteligencia artificial dentro de cinco o diez años. Por el momento, es mejor ignorar la exageración y el pánico, y evaluar ChatGPT racionalmente.
Como toda tecnología, ChatGPT no es inherentemente útil ni dañino. A pesar de algunas deficiencias, es, con mucho, el chatbot más capaz jamás lanzado al público.