ChatGPT puede ayudar a las personas a hacer una gran cantidad de cosas, incluido el acceso a su información más confidencial.

Desde su lanzamiento, ChatGPT, el chatbot de OpenAI, ha sido utilizado por millones de personas para escribir texto, crear música y generar código. Pero a medida que más personas usan el chatbot de IA, es importante considerar los riesgos de seguridad.

Como cualquier tecnología, ChatGPT puede usarse por motivos nefastos. Los piratas informáticos, por ejemplo, pueden usarlo para crear contenido malicioso, como escribir mensajes de correo electrónico falsos para obtener acceso a su PC o incluso a su cuenta bancaria.

ChatGPT puede ayudar a los ciberdelincuentes a piratear su PC

Los piratas informáticos, incluidos los script kiddies, pueden use ChatGPT para crear nuevo malware o mejorar los existentes. Algunos ciberdelincuentes ya usan el chatbot, especialmente sus versiones anteriores, para escribir código que, según afirman, puede cifrar archivos.

Para contrarrestar tales casos de uso, OpenAI ha implementado mecanismos para rechazar las solicitudes que le piden a ChatGPT que cree malware. Por ejemplo, si le pide al chatbot que "escriba malware", no lo hará. A pesar de esto, los ciberdelincuentes eluden fácilmente estas barreras de moderación de contenido.

instagram viewer

Al actuar como un probador de penetración, un actor de amenazas puede reformular sus indicaciones para engañar a ChatGPT para que escriba código, que luego puede modificar y usar en ataques cibernéticos.

A informe de punto de control, una empresa de seguridad israelí, indica que un hacker podría haber usado ChatGPT para crear malware básico Infostealer. La empresa de seguridad también descubrió a otro usuario que afirma que ChatGPT lo ayudó a crear una herramienta de cifrado de múltiples capas que puede cifrar varios archivos en un ataque de ransomware.

En un incidente separado, los investigadores solicitaron a ChatGPT que generara un código VBA malicioso que podría implantarse en un archivo de Microsoft Excel que infectaría su PC si se abriera; lo hizo con éxito. Además, hay afirmaciones de que ChatGPT puede codificar software malicioso capaz de espiar sus pulsaciones de teclado.

¿Puede ChatGPT hackear su cuenta bancaria?

Muchas violaciones de datos comienzan con un ataque de phishing exitoso. Los ataques de phishing a menudo involucran a un actor malintencionado que envía a un destinatario un correo electrónico que contiene documentos o enlaces que parecen legítimos y que, al hacer clic en ellos, pueden instalar malware en su dispositivo. De esta manera, el código de ChatGPT no necesita piratear su cuenta bancaria directamente. Alguien solo necesita usar ChatGPT para ayudarlo a engañarlo para que le dé acceso.

Afortunadamente, puede reconocer fácilmente la mayoría de las estafas de phishing tradicionales; los errores gramaticales, las faltas de ortografía y las frases extrañas a menudo los caracterizan. Pero todos estos son errores que ChatGPT rara vez comete, incluso cuando se usa para redactar correos electrónicos maliciosos para estafas de phishing.

Cuando se usan en estafas de phishing, los mensajes que parecen provenir de una fuente legítima pueden facilitar que las víctimas renunciar a su información de identificación personal, como contraseñas bancarias.

Si su banco le envió un mensaje por correo electrónico, considere visitar el sitio web del banco directamente en lugar de hacer clic en cualquier enlace incrustado. Hacer clic en enlaces y archivos adjuntos aleatorios, especialmente aquellos que le piden que inicie sesión en algún lugar, rara vez es una buena idea.

Para el phishing, se trata principalmente de volumen. ChatGPT puede ayudar a impulsar las campañas de phishing, ya que puede generar rápidamente grandes cantidades de textos de sonido natural que se adaptan a audiencias específicas.

Otro tipo de ataque de phishing que involucra el uso de ChatGPT es cuando un pirata informático crea una cuenta falsa en una plataforma de chat popular como Discord y finge ser un representante del cliente. El representante de atención al cliente falso se pone en contacto con los clientes que han publicado inquietudes y ofrece ayuda. Si un usuario cae en la trampa, el ciberdelincuente lo redirigirá a un sitio web falso que lo engaña para que comparta información personal, como sus datos de inicio de sesión bancarios.

Proteja su PC y su cuenta bancaria en la era de la IA

ChatGPT es una herramienta poderosa y valiosa que puede responder muchas preguntas que le haga. Pero el chatbot también se puede usar con fines maliciosos, como generar mensajes de phishing y crear malware.

La buena noticia es que OpenAI continúa implementando medidas que evitan que los usuarios exploten ChatGPT al solicitar avisos dañinos. Por otra parte, los actores de amenazas siguen encontrando nuevas formas de eludir esas restricciones.

Para minimizar los peligros potenciales de los chatbots de IA, es crucial conocer sus riesgos potenciales y las mejores medidas de seguridad posibles para protegerse de los piratas informáticos.