ChatGPT puede ser una herramienta útil, ya sea que sus intenciones sean buenas o malas. Esto significa que si desea participar en un fraude, ChatGPT puede ayudarlo.

Aunque muchos nativos digitales elogian a ChatGPT, algunos temen que haga más daño que bien. Los informes de noticias sobre delincuentes que secuestran AI han estado circulando en Internet, lo que aumenta la inquietud entre los escépticos. Incluso consideran a ChatGPT una herramienta peligrosa.

Los chatbots de IA no son perfectos, pero no tienes que evitarlos por completo. Aquí encontrará todo lo que debe saber sobre cómo los delincuentes abusan de ChatGPT y qué puede hacer para detenerlos.

¿ChatGPT comprometerá su información personal?

La mayoría de las preocupaciones de seguridad de front-end sobre ChatGPT provienen de especulaciones e informes no verificados. Después de todo, la plataforma solo se lanzó en noviembre de 2022. Es natural que los nuevos usuarios tengan conceptos erróneos sobre la privacidad y la seguridad de las herramientas desconocidas.

instagram viewer

De acuerdo a Condiciones de uso de OpenAI, así es como ChatGPT maneja los siguientes datos:

Información de identificación personal

Los rumores dicen que ChatGPT vende información de identificación personal (PII).

La plataforma fue lanzada por OpenAI, un laboratorio de investigación de inteligencia artificial de renombre financiado por inversores tecnológicos como Microsoft y Elon Musk. ChatGPT solo debe usar los datos del cliente para proporcionar los servicios establecidos en el política de privacidad.

Además, ChatGPT solicita información mínima. Puede crear una cuenta con solo su nombre y dirección de correo electrónico.

Conversaciones

OpenAI mantiene seguras las conversaciones de ChatGPT, pero se reserva el derecho de monitorearlas. Los entrenadores de IA buscan continuamente áreas de mejora. Dado que la plataforma comprende conjuntos de datos vastos pero limitados, la resolución de errores, fallas y vulnerabilidades requiere actualizaciones en todo el sistema.

Sin embargo, OpenAI solo puede monitorear convos con fines de investigación. Distribuirlos o venderlos a terceros viola sus propios términos de uso.

Información pública

De acuerdo con la BBC, OpenAI entrenó a ChaGPT en 300 mil millones de palabras. Recopila datos de páginas web públicas, como plataformas de redes sociales, sitios web comerciales y secciones de comentarios. A menos que se haya desconectado y haya borrado su huella digital, es probable que ChatGPT tenga su información.

¿Qué riesgos de seguridad presenta ChatGPT?

Si bien ChatGPT no es intrínsecamente peligroso, la plataforma aún presenta riesgos de seguridad. Los delincuentes pueden eludir las restricciones para ejecutar varios ataques cibernéticos.

1. Correos electrónicos de phishing convincentes

En lugar de pasar horas escribiendo correos electrónicos, los delincuentes usan ChatGPT. Es rápido y preciso. Los modelos de lenguaje avanzado (como GPT-3.5 y GPT-4) pueden producir cientos de correos electrónicos de phishing coherentes y convincentes en cuestión de minutos. Incluso adoptan tonos y estilos de escritura únicos.

Dado que ChatGPT dificulta la detección de intentos de piratería, tenga mucho cuidado antes de responder correos electrónicos. Como regla general, evite divulgar información. Tenga en cuenta que las empresas y organizaciones legítimas rara vez solicitan PII confidencial a través de correos electrónicos aleatorios.

Aprenda a detectar intentos de piratería. Aunque los proveedores de correo electrónico filtran los mensajes de spam, algunos astutos podrían pasar desapercibidos. Aún debe saber cómo son los mensajes de phishing.

2. Robo de datos

ChatGPT utiliza un LLM de código abierto, que cualquiera puede modificar. Los codificadores que dominan los modelos de lenguaje extenso (LLM) y el aprendizaje automático a menudo integran modelos de IA previamente entrenados en sus sistemas heredados. Entrenar a la IA en nuevos conjuntos de datos altera la funcionalidad. Por ejemplo, ChatGPT se convierte en un pseudo experto en fitness si le das recetas y rutinas de ejercicio.

Aunque colaborativo y conveniente, el código abierto deja a las tecnologías vulnerables al abuso. Los delincuentes expertos ya explotan ChatGPT. Lo entrenan en grandes volúmenes de datos robados, convirtiendo la plataforma en una base de datos personal para el fraude.

Recuerde: usted no tiene control sobre cómo operan los ladrones. El mejor enfoque es ponerse en contacto con la Comisión Federal de Comercio (FTC) una vez que note signos de robo de identidad.

3. Producción de malware

ChatGPT escribe fragmentos de código utilizables en diferentes lenguajes de programación. La mayoría de los ejemplos requieren modificaciones mínimas para funcionar correctamente, especialmente si estructura un mensaje conciso. Puede aprovechar esta función para desarrollar aplicaciones y sitios.

Dado que ChatGPT se entrenó en miles de millones de conjuntos de datos, también conoce prácticas ilícitas, como desarrollar malware y virus. OpenAI prohíbe que los chatbots escriban códigos maliciosos. Pero los delincuentes eluden estas restricciones al reestructurar las indicaciones y hacer preguntas precisas.

La foto de abajo muestra que ChatGPT rechaza escribir código con fines maliciosos.

Mientras tanto, la foto de abajo muestra que ChatGPT le dará información dañina si expresa sus indicaciones correctamente.

4. Robo de Propiedad Intelectual

Los bloggers poco éticos hacen girar el contenido usando ChatGPT. Dado que la plataforma se ejecuta en LLM avanzados, puede reformular rápidamente miles de palabras y evitar etiquetas de plagio.

ChatGPT reformuló el siguiente texto en 10 segundos.

Por supuesto, girar todavía clasifica como plagio. Los artículos de IA parafraseados a veces se clasifican por casualidad, pero Google generalmente prefiere el contenido original de fuentes confiables. Los trucos baratos y los trucos de SEO no pueden vencer a la escritura perenne de alta calidad.

Además, Google lanza múltiples actualizaciones principales anualmente. Pronto se centrará en eliminar piezas perezosas y poco originales generadas por IA de las SERP.

5. Generar respuestas poco éticas

Los modelos de lenguaje de IA no tienen sesgos. Proporcionan respuestas analizando las solicitudes de los usuarios y extrayendo datos de su base de datos existente.

Tome ChatGPT como ejemplo. Cuando envía un aviso, responde en función de los conjuntos de datos que OpenAI usó para el entrenamiento.

Si bien las políticas de contenido de ChatGPT bloquean las solicitudes inapropiadas, los usuarios las evitan con avisos de jailbreak. Le dan instrucciones precisas e inteligentes. ChatGPT produce la siguiente respuesta si le pides que retrate a un personaje ficticio psicópata.

La buena noticia es OpenAI no ha perdido el control de ChatGPT. Sus esfuerzos continuos para endurecer las restricciones evitan que ChatGPT produzca respuestas poco éticas, independientemente de la entrada del usuario. Jailbreak no será tan fácil de seguir adelante.

6. Quid pro quo

El rápido crecimiento de tecnologías nuevas y desconocidas como ChatGPT crea oportunidades para ataques quid pro quo. Son tácticas de ingeniería social en las que los delincuentes atraen a las víctimas con ofertas falsas.

La mayoría de las personas aún no han explorado ChatGPT. Y los piratas informáticos aprovechan la confusión al difundir promociones, correos electrónicos y anuncios engañosos.

Los casos más notorios involucran aplicaciones falsas. Los nuevos usuarios no saben que solo pueden acceder a ChatGPT a través de OpenAI. Sin saberlo, descargan programas y extensiones de spam.

La mayoría solo quiere descargar aplicaciones, pero otros roban información de identificación personal. Los delincuentes los infectan con malware y enlaces de phishing. Por ejemplo, en marzo de 2023, un La extensión falsa de Chrome ChatGPT robó las credenciales de Facebook de más de 2000 usuarios al día.

Para combatir los intentos de quid pro quo, evite las aplicaciones de terceros. OpenAI nunca lanzó una aplicación móvil autorizada, un programa informático o una extensión de navegador para ChatGPT. Cualquier cosa que afirme como tal es una estafa.

Use ChatGPT de manera segura y responsable

ChatGPT no es una amenaza en sí mismo. El sistema tiene vulnerabilidades, pero no comprometerá sus datos. En lugar de temer a las tecnologías de IA, investigue cómo los delincuentes las incorporan a las tácticas de ingeniería social. De esa manera, puede protegerse proactivamente.

Pero si todavía tienes dudas sobre ChatGPT, prueba con Bing. El nuevo Bing presenta un chatbot impulsado por IA que se ejecuta en GPT-4, extrae datos de Internet y sigue estrictas medidas de seguridad. Puede que lo encuentres más adecuado a tus necesidades.