Muchos de nosotros usamos ChatGPT de manera frívola, pero conlleva serios problemas de seguridad y privacidad que debe conocer.
En enero de 2023, solo dos meses después del lanzamiento, ChatGPT (Transformador preentrenado generativo) se convirtió en la aplicación de más rápido crecimiento de todos los tiempos, acumulando más de 100 millones de usuarios.
El chatbot avanzado de OpenAI puede haber revigorizado el interés del público en la inteligencia artificial, pero pocos han contemplado seriamente los posibles riesgos de seguridad asociados con este producto.
ChatGPT: amenazas y problemas de seguridad
La tecnología que sustenta ChatGPT y otros chatbots puede ser similar, pero ChatGPT pertenece a una categoría propia. Esta es una gran noticia si pretendes usarlo como una especie de asistente personal, pero preocupante si consideras que los actores de amenazas también lo usan.
Los ciberdelincuentes pueden utilizar ChatGPT para escribir malware, crear sitios web fraudulentos, generar correos electrónicos de phishing, crear noticias falsas, etc. Debido a esto, ChatGPT puede ser un mayor riesgo de seguridad cibernética que un beneficio, como
computadora pitido ponerlo en un análisis.Al mismo tiempo, existen serias preocupaciones de que ChatGPT en sí mismo tenga ciertas vulnerabilidades no abordadas. Por ejemplo, en marzo de 2023, surgieron informes sobre algunos usuarios que podían ver los títulos de las conversaciones de otros. Como el borde informado en ese momento, el CEO de OpenAI, Sam Altman, explicó que "un error en una biblioteca de código abierto" había causado el problema.
Esto simplemente subraya lo importante que es limita lo que compartes con ChatGPT, que recopila una cantidad asombrosa de datos de forma predeterminada. El gigante tecnológico Samsung aprendió esto de la manera más difícil, cuando un grupo de empleados que había estado usando el chatbot como asistente le filtró accidentalmente información confidencial.
¿Es ChatGPT una amenaza para su privacidad?
Seguridad y privacidad no son lo mismo, pero están estrechamente relacionados y, a menudo, se cruzan. Si ChatGPT es una amenaza para la seguridad, también es una amenaza para la privacidad y viceversa. Pero, ¿qué significa esto en términos más prácticos? ¿Cómo son las políticas de seguridad y privacidad de ChatGPT?
Se extrajeron miles de millones de palabras de Internet para crear la vasta base de datos de ChatGPT. Esta base de datos está en continuo estado de expansión, ya que ChatGPT almacena todo lo que comparten los usuarios. La organización sin fines de lucro con sede en EE. Sentido común le dio a ChatGPT un puntaje de evaluación de privacidad del 61 por ciento, y señaló que el chatbot recopila información de identificación personal (PII) y otros datos confidenciales. La mayoría de estos datos se almacenan o se comparten con ciertos terceros.
En cualquier caso, debes tener cuidado al usar ChatGPT, especialmente si lo usas para trabajar, o para procesar información sensible. Como regla general, no debe compartir con el bot lo que no le gustaría que el público supiera.
Abordar los riesgos de seguridad asociados con ChatGPT
La inteligencia artificial se regulará en algún momento, pero es difícil imaginar un mundo en el que no represente una amenaza para la seguridad. Como toda tecnología, se puede abusar de ella y se abusará de ella.
En el futuro, los chatbots se convertirán en una parte integral de los motores de búsqueda, los asistentes de voz y las redes sociales, según Malwarebytes. Y tendrán un papel que desempeñar en diversas industrias, que van desde la atención médica y la educación hasta las finanzas y el entretenimiento.
Esto transformará radicalmente la seguridad tal como la conocemos. Pero como también señaló Malwarebytes, los profesionales de la ciberseguridad también pueden utilizar ChatGPT y herramientas similares; por ejemplo, para buscar errores en el software o "patrones sospechosos" en la actividad de la red.
Crear conciencia es clave
¿De qué será capaz ChatGPT dentro de cinco o diez años? Solo podemos especular, pero lo que sí sabemos con certeza es que la inteligencia artificial no va a ninguna parte.
A medida que surjan chatbots aún más avanzados, industrias enteras tendrán que adaptarse y aprender a usarlos de manera responsable. Esto incluye la industria de la ciberseguridad, que ya está siendo moldeada por la IA. Crear conciencia sobre los riesgos de seguridad asociados con la IA es clave y ayudará a garantizar que estas tecnologías se desarrollen y utilicen de manera ética.