Ya sea que esté utilizando ChatGPT u otro chatbot, debe ser consciente de las amenazas potenciales que ponen en duda la privacidad de sus datos.

Los chatbots existen desde hace años, pero el auge de grandes modelos de lenguaje, como ChatGPT y Google Bard, le ha dado a la industria de los chatbots una nueva vida.

Millones de personas utilizan ahora chatbots de IA en todo el mundo, pero existen algunos riesgos y preocupaciones importantes sobre la privacidad que se deben tener en cuenta si se desea probar una de estas herramientas.

1. Recopilación de datos

La mayoría de la gente no usa chatbots solo para saludar. Los chatbots modernos están diseñados para procesar y responder preguntas y solicitudes complejas, y los usuarios suelen incluir mucha información en sus indicaciones. Incluso si solo estás haciendo una pregunta sencilla, en realidad no querrás que vaya más allá de tu conversación.

De acuerdo a Sección de soporte de OpenAI, puede eliminar los registros de chat de ChatGPT cuando lo desee, y esos registros se eliminarán permanentemente de los sistemas de OpenAI después de 30 días. Sin embargo, la empresa conservará y revisará ciertos registros de chat si han sido marcados por contenido dañino o inapropiado.

instagram viewer

Otro chatbot de IA popular, Claude, también realiza un seguimiento de tus conversaciones anteriores. Centro de soporte de Anthropic afirma que Claude rastrea "sus indicaciones y resultados en el producto para brindarle una experiencia de producto consistente a lo largo del tiempo de acuerdo con sus controles". Tú puede eliminar tus conversaciones con Claude, por lo que olvida de qué has estado hablando, pero esto no significa que Anthropic eliminará inmediatamente tus registros de su sistemas.

Esto, por supuesto, plantea la pregunta: ¿se conservan mis datos o no? ¿ChatGPT u otros chatbots utilizan mis datos?

Pero las preocupaciones no terminan aquí.

¿Cómo aprende ChatGPT?

Para proporcionar información, se entrenan grandes modelos de lenguaje con enormes cantidades de datos. De acuerdo a Enfoque científico, Solo ChatGPT-4 recibió 300 mil millones de palabras de información durante su período de entrenamiento. Esto no está tomado directamente de algunas enciclopedias. Más bien, los desarrolladores de chatbots utilizan grandes cantidades de información de Internet para entrenar sus modelos. Esto puede incluir datos de libros, películas, artículos, entradas de Wikipedia, publicaciones de blogs, comentarios e incluso sitios de reseñas.

Tenga en cuenta que, según la política de privacidad del desarrollador de un chatbot, es posible que algunas de las fuentes antes mencionadas no se utilicen en la capacitación.

Muchos han criticado ChatGPT, afirmando que es una especie de pesadilla en términos de privacidad, que No se puede confiar en ChatGPT. ¿Entonces porqué es este el caso?

Aquí es donde las cosas se vuelven un poco borrosas. Si le pregunta directamente a ChatGPT-3.5 si tiene acceso a reseñas de productos o comentarios de artículos, obtendrá una respuesta negativa firme. Como puede ver en la captura de pantalla a continuación, GPT-3.5 afirma que no se le dio acceso a comentarios de artículos de usuarios ni reseñas de productos durante su capacitación.

Más bien, se capacitó utilizando "una amplia gama de textos de Internet, incluidos sitios web, libros, artículos y otro material escrito disponible públicamente hasta septiembre de 2021".

¿Pero ocurre lo mismo con GPT-4?

Cuando le preguntamos a GPT-4, nos dijeron que "OpenAI no utilizó reseñas de usuarios, datos personales ni comentarios de artículos específicos" durante el período de capacitación del chatbot. Además, GPT-4 nos dijo que sus respuestas se generan a partir de "patrones en los datos con los que fue entrenado, que consisten principalmente en libros, artículos y otros textos de Internet".

Cuando investigamos más a fondo, GPT-4 afirmó que cierto contenido de redes sociales puede, de hecho, incluirse en sus datos de entrenamiento, pero los creadores siempre permanecerán en el anonimato. GPT-4 declaró específicamente que "Incluso si el contenido de plataformas como Reddit fuera parte de los datos de entrenamiento, [no] tiene acceso a comentarios, publicaciones o datos específicos que puedan vincularse a un individuo usuario."

Otra parte notable de la respuesta de GPT-4 es la siguiente: "OpenAI no ha enumerado explícitamente todas las fuentes de datos utilizadas". De Por supuesto, sería difícil para OpenAI enumerar fuentes por valor de 300 mil millones de palabras, pero esto deja espacio para especulación.

en un Artículo de Ars Technica, se afirmó que ChatGPT recopila "información personal obtenida sin consentimiento". En el mismo artículo, Se mencionó la integridad contextual, concepto que se refiere a utilizar únicamente la información de alguien en el contexto en el que fue utilizado inicialmente. Si ChatGPT viola esta integridad contextual, los datos de las personas podrían estar en riesgo.

Otro punto de preocupación aquí es el cumplimiento de OpenAI con el Reglamento General de Protección de Datos (GDPR). Se trata de una normativa aplicada por la Unión Europea para proteger los datos de los ciudadanos. Varios países europeos, incluidos Italia y Polonia, han iniciado investigaciones sobre ChatGPT debido a preocupaciones sobre su cumplimiento del RGPD. Durante un breve tiempo, ChatGPT incluso estuvo prohibido en Italia por motivos de privacidad.

OpenAI ha amenazado con retirarse de la UE en el pasado debido a las regulaciones de IA previstas, pero desde entonces se ha retractado.

ChatGPT puede ser el chatbot de IA más grande de la actualidad, pero los problemas de privacidad del chatbot no comienzan ni terminan con este proveedor. Si está utilizando un chatbot sospechoso con una política de privacidad mediocre, es posible que sus conversaciones se utilicen indebidamente o que se utilice información muy confidencial en sus datos de entrenamiento.

2. Robo de datos

Como cualquier herramienta o plataforma en línea, los chatbots son vulnerables al ciberdelito. Incluso si un chatbot hiciera todo lo posible para proteger a los usuarios y sus datos, siempre existe la posibilidad de que un hacker experto consiga infiltrarse en sus sistemas internos.

Si un servicio de chatbot determinado estuviera almacenando su información confidencial, como los detalles de pago de su prima suscripción, datos de contacto o similares, estos podrían ser robados y explotados si se produjera un ciberataque. ocurrir.

Esto es especialmente cierto si estás utilizando un chatbot menos seguro cuyos desarrolladores no han invertido en una protección de seguridad adecuada. No sólo se podrían piratear los sistemas internos de la empresa, sino que su propia cuenta corre el riesgo de verse comprometida si no tiene alertas de inicio de sesión o una capa de autenticación.

Ahora que los chatbots de IA son tan populares, los ciberdelincuentes naturalmente han acudido en masa a utilizar esta industria para sus estafas. Los sitios web y complementos falsos de ChatGPT han sido un problema importante desde que el chatbot de OpenAI llegó a la corriente principal en finales de 2022, con personas cayendo en estafas y regalando información personal bajo el pretexto de legitimidad y confianza.

En marzo de 2023, MUO informó sobre un Falsa extensión ChatGPT de Chrome que roba inicios de sesión de Facebook. El complemento podría aprovechar una puerta trasera de Facebook para piratear cuentas de alto perfil y robar cookies de usuarios. Este es sólo un ejemplo de numerosos servicios ChatGPT falsos diseñados para estafar a víctimas desconocidas.

3. Infección de malware

Si está utilizando un chatbot sospechoso sin darse cuenta, es posible que el chatbot le proporcione enlaces a sitios web maliciosos. Tal vez el chatbot le haya alertado sobre un obsequio tentador o le haya proporcionado una fuente para una de sus declaraciones. Si los operadores del servicio tienen intenciones ilícitas, el objetivo de la plataforma puede ser difundir malware y estafas a través de enlaces maliciosos.

Alternativamente, los piratas informáticos pueden comprometer un servicio de chatbot legítimo y utilizarlo para difundir malware. Si este chatbot son muchas personas, miles o incluso millones de usuarios quedarán expuestos a este malware. Aplicaciones ChatGPT falsas incluso han estado en la App Store de Apple, por lo que es mejor andar con cuidado.

En general, nunca debes hacer clic en ningún enlace que proporcione un chatbot antes. ejecutándolo a través de un sitio web de verificación de enlaces. Esto puede parecer irritante, pero siempre es mejor asegurarse de que el sitio al que se dirige no tenga un diseño malicioso.

Además, nunca debes instalar complementos ni extensiones de chatbot sin verificar primero su legitimidad. Investigue un poco sobre la aplicación para ver si ha sido bien revisada y también realice una búsqueda del desarrollador de la aplicación para ver si encuentra algo sospechoso.

Los chatbots no son inmunes a los problemas de privacidad

Como la mayoría de las herramientas en línea hoy en día, los chatbots han sido criticados repetidamente por sus posibles problemas de seguridad y privacidad. Ya sea que se trate de un proveedor de chatbot que toma atajos en lo que respecta a la seguridad del usuario o de los riesgos continuos de ciberataques y estafas, Es fundamental que sepas qué recopila tu servicio de chatbot sobre ti y si utiliza la seguridad adecuada. medidas.