Su chatbot de IA generativa favorito parece benigno, pero con la experiencia adecuada, podría revelar información delicada sobre usted.

Conclusiones clave

  • Los ataques de inversión de modelos de redes neuronales utilizan chatbots de IA para descubrir y reconstruir información personal a partir de huellas digitales.
  • Los piratas informáticos crean modelos de inversión que predicen las entradas en función de las salidas de una red neuronal, revelando datos confidenciales.
  • Técnicas como la privacidad diferencial, la computación multipartita y el aprendizaje federado pueden ayudar a proteger contra los ataques de inversión, pero es una batalla continua. Los usuarios deben compartir información de forma selectiva, mantener el software actualizado y tener cuidado al proporcionar información personal.

Imagina que estás en un restaurante y acabas de probar el mejor pastel que jamás hayas comido. De vuelta en tu casa, estás decidido a recrear esta obra maestra culinaria. En lugar de pedir la receta, confías en tus papilas gustativas y en tus conocimientos para deconstruir el postre y preparar el tuyo propio.

instagram viewer

Ahora bien, ¿qué pasaría si alguien pudiera hacer eso con tu información personal? Alguien prueba la huella digital que dejas y reconstruye tus datos privados.

Esa es la esencia de un ataque de inversión de modelo de red neuronal, una técnica que podría convertir un chatbot de IA en una herramienta de investigación cibernética.

Comprensión de los ataques de inversión del modelo de red neuronal

A red neuronal es el "cerebro" detrás de la inteligencia artificial (IA) moderna. Son responsables de la impresionante funcionalidad detrás del reconocimiento de voz, los chatbots humanizados y la IA generativa.

Las redes neuronales son esencialmente una serie de algoritmos diseñados para reconocer patrones, pensar e incluso aprender como un cerebro humano. Lo hacen a una escala y velocidad que supera con creces nuestras capacidades orgánicas.

El libro de los secretos de la IA

Al igual que nuestro cerebro humano, las redes neuronales pueden ocultar secretos. Estos secretos son los datos que sus usuarios les han proporcionado. En un ataque de inversión de modelo, un hacker utiliza las salidas de una red neuronal (como las respuestas de un chatbot) para Ingeniería inversa las entradas (la información que ha proporcionado).

Para ejecutar el ataque, los piratas informáticos utilizan su propio modelo de aprendizaje automático llamado "modelo de inversión". Este modelo es diseñado para ser una especie de imagen especular, entrenado no en los datos originales sino en los resultados generados por el objetivo.

El propósito de este modelo de inversión es predecir las entradas: los datos originales, a menudo confidenciales, que usted ha introducido en el chatbot.

Creando el modelo de inversión

Se puede considerar la creación de la inversión como la reconstrucción de un documento triturado. Pero en lugar de unir tiras de papel, se trata de unir la historia contada a las respuestas del modelo objetivo.

El modelo de inversión aprende el lenguaje de las salidas de la red neuronal. Busca señales reveladoras que, con el tiempo, revelen la naturaleza de las entradas. Con cada nuevo dato y cada respuesta que analiza, predice mejor la información que usted proporciona.

Este proceso es un ciclo constante de hipótesis y pruebas. Con suficientes resultados, el modelo de inversión puede inferir con precisión un perfil detallado de usted, incluso a partir de los datos aparentemente más inofensivos.

El proceso del modelo de inversión es un juego de conectar puntos. Cada dato filtrado a través de la interacción permite que el modelo forme un perfil y, con el tiempo suficiente, el perfil que forma se detalla inesperadamente.

Con el tiempo, se revela información sobre las actividades, preferencias e identidad del usuario. Información que no estaba destinada a ser divulgada ni hecha pública.

¿Qué lo hace posible?

Dentro de las redes neuronales, cada consulta y respuesta es un punto de datos. Los atacantes expertos implementan métodos estadísticos avanzados para analizar estos puntos de datos y buscar correlaciones y patrones imperceptibles para el entendimiento humano.

Técnicas como el análisis de regresión (que examina la relación entre dos variables) para predecir los valores de la entrada en función de los resultados que recibe.

Los piratas informáticos utilizan algoritmos de aprendizaje automático en sus propios modelos de inversión para refinar sus predicciones. Toman los resultados del chatbot y los introducen en sus algoritmos para entrenarlos para aproximarse a la función inversa de la red neuronal objetivo.

En términos simplificados, la "función inversa" se refiere a cómo los piratas informáticos invierten el flujo de datos de la salida a la entrada. El objetivo del atacante es entrenar sus modelos de inversión para realizar la tarea opuesta a la red neuronal original.

En esencia, así es como crean un modelo que, dada únicamente la salida, intenta calcular cuál debe haber sido la entrada.

Cómo se pueden utilizar los ataques de inversión en su contra

Imagine que está utilizando una popular herramienta de evaluación de salud en línea. Usted escribe sus síntomas, condiciones previas, hábitos dietéticos e incluso uso de drogas para obtener una idea de su bienestar.

Eso es información sensible y personal.

Con un ataque de inversión dirigido al sistema de inteligencia artificial que estás usando, un hacker podría seguir el consejo general que te brinda el chatbot y usarlo para inferir tu historial médico privado. Por ejemplo, una respuesta del chatbot podría ser algo como esto:

Los anticuerpos antinucleares (ANA) se pueden utilizar para indicar la presencia de enfermedades autoinmunes como el lupus.

El modelo de inversión puede predecir que el usuario objetivo estaba haciendo preguntas relacionadas con una enfermedad autoinmune. Con más información y más respuestas, los piratas informáticos pueden inferir que el objetivo tiene un problema de salud grave. De repente, la útil herramienta en línea se convierte en una mirilla digital de su salud personal.

¿Qué se puede hacer con los ataques de inversión?

Podemos construir un fuerte alrededor de nuestros datos personales? Bueno, es complicado. Los desarrolladores de redes neuronales pueden dificultar la realización de ataques de modelos de inversión agregando capas de seguridad y oscureciendo su funcionamiento. A continuación se muestran algunos ejemplos de técnicas empleadas para proteger a los usuarios:

  • Privacidad diferencial: Esto garantiza que las salidas de IA sean lo suficientemente "ruidosas" como para enmascarar puntos de datos individuales. Es un poco como susurrar entre una multitud: tus palabras se pierden en la charla colectiva de quienes te rodean.
  • Computación multipartita: Esta técnica es como un equipo que trabaja en un proyecto confidencial compartiendo sólo los resultados de sus tareas individuales, no los detalles sensibles. Permite que varios sistemas procesen datos juntos sin exponer los datos de los usuarios individuales a la red ni entre sí.
  • Aprendizaje federado: Implica entrenar una IA en múltiples dispositivos, al mismo tiempo que se mantienen locales los datos de los usuarios individuales. Es un poco como un coro cantando juntos; se pueden escuchar todas las voces, pero ninguna voz puede aislarse o identificarse.

Si bien estas soluciones son en gran medida efectivas, protegerse contra ataques de inversión es un juego del gato y el ratón. A medida que mejoran las defensas, también lo hacen las técnicas para sortearlas. La responsabilidad, entonces, recae en las empresas y desarrolladores que recopilan y almacenan nuestros datos, pero hay formas de protegerse.

Cómo protegerse contra los ataques de inversión

Crédito de la imagen: Mike MacKenzie/Flickr

En términos relativos, las redes neuronales y las tecnologías de inteligencia artificial todavía están en su infancia. Hasta que los sistemas sean infalibles, la responsabilidad de ser la primera línea de defensa recae en el usuario cuando protegiendo tus datos.

A continuación se ofrecen algunos consejos sobre cómo reducir el riesgo de convertirse en víctima de un ataque de inversión:

  • Sea un partícipe selectivo: Trate su información personal como una receta familiar secreta. Sea selectivo acerca de con quién lo comparte, especialmente al completar formularios en línea e interactuar con chatbots. Cuestione la necesidad de cada dato que se le solicite. Si no compartirías la información con un extraño, no la compartas con un chatbot.
  • Mantenga el software actualizado: Las actualizaciones del software front-end, los navegadores e incluso el sistema operativo son diseñado para mantenerte seguro. Mientras los desarrolladores están ocupados protegiendo las redes neuronales, también puede reducir el riesgo de interceptación de datos aplicando parches y actualizaciones periódicamente.
  • Mantenga la información personal personal: Siempre que una aplicación o chatbot solicite datos personales, haga una pausa y considere la intención. Si la información solicitada parece irrelevante para el servicio prestado, probablemente lo sea.

No proporcionarías información confidencial como salud, finanzas o identidad a un nuevo conocido solo porque dijera que lo necesita. De manera similar, evalúe qué información es realmente necesaria para que una aplicación funcione y opte por no compartir más.

Proteger nuestra información personal en la era de la IA

Nuestra información personal es nuestro activo más valioso. Protegerla requiere vigilancia, tanto en la forma en que elegimos compartir información como en el desarrollo de medidas de seguridad para los servicios que utilizamos.

Ser consciente de estas amenazas y tomar medidas como las que se describen en este artículo contribuye a una defensa más sólida contra estos vectores de ataque aparentemente invisibles.

Comprometámonos con un futuro en el que nuestra información privada siga siendo solo eso: privada.