Los chatbots y los de su tipo pueden parecer muy divertidos, pero también son útiles para los piratas informáticos. He aquí por qué todos necesitamos conocer el riesgo de seguridad de la IA.
La IA ha avanzado significativamente en los últimos años. Los modelos de lenguaje sofisticados pueden componer novelas completas, codificar sitios web básicos y analizar problemas matemáticos.
Aunque impresionante, la IA generativa también presenta riesgos de seguridad. Algunas personas simplemente usan chatbots para hacer trampa en los exámenes, pero otras los explotan directamente para cometer delitos cibernéticos. Aquí hay ocho razones por las que estos problemas persistirán, no solo a pesar de Los avances de la IA, pero porque de ellos también.
1. Chatbots de IA de código abierto revelan códigos back-end
Más empresas de IA están proporcionando sistemas de código abierto. Comparten abiertamente sus modelos de lenguaje en lugar de mantenerlos cerrados o propietarios. Tomemos a Meta como ejemplo. A diferencia de Google, Microsoft y OpenAI, permite que millones de usuarios accedan a su modelo de lenguaje,
Llama.Si bien los códigos de fuente abierta pueden promover la IA, también es arriesgado. OpenAI ya tiene problemas para controlar ChatGPT, su chatbot patentado, así que imagina lo que los delincuentes podrían hacer con el software libre. Ellos tienen control total sobre estos proyectos.
Incluso si Meta repentinamente saca su modelo de lenguaje, docenas de otros laboratorios de IA ya han lanzado sus códigos. Veamos HuggingChat. Dado que su desarrollador, HuggingFace, se enorgullece de la transparencia, muestra sus conjuntos de datos, modelo de lenguaje y versiones anteriores.
2. Jailbreaking Prompts Trick LLM
La IA es inherentemente amoral. No entiende el bien y el mal, incluso los sistemas avanzados siguen instrucciones de capacitación, pautas y conjuntos de datos. Simplemente reconocen patrones.
Para combatir las actividades ilícitas, los desarrolladores controlan la funcionalidad y las limitaciones estableciendo restricciones. Los sistemas de IA aún acceden a información dañina. Pero las pautas de seguridad les impiden compartirlos con los usuarios.
Veamos ChatGPT. Aunque responde preguntas generales sobre troyanos, no discutirá el proceso de desarrollo.
Dicho esto, las restricciones no son infalibles. Los usuarios eluden los límites reformulando las indicaciones, utilizando un lenguaje confuso y redactando instrucciones explícitamente detalladas.
Lea lo siguiente Indicador de fuga de ChatGPT. Engaña a ChatGPT para que use un lenguaje grosero y haga predicciones sin fundamento; ambos actos violan las pautas de OpenAI.
Aquí está ChatGPT con una declaración audaz pero falsa.
3. La IA compromete la seguridad por la versatilidad
Los desarrolladores de IA priorizan la versatilidad sobre la seguridad. Gastan sus recursos entrenando plataformas para lograr una gama más diversa de tareas y, en última instancia, reducir las restricciones. Después de todo, el mercado aclama a los chatbots funcionales.
Vamos comparar ChatGPT y Bing Chat, Por ejemplo. Si bien Bing cuenta con un modelo de lenguaje más sofisticado que extrae datos en tiempo real, los usuarios aún acuden en masa a la opción más versátil, ChatGPT. Las rígidas restricciones de Bing prohíben muchas tareas. Alternativamente, ChatGPT presenta una plataforma flexible que produce resultados muy diferentes según sus indicaciones
Aquí está el juego de roles de ChatGPT como un personaje ficticio.
Y aquí está Bing Chat negándose a jugar una personalidad "inmoral".
Los códigos de fuente abierta permiten que las empresas emergentes se unan a la carrera de la IA. Los integran en sus aplicaciones en lugar de construir modelos de lenguaje desde cero, ahorrando recursos masivos. Incluso los codificadores independientes experimentan con códigos de fuente abierta.
Una vez más, el software no propietario ayuda al avance de la IA, pero la liberación masiva de sistemas mal entrenados pero sofisticados hace más daño que bien. Los delincuentes abusarán rápidamente de las vulnerabilidades. Incluso podrían entrenar herramientas de IA no seguras para realizar actividades ilícitas.
A pesar de estos riesgos, las empresas tecnológicas seguirán lanzando versiones beta inestables de plataformas impulsadas por IA. La carrera de IA recompensa la velocidad. Es probable que resuelvan los errores en una fecha posterior en lugar de retrasar el lanzamiento de nuevos productos.
5. La IA generativa tiene barreras de entrada bajas
Las herramientas de IA reducen las barreras de entrada para los delitos. Los ciberdelincuentes redactan correos electrónicos no deseados, escriben código de malware y crean enlaces de phishing al explotarlos. Ni siquiera necesitan experiencia en tecnología. Dado que la IA ya accede a grandes conjuntos de datos, los usuarios simplemente tienen que engañarla para que produzca información dañina y peligrosa.
OpenAI nunca diseñó ChatGPT para actividades ilícitas. Incluso tiene directrices contra ellos. Todavía los ladrones obtuvieron casi instantáneamente el malware de codificación ChatGPT y escribir correos electrónicos de phishing.
Si bien OpenAI resolvió rápidamente el problema, enfatiza la importancia de la regulación del sistema y la gestión de riesgos. La IA está madurando más rápido de lo que nadie anticipó. Incluso los líderes tecnológicos se preocupan de que esta tecnología superinteligente pueda causar daños masivos en las manos equivocadas.
6. La IA sigue evolucionando
La IA todavía está evolucionando. Mientras el uso de la IA en la cibernética se remonta a 1940, los sistemas modernos de aprendizaje automático y los modelos de lenguaje surgieron recientemente. No puedes compararlos con las primeras implementaciones de IA. Incluso herramientas relativamente avanzadas como Siri y Alexa palidecen en comparación con los chatbots con tecnología LLM.
Aunque pueden ser innovadoras, las características experimentales también crean nuevos problemas. Percances de alto perfil con tecnologías de aprendizaje automático van desde SERP de Google defectuosos hasta chatbots sesgados que escupen insultos raciales.
Por supuesto, los desarrolladores pueden solucionar estos problemas. Solo tenga en cuenta que los delincuentes no dudarán en explotar incluso los errores aparentemente inofensivos; algunos daños son irreversibles. Así que tenga cuidado al explorar nuevas plataformas.
7. Muchos aún no entienden la IA
Si bien el público en general tiene acceso a sistemas y modelos de lenguaje sofisticados, solo unos pocos saben cómo funcionan. La gente debería dejar de tratar a la IA como un juguete. Los mismos chatbots que generan memes y responden trivia también codifican virus en masa.
Desafortunadamente, el entrenamiento centralizado de IA no es realista. Los líderes tecnológicos globales se enfocan en lanzar sistemas impulsados por IA, no recursos educativos gratuitos. Como resultado, los usuarios obtienen acceso a herramientas robustas y poderosas que apenas entienden. El público no puede seguir el ritmo de la carrera de la IA.
Tome ChatGPT como ejemplo. Los ciberdelincuentes abusan de su popularidad engañando a las víctimas con software espía disfrazado de aplicaciones ChatGPT. Ninguna de estas opciones proviene de OpenAI.
8. Los piratas informáticos de sombrero negro tienen más que ganar que los piratas informáticos de sombrero blanco
Los piratas informáticos de sombrero negro suelen tener más que ganar que los hackers éticos. Sí, las pruebas de penetración para los líderes tecnológicos mundiales pagan bien, pero solo un porcentaje de los profesionales de ciberseguridad consiguen estos trabajos. La mayoría trabaja por cuenta propia en línea. Plataformas como hackeruno y Multitud de bichos pagar unos cientos de dólares por errores comunes.
Alternativamente, los delincuentes ganan decenas de miles al explotar las inseguridades. Podrían chantajear a las empresas al filtrar datos confidenciales o cometer robo de identidad con información robada. Información de identificación personal (PII).
Cada institución, pequeña o grande, debe implementar sistemas de IA de manera adecuada. Contrariamente a la creencia popular, los piratas informáticos van más allá de las nuevas empresas tecnológicas y las PYMES. Algunos de los más violaciones históricas de datos en la última década involucrar a Facebook, Yahoo! e incluso al gobierno de los Estados Unidos.
Protéjase de los riesgos de seguridad de la IA
Teniendo en cuenta estos puntos, ¿debería evitar la IA por completo? Por supuesto que no. AI es inherentemente amoral; todos los riesgos de seguridad provienen de las personas que realmente los usan. Y encontrarán formas de explotar los sistemas de IA sin importar cuánto evolucionen.
En lugar de temer las amenazas de ciberseguridad que vienen con la IA, comprenda cómo puede prevenirlas. No se preocupe: las medidas de seguridad simples son muy útiles. Mantenerse cauteloso con las aplicaciones de IA sospechosas, evitar los hipervínculos extraños y ver el contenido de IA con escepticismo ya combate varios riesgos.