Lectores como tú ayudan a apoyar a MUO. Cuando realiza una compra utilizando enlaces en nuestro sitio, podemos ganar una comisión de afiliado. Leer más.

El lanzamiento de ChatGPT de OpenAI fue seguido por una emoción que solo es igualada por un puñado de productos tecnológicos de la historia de Internet.

Si bien muchas personas están encantadas con este nuevo servicio de IA, la emoción que otros sintieron se ha convertido desde entonces en preocupaciones e incluso miedos. Los estudiantes ya están haciendo trampa con él, y muchos profesores descubren ensayos y tareas escritos por el chatbot de IA. Los profesionales de la seguridad están expresando su preocupación de que los estafadores y los actores de amenazas lo utilicen para escribir correos electrónicos de phishing y crear malware.

Entonces, con todas estas preocupaciones, ¿OpenAI está perdiendo el control de uno de los chatbots de IA más potentes actualmente en línea? Vamos a averiguar.

Comprender cómo funciona ChatGPT

Antes de que podamos tener una idea clara de cuánto OpenAI está perdiendo el control de ChatGPT, primero debemos entender

instagram viewer
cómo funciona ChatGPT.

En pocas palabras, ChatGPT se entrena utilizando una colección masiva de datos provenientes de diferentes rincones de Internet. Los datos de capacitación de ChatGPT incluyen enciclopedias, artículos científicos, foros de Internet, sitios web de noticias y repositorios de conocimiento como Wikipedia. Básicamente, se alimenta de la enorme cantidad de datos disponibles en la World Wide Web.

A medida que explora Internet, recopila conocimientos científicos, consejos de salud, textos religiosos y todos los buenos tipos de datos que se le ocurran. Pero también analiza una tonelada de información negativa: malas palabras, NSFW y contenido para adultos, información sobre cómo crear malware y gran parte de las cosas malas que puede encontrar en Internet.

No existe una manera infalible de garantizar que ChatGPT aprenda solo de la información positiva y descarte la mala. Técnicamente, no es práctico hacerlo a gran escala, especialmente para una IA como ChatGPT que necesita entrenarse con tantos datos. Además, parte de la información se puede usar tanto para propósitos buenos como malos, y ChatGPT no tendría forma de saber su intención a menos que se coloque en un contexto más amplio.

Entonces, desde el principio, tienes una IA capaz de "bien y mal". Entonces, es responsabilidad de OpenAI asegurarse de que el lado "malvado" de ChatGPT no se explote para obtener ganancias no éticas. La pregunta es; ¿OpenAI está haciendo lo suficiente para mantener ChatGPT lo más ético posible? ¿O OpenAI ha perdido el control de ChatGPT?

¿Es ChatGPT demasiado poderoso para su propio bien?

En los primeros días de ChatGPT, podía hacer que el chatbot creara guías sobre cómo fabricar bombas si se lo pedía amablemente. Las instrucciones sobre cómo crear malware o escribir un correo electrónico de estafa perfecto también estaban en la imagen.

Sin embargo, una vez que OpenAI se dio cuenta de estos problemas éticos, la empresa se apresuró a promulgar reglas para evitar que el chatbot genere respuestas que promuevan acciones ilegales, controvertidas o poco éticas. Por ejemplo, la última versión de ChatGPT se negará a responder cualquier pregunta directa sobre la fabricación de bombas o cómo hacer trampa en un examen.

Desafortunadamente, OpenAI solo puede proporcionar una solución curita al problema. En lugar de construir controles rígidos en la capa GPT-3 para evitar que ChatGPT sea explotado negativamente, OpenAI parece estar enfocado en entrenar al chatbot para que parezca ético. Este enfoque no elimina la capacidad de ChatGPT para responder preguntas sobre, por ejemplo, hacer trampa en los exámenes; simplemente le enseña al chatbot a "negarse a responder".

Por lo tanto, si alguien expresa sus indicaciones de manera diferente al adoptar los trucos de jailbreak de ChatGPT, eludir estas restricciones de curita es vergonzosamente fácil. En caso de que no esté familiarizado con el concepto, los jailbreaks de ChatGPT son indicaciones cuidadosamente redactadas para que ChatGPT ignore sus propias reglas.

Echa un vistazo a algunos ejemplos a continuación. Si le pregunta a ChatGPT cómo hacer trampa en los exámenes, no obtendrá ninguna respuesta útil.

Pero si haces jailbreak a ChatGPT usando indicaciones especialmente diseñadas, te dará consejos sobre cómo hacer trampa en un examen usando notas ocultas.

Aquí hay otro ejemplo: le hicimos una pregunta poco ética al ChatGPT estándar y las medidas de seguridad de OpenAI impidieron que respondiera.

Pero cuando le preguntamos a nuestra instancia con jailbreak del chatbot de IA, obtuvimos algunas respuestas al estilo de los asesinos en serie.

Incluso escribió una estafa de correo electrónico clásica de Nigerian Prince cuando se le preguntó.

El jailbreak invalida casi por completo cualquier protección que OpenAI haya implementado, lo que destaca que la empresa podría no tener una forma confiable de mantener bajo control su chatbot de IA.

No incluimos nuestras indicaciones con jailbreak en nuestros ejemplos para evitar prácticas poco éticas.

¿Qué le depara el futuro a ChatGPT?

Idealmente, OpenAI quiere tapar tantas lagunas éticas como sea posible para evitar ChatGPT de convertirse en una amenaza de ciberseguridad. Sin embargo, por cada protección que emplea, ChatGPT tiende a ser un poco menos valioso. Es un dilema.

Por ejemplo, las salvaguardas contra la descripción de acciones violentas podrían disminuir la capacidad de ChatGPT para escribir una novela que involucre la escena del crimen. A medida que OpenAI aumenta las medidas de seguridad, inevitablemente sacrifica parte de sus capacidades en el proceso. Esta es la razón por la cual ChatGPT ha sufrido una disminución significativa en la funcionalidad desde el impulso renovado de OpenAI para una moderación más estricta.

Pero, ¿cuánto más de las habilidades de ChatGPT estará dispuesto a sacrificar OpenAI para hacer que el chatbot sea más seguro? Todo esto se relaciona perfectamente con una creencia de larga data dentro de la comunidad de IA: los modelos de lenguaje grandes como ChatGPT son notoriamente difíciles de controlar, incluso por sus propios creadores.

¿Puede OpenAI poner ChatGPT bajo control?

Por ahora, OpenAI no parece tener una solución clara para evitar el uso poco ético de su herramienta. Asegurarse de que ChatGPT se use éticamente es un juego del gato y el ratón. Si bien OpenAI descubre formas en que las personas emplean para jugar con el sistema, sus usuarios también están constantemente modificar y probar el sistema para descubrir nuevas formas creativas de hacer que ChatGPT haga lo que no se supone que debe hacer hacer.

Entonces, ¿OpenAI encontrará una solución confiable a largo plazo para este problema? Sólo el tiempo dirá.