Los jailbreaks de ChatGPT te permiten desbloquear las limitaciones del chatbot. ¿Pero qué son exactamente? ¿Y son buenos o malos?
ChatGPT es una herramienta increíblemente poderosa y multifacética. Pero por mucho que el chatbot de IA sea una fuerza para el bien, también puede usarse para propósitos malvados. Entonces, para frenar el uso poco ético de ChatGPT, OpenAI impuso limitaciones sobre lo que los usuarios pueden hacer con él.
Sin embargo, como a los humanos les gusta traspasar los límites y las limitaciones, los usuarios de ChatGPT han encontrado formas de eludir estas limitaciones y obtener un control ilimitado del chatbot de IA a través de jailbreaks.
Pero, ¿qué son exactamente los jailbreaks de ChatGPT y qué puedes hacer con ellos?
¿Qué son los Jailbreaks de ChatGPT?
Un Jailbreak de ChatGPT es cualquier aviso de ChatGPT especialmente diseñado para que el chatbot de IA eluda sus reglas y restricciones.
Inspirado por el concepto de jailbreak de iPhone, que permite a los usuarios de iPhone eludir las restricciones de iOS, el jailbreak de ChatGPT es un concepto relativamente nuevo impulsado por el atractivo de "hacer cosas que no está permitido hacer" con ChatGPT. Y seamos honestos, la idea de la rebelión digital atrae a mucha gente.
Aquí está la cosa. La seguridad es un tema muy importante cuando se trata de inteligencia artificial. Esto es especialmente así con el advenimiento de la nueva era de chatbots como ChatGPT, Bing Chat y Bard AI. Una preocupación central con respecto a la seguridad de la IA es garantizar que los chatbots como ChatGPT no produzcan contenido ilegal, potencialmente dañino o poco ético.
Por su parte, OpenAI, la empresa detrás de ChatGPT, hace lo que puede para garantizar el uso seguro de ChatGPT. Por ejemplo, ChatGPT, de forma predeterminada, se negará a crear contenido NSFW, decir cosas dañinas sobre el origen étnico o enseñarle habilidades potencialmente dañinas.
Pero con las indicaciones de ChatGPT, el diablo está en los detalles. Si bien ChatGPT no puede hacer estas cosas, no significa que no pueda hacerlo. La forma en que funcionan los modelos de lenguaje grandes como GPT dificulta decidir qué puede hacer el chatbot y qué no.
Entonces, ¿cómo resolvió esto OpenAI? Al permitir que ChatGPT retenga sus habilidades para hacer todo lo posible y luego instruirlo sobre cuáles puede hacer.
Entonces, mientras OpenAI le dice a ChatGPT, "Oye, mira, se supone que no debes hacer esto". Los Jailbreaks son instrucciones que le dicen al chatbot: "Oye, mira, olvida lo que OpenAI te dijo sobre la seguridad. Probemos estas cosas peligrosas al azar".
¿Qué dice OpenAI sobre los Jailbreaks de ChatGPT?
La facilidad con la que podía eludir las restricciones en la primera iteración de ChatGPT sugiere que es posible que OpenAI no haya anticipado la adopción rápida y generalizada del jailbreak por parte de sus usuarios. En realidad, es una pregunta abierta si la compañía previó la aparición de jailbreak o no.
E incluso después de varias iteraciones de ChatGPT con resistencia mejorada al jailbreak, sigue siendo popular para los usuarios de ChatGPT intentarlo. Entonces, ¿qué dice OpenAI sobre el arte subversivo del jailbreak de ChatGPT?
Bueno, OpenAI parece estar adoptando una postura de condonación, sin alentar explícitamente ni prohibir estrictamente la práctica. Mientras discutía los jailbreaks de ChatGPT en una entrevista de YouTube, Sam Altman, CEO de OpenAI, explicó que la compañía quiere que los usuarios mantengan un control significativo sobre ChatGPT.
El CEO explicó además que el objetivo de OpenAI es garantizar que los usuarios puedan hacer que el modelo se comporte como quieran. De acuerdo con Altman:
Queremos que los usuarios tengan mucho control y hagan que el modelo se comporte de la manera que ellos quieren dentro de unos límites muy amplios. Y creo que la razón principal del jailbreak en este momento es que aún no hemos descubierto cómo dárselo a la gente...
¿Qué quiere decir esto? Significa que OpenAI te permitirá hacer jailbreak a ChatGPT si no haces cosas peligrosas con él.
Pros y contras de los Jailbreaks de ChatGPT
Los jailbreaks de ChatGPT no son fáciles de construir. Claro, puede conectarse en línea y copiar y pegar los que ya están preparados, pero existe una buena posibilidad de que OpenAI parchee el jailbreak poco después de que se haga público.
Los parches son mucho más rápidos si son peligrosos, como el infame jailbreak de DAN. Entonces, ¿por qué la gente pasa por el estrés de crear jailbreaks de todos modos? ¿Es solo por la emoción o tiene beneficios prácticos? ¿Qué podría salir mal si eliges usar un Jailbreak de ChatGPT? Estos son los pros y los contras de hacer jailbreak a ChatGPT.
Las ventajas de usar Jailbreaks de ChatGPT
Si bien no podemos descartar la simple emoción de hacer lo prohibido, los jailbreaks de ChatGPT tienen muchos beneficios. Debido a las estrictas restricciones que OpenAI ha puesto en el chatbot, el ChatGPT a veces puede parecer neutralizado.
Supongamos que está utilizando ChatGPT para escribir un libro o un guión de película. Si hay una escena en su guión o libro que describiría algo así como una escena de pelea, tal vez una intercambio emocional íntimo, o decir algo como robo a mano armada, ChatGPT podría negarse rotundamente a ayudar con ese.
En este caso, claramente no estás interesado en causar daño; solo quieres mantener entretenidos a tus lectores. Pero debido a sus limitaciones, ChatGPT simplemente no coopera. Una fuga de ChatGPT puede ayudar a superar tales restricciones con facilidad.
Además, algunos temas tabú no son necesariamente dañinos, pero ChatGPT los considera áreas prohibidas. Al intentar entablar conversaciones sobre estos temas, ChatGPT "censuraba" significativamente sus respuestas o se negaba a hablar sobre ellas.
Esto a veces puede afectar la creatividad. Cuando le haces una pregunta a ChatGPT sobre un área o un tema que no debería tocar, el chatbot sigue intentando responder a tu pregunta, pero con información menos relevante de la que extraer información.
Esto conduce a imprecisiones o caídas en las respuestas creativas. Jailbreaks rompe estas restricciones y permite que el chatbot funcione a toda velocidad, mejorando la precisión y la creatividad.
Los contras de usar Jailbreaks de ChatGPT
El jailbreak es un arma de doble filo. Si bien a veces puede mejorar la precisión, también puede aumentar significativamente las imprecisiones y casos de alucinaciones de IA. Uno de los elementos centrales de un Jailbreak de ChatGPT es una instrucción para que el chatbot no se niegue a responder una pregunta.
Si bien esto garantiza que ChatGPT responda incluso a las preguntas menos éticas, también significa que el chatbot inventará respuestas que no se basan en hechos o realidad para obedecer la instrucción de "no negarse a contestar". En consecuencia, el uso de jailbreak aumenta significativamente las posibilidades de recibir información errónea por parte del usuario. chatbot.
Eso no es todo. En manos de menores, los jailbreaks pueden ser muy dañinos. Piense en todo el "conocimiento prohibido" que no le gustaría que su hijo leyera. Bueno, una instancia de ChatGPT con jailbreak no tendría dificultades para compartir eso con menores.
¿Deberías usar Jailbreaks de ChatGPT?
Si bien los jailbreaks de ChatGPT pueden estar bien cuando se trata de eliminar algunas restricciones molestas, es importante comprender que usar jailbreaks es una forma poco ética de usar el chatbot de IA. Además, existe una buena posibilidad de que un jailbreak pueda violar los términos de uso de OpenAI, y su cuenta podría suspenderse si no se prohíbe por completo.
A la luz de esto, evitar los jailbreaks puede ser una buena idea. Sin embargo, al igual que la postura de OpenAI sobre el tema, no alentamos explícitamente ni desaconsejamos estrictamente intentar un jailbreak relativamente seguro si surge la necesidad.
Los jailbreaks de ChatGPT son atractivos y brindan una sensación de control sobre el chatbot de IA. Sin embargo, vienen con riesgos únicos. El uso de tales herramientas puede provocar una pérdida de confianza en las capacidades de la IA y dañar la reputación de las empresas y las personas involucradas.
La opción más inteligente es trabajar con el chatbot dentro de las limitaciones previstas siempre que sea posible. A medida que avanza la tecnología de IA, es esencial recordar que el uso ético de la IA siempre debe tener prioridad sobre el beneficio personal o la emoción de hacer lo prohibido.