¿Quieres mejores respuestas de ChatGPT? Escribe mejores indicaciones.
Las indicaciones de ChatGPT pueden ser muy divertidas. Puede ser especialmente emocionante cuando consigues que el chatbot haga exactamente lo que quieres. Sin embargo, al igual que aprender a andar en bicicleta, puede haber algunos baches y rasguños en el camino. A veces, lograr que el chatbot proporcione resultados satisfactorios puede ser una aventura complicada.
Los resultados que obtiene de ChatGPT son tan buenos como las indicaciones que proporciona. Indicaciones deficientes significan respuestas deficientes. Es por eso que hemos elaborado una guía práctica sobre algunos errores que se deben evitar al usar ChatGPT.
1. Mezclar temas en una sola sesión de chat
Si bien puede no parecer preocupante preguntar sobre diversos temas dentro de la misma sesión de chat, vale la pena prestarle atención. ChatGPT es muy sensible al contexto. Cada indicación que introduzca durante una sesión de chat puede moldear en gran medida las respuestas que reciba de las indicaciones posteriores.
Supongamos que comenzó una sesión de chat y le preguntó a ChatGPT: "¿Podemos hablar sobre el ejército de EE. UU.?" Si mantienes la conversación y decides pedirle al chatbot que te cuente sobre algunas guerras recientes, existe la posibilidad de que solo resalte las guerras en las que ha participado el ejército de los EE. UU. cuando podría haber necesitado una visión más amplia de todo el mundo conflictos ¿Por qué? ChatGPT utiliza el contexto de las conversaciones anteriores para procesar una respuesta para las solicitudes posteriores.
Esta característica ayuda a ChatGPT a mantenerse en el tema durante largas conversaciones sobre cualquier tema. Sin embargo, se vuelve perjudicial cuando el chatbot trae información de un tema completamente diferente a una nueva respuesta para mantener el contexto y permanecer en el tema. Esto puede ser fácil de detectar a veces. Sin embargo, también puede ser sutil y pasar desapercibido, lo que lleva a la desinformación.
En el siguiente ejemplo, después de una larga discusión sobre el ejército de los EE. UU., le pedimos a ChatGPT que nos informara sobre algunos conflictos globales, y solo seleccionó aquellos con alguna forma de participación de los EE. UU.
2. Demasiadas instrucciones en un solo aviso
ChatGPT es capaz de manejar varias directivas dentro de un solo aviso. Sin embargo, existe un umbral para la cantidad de instrucciones que puede administrar simultáneamente sin comprometer la calidad de sus respuestas. Es posible que haya encontrado avisos en línea que contienen numerosas instrucciones que parecen funcionar bien. Sin embargo, este no es siempre el caso, y se requiere un enfoque matizado para garantizar resultados óptimos.
La mejor manera de lidiar con indicaciones complejas es dividirlas y utilizarlas con un enfoque de indicaciones en cadena. Esto implica separar indicaciones complejas en varias partes, cada una de las cuales contiene menos instrucciones. Luego, puede enviar cada mensaje a ChatGPT en bits más simples, seguidos de otros bits más simples que refinan la respuesta de los mensajes anteriores hasta que logre el resultado deseado.
Entonces, en lugar de usar un aviso como:
- Cuénteme sobre la historia de la Torre Eiffel, incluidos sus materiales de construcción, el presupuesto, el diseño, su importancia, la empresa constructora involucrada y las controversias.
Podrías usar:
- Cuéntame sobre la historia de la Torre Eiffel.
- ¿Hubo alguna controversia importante en torno al proyecto?
- ¿Qué materiales de construcción principales se utilizaron?
- Cuéntame sobre su diseño y diseñadores.
- Explique su significado
- Hablemos del presupuesto.
El segundo conjunto de indicaciones producirá información mucho más detallada y respuestas relevantes.
3. Ser demasiado específico con sus instrucciones
Aunque puede parecer beneficioso proporcionar indicaciones muy detalladas, esta estrategia no siempre es óptima. De hecho, las instrucciones detalladas ofrecen a ChatGPT una dirección clara para generar respuestas. Sin embargo, el exceso de detalles puede confinar involuntariamente las respuestas de ChatGPT a un contexto demasiado estrecho, lo que puede conducir a respuestas menos precisas y alucinaciones.
ChatGPT tiende a inventar información cada vez que se queda corta. Entonces, si hay hechos limitados dentro de las restricciones de las instrucciones que proporciona, es probable que obtenga información errónea.
Como demostración, le pedimos a ChatGPT que limite sus respuestas a cualquier pregunta que le hagamos sobre la opinión de Elon Musk sobre el tema. Le preguntamos a ChatGPT sobre Marte, los cohetes y los vehículos eléctricos, y las respuestas fueron buenas, ya que Elon Musk claramente habló mucho sobre el tema. Sin embargo, cuando le pedimos a ChatGPT que nos contara sobre Pizza (recuerde, las respuestas solo deben ser las opiniones de Elon Musk sobre el tema), ChatGPT inventó un comentario divertido.
4. No proporcionar contexto cuando sea necesario
El contexto juega un papel vital en la forma en que ChatGPT responde a cualquier mensaje. Incluso un pequeño cambio en el contexto puede conducir a respuestas significativamente diferentes. Si no se proporciona un contexto, su mensaje se vuelve ambiguo, lo que genera respuestas variadas cada vez que se usa el mismo mensaje. Esta falta de consistencia puede no ser deseable cuando se buscan respuestas precisas porque no hay forma de saber cuál es la respuesta correcta. Pero, ¿cómo proporcionas contexto y cuándo deberías hacerlo?
Digamos que quieres usar ChatGPT como herramienta de traducción. Como saben, el lenguaje puede ser muy ambiguo. Por ejemplo, la misma oración puede significar cosas diferentes según el contexto. En otras palabras, en situaciones como esta, el contexto es muy importante. Aquí hay un ejemplo.
Considere la frase en español "Gracias por preguntar, pero estoy bastante seguro aquí". ChatGPT traduce esto como "Gracias por preguntar, pero estoy bastante seguro aquí". En el texto del que se copió esta oración, el significado pretendido era: "Gracias por preguntar, pero estoy a salvo aquí."
Sin embargo, esto se malinterpretó porque no se proporcionó ningún contexto. Después de proporcionar contexto a ChatGPT al incluir información adicional de que la oración debe interpretarse desde el contexto de alguien hablando de seguridad (que es lo que se discutió en el texto del que se copió), ChatGPT proporcionó la traducción esperada.
5. No usar ejemplos
La incorporación de ejemplos es un aspecto crucial de elaboración de avisos efectivos de ChatGPT. Si bien no todos los avisos requieren un ejemplo, cuando surge la oportunidad, incluir uno puede mejorar en gran medida la especificidad y precisión de las respuestas de ChatGPT.
Los ejemplos son especialmente importantes cuando se genera contenido único como chistes, música o cartas de presentación. Por ejemplo, en la captura de pantalla a continuación, le pedimos a ChatGPT que generara algo de sarcasmo sobre los músicos una vez que proporcionamos el nombre del músico. Lo más destacado aquí es que no proporcionamos ningún ejemplo.
Sin ejemplos, los chistes que se le ocurrieron a ChatGPT no fueron particularmente desgarradores. La respuesta general tampoco fue muy atractiva.
A continuación, le dimos a ChatGPT algunos ejemplos de cómo queremos que se vean nuestros chistes. Aquí está el mensaje en la captura de pantalla a continuación:
Con ejemplos para guiar a ChatGPT, los chistes generados mejoraron significativamente (¡aunque un poco celoso de que los chistes de ChatGPT parezcan mejores que los nuestros!). Este primero era una broma sobre Taylor Swift.
Y aquí hay otro que ChatGPT hizo cuando lo solicitamos con Jay-Z.
¿Te encantó la segunda serie de chistes? Bueno, la moraleja de la historia es usar ejemplos más a menudo.
6. No ser claro y específico con sus instrucciones
Para obtener las mejores respuestas de ChatGPT, deberá ser lo más específico e inequívoco posible en sus instrucciones. Desafortunadamente, la ambigüedad abre sus indicaciones a múltiples interpretaciones, lo que dificulta que ChatGPT proporcione una respuesta específica y precisa.
"¿Cuál es el significado de la vida?" y "¿Cuál es la mejor manera de mantenerse saludable?" son dos ejemplos de indicaciones que parecen normales pero que son bastante ambiguas. No hay una respuesta definitiva a ambas preguntas. Sin embargo, ChatGPT intentará brindarle una respuesta que parece ser hechos concretos. Mensajes como "¿Cuál es el significado de la vida desde una perspectiva biológica?" o "¿Cuáles son algunos estilos de vida específicos cambios o hábitos que pueden ayudar a mejorar la salud mental?" son buenos ejemplos de respuestas específicas y menos ambiguas. alternativas.
Las indicaciones específicas proporcionan una dirección más clara a seguir por ChatGPT. También reduce el enfoque de la solicitud y proporciona información más relevante para que el modelo trabaje con ella.
ChatGPT es basura adentro, basura afuera
Al igual que un chef necesita ingredientes de calidad para preparar una comida deliciosa, las respuestas generadas por ChatGPT dependen en gran medida de las indicaciones que le proporcionemos. Así como la elección de los ingredientes determina el sabor y el resultado de un plato, la claridad, la especificidad y el contexto de nuestras indicaciones influyen en la precisión y relevancia de las respuestas de ChatGPT. Al crear avisos bien estructurados, le das a ChatGPT los ingredientes que necesita para ofrecer interacciones perspicaces y atractivas, como un chef experto que sirve una obra maestra culinaria.