ChatGPT es útil para muchas tareas, pero hay algunas deficiencias críticas que deberían hacerle pensar dos veces antes de confiar en él para obtener asesoramiento médico.
ChatGPT, un chatbot de inteligencia artificial (IA) desarrollado por OpenAI, se ha convertido en una herramienta todo en uno para responder muchas preguntas simples y difíciles, incluidas las solicitudes de asesoramiento médico. Puede responder preguntas médicas y aprobar el Examen de Licencia Médica de los Estados Unidos (USMLE), pero no puede reemplazar una cita con un médico en el hospital.
A medida que avanza ChatGPT, tiene el potencial de transformar completamente el sector de la salud. Cuando se integra con los sistemas de salud, puede mejorar el acceso de los pacientes a la atención y aumentar la eficiencia del trabajo de los médicos. Sin embargo, debido a que está basado en IA, existen varias preocupaciones sobre sus peligros potenciales.
1. ChatGPT tiene un conocimiento limitado
ChatGPT no lo sabe todo. Según OpenAI, ChatGPT tiene un conocimiento limitado, particularmente en lo que respecta a lo que sucedió después de septiembre de 2021.
ChatGPT no tiene acceso directo a los motores de búsqueda ni a Internet. Fue entrenado utilizando una gran cantidad de datos de texto de numerosas fuentes, incluidos libros, sitios web y otros textos. No "conoce" los datos que está entregando. En cambio, ChatGPT usa el texto que ha leído para crear predicciones sobre las palabras a usar y en qué orden.
Por lo tanto, no puede obtener noticias actuales sobre desarrollos en campos médicos. Sí, ChatGPT no tiene conocimiento del trasplante de corazón de cerdo a humano ni de ningún otro avance muy reciente en la ciencia médica.
2. ChatGPT puede producir información incorrecta
ChatGPT puede responder las preguntas que haga, pero las respuestas pueden ser inexactas o parciales. De acuerdo a un PLoS Salud Digital estudio, ChatGPT se realizó con al menos un 50% de precisión en todos los exámenes USMLE. Y aunque superó el umbral de aprobación del 60% en algunos aspectos, aún existe la posibilidad de error.
Además, no toda la información utilizada para entrenar a ChatGPT es auténtica. Las respuestas basadas en información no verificada o potencialmente sesgada pueden ser incorrectas o estar desactualizadas. En el mundo de la medicina, la información inexacta puede incluso costar la vida.
Debido a que ChatGPT no puede investigar o verificar material de forma independiente, no puede diferenciar entre realidad y ficción. Revistas médicas respetadas, incluida la Revista de la Asociación Médica Estadounidense (JAMA), han Estableció regulaciones estrictas de que solo los humanos pueden escribir estudios científicos publicados en el diario. Como resultado, debes verificar constantemente las respuestas de ChatGPT.
3. ChatGPT no lo examina físicamente
Los diagnósticos médicos no dependen únicamente de los síntomas. Los médicos pueden obtener información sobre el patrón y la gravedad de una enfermedad a través del examen físico del paciente. Para diagnosticar a los pacientes, los médicos de hoy utilizan tecnologías médicas y los cinco sentidos.
ChatGPT no puede realizar un chequeo virtual completo o incluso un examen físico; solo puede responder a los síntomas que proporcione como mensajes. Para la seguridad y el cuidado de un paciente, los errores en el examen físico, o ignorar por completo el examen físico, pueden ser dañinos. Debido a que ChatGPT no lo examinó físicamente, ofrecerá un diagnóstico incorrecto.
4. ChatGPT puede proporcionar información falsa
Un estudio reciente de la Facultad de Medicina de la Universidad de Maryland siguiendo los consejos de ChatGPT para la detección del cáncer de mama, se encontraron los siguientes resultados:
"Hemos visto en nuestra experiencia que ChatGPT a veces inventa artículos de revistas falsos o consorcios de salud para respaldar sus afirmaciones". —Paul Yi M.D., Profesor Asistente de Radiología Diagnóstica y Medicina Nuclear en la UMSOM
Como parte de nuestras pruebas de ChatGPT, solicitamos una lista de libros de no ficción que cubran el tema de la mente subconsciente. Como resultado, ChatGPT produjo un libro falso titulado "El poder de la mente inconsciente" del Dr. Gustav Kuhn.
Cuando preguntamos sobre el libro, respondió que era un libro "hipotético" que creó. ChatGPT no le dirá si un artículo de revista o un libro es falso si no investiga más.
5. ChatGPT es solo un modelo de lenguaje de IA
Los modelos de lenguaje funcionan memorizando y generalizando el texto en lugar de examinar o estudiar la condición de un paciente. A pesar de generar respuestas que coinciden con los estándares humanos en términos de lenguaje y gramática, ChatGPT todavía contiene una serie de problemas, al igual que otros bots de IA.
ChatGPT no reemplaza a su médico
Siempre se necesitarán médicos humanos para tomar la decisión final sobre las decisiones de atención médica. ChatGPT generalmente recomienda hablar con un profesional de la salud con licencia cuando solicite asesoramiento médico.
Las herramientas impulsadas por inteligencia artificial como ChatGPT se pueden usar para programar citas con el médico, ayudar a los pacientes a recibir tratamientos y mantener su información de salud. Pero no puede reemplazar la experiencia y la empatía de un médico.
No debe confiar en una herramienta basada en IA para diagnosticar o tratar su salud, ya sea física o mental.