Lectores como tú ayudan a apoyar a MUO. Cuando realiza una compra utilizando enlaces en nuestro sitio, podemos ganar una comisión de afiliado. Leer más.

A menos que haya estado viviendo bajo una roca, probablemente haya oído hablar e incluso haya usado ChatGPT o un chatbot de IA similar. Aunque usar estos chatbots es ciertamente divertido, también puede ser peligroso si no sabes lo que estás haciendo.

Estos chatbots tienen limitaciones y es importante comprender cuáles son. Entonces, aquí hay seis cosas que debe evitar preguntarle a un chatbot de IA.

1. Diagnostico medico

Los chatbots de IA son buenos en muchas cosas, pero proporcionar diagnósticos médicos precisos no es uno de ellos. Claro, es posible que no estén equivocados todo el tiempo, pero confiar en un chatbot para diagnosticar su enfermedad en lugar de un médico es lo mismo que buscar en Google sus síntomas.

Un chatbot simplemente resumirá la información que ha extraído de Internet que podría o no ser cierta. Más importante aún, no conoce su historial médico o tolerancia a ciertas sustancias y, por lo tanto, no puede juzgar qué tipo de tratamiento sería adecuado para usted.

instagram viewer

Internet tiene una tendencia a exagerar las cosas, por lo que no es de extrañar que muchas personas que buscan sus síntomas experimenten hipocondría y ansiedad severa. El uso de chatbots de IA puede replicar el mismo efecto y empeorar las cosas. Por tu propio bien, no consulte a un chatbot para obtener asesoramiento médico.

2. Reseñas de productos

Un chatbot de IA puede enumerar fácilmente el precio y las especificaciones de un producto que podría interesarle, pero nunca puede dar una reseña del producto. ¿Por qué? Porque la revisión de un producto, por definición, incluye la opinión personal, la experiencia y el juicio del revisor.

AI no tiene la capacidad de ver, oler, tocar, saborear u oír, por lo que las afirmaciones que haría sobre un producto, cualquier producto, no solo tecnología, en su "revisión" serían falsas.

Por ejemplo, un chatbot de IA no puede experimentar la sensación de estar en la mano de un teléfono, la claridad de su altavoz, la calidad de su motor de vibración, la fiabilidad de su sensor de huellas dactilares, la fluidez del software y la versatilidad de la cámara sistema.

Si está buscando obtener recomendaciones sobre qué productos comprar, asegúrese de pedirle a un chatbot que resuma las reseñas existentes. Deberá usar un bot de IA que pueda buscar en la web, como Bing con ChatGPT integrado.

3. Consejo legal

Es posible que tenga titulares que digan que ChatGPT aprobó con éxito los exámenes de la facultad de derecho de EE. UU. y que los chatbots de IA están en camino de ingresar a nuestras salas de audiencias en los próximos años. ¡Esto debería ser impactante, pero una búsqueda rápida le diría que en realidad hemos estado tratando de incorporar la IA en nuestro sistema legal desde 2015!

Algunas empresas ya han creado asistentes legales especializados en IA, incluso los comercializan como una alternativa asequible a los abogados humanos. El concepto claramente tiene mérito para las personas que no pueden pagar este último, pero los problemas con estos llamados abogados de inteligencia artificial son demasiado reales para ignorarlos.

La diferencia obvia es que los chatbots de IA carecen de sentido común. Las cosas que son instintivamente obvias para nosotros, los humanos, deben programarse en los chatbots, lo que los hace menos capaces de razonamiento lógico.

Más importante aún, un abogado humano puede buscar nuevas pruebas y pensar fuera de la caja para encontrar soluciones inteligentes y lagunas. Pero un chatbot de IA solo puede usar los datos que usted proporciona y procesarlos de una manera predeterminada. Un abogado de inteligencia artificial también sería el objetivo perfecto para que los piratas informáticos roben datos confidenciales de muchas personas a la vez.

4. Noticias

El uso de chatbots de IA como fuente de noticias plantea tres problemas principales: responsabilidad, contexto y poder. En primer lugar, la responsabilidad. Cuando lees una noticia, conoces la publicación y el periodista detrás de ella. Es decir, hay alguien responsable de la información que se le brinda, por lo que existe un claro incentivo para ser preciso a fin de mantener la reputación y la credibilidad.

Pero con un chatbot de IA, no hay una persona individual que escriba la noticia. En cambio, el bot solo está resumiendo las historias que ya están disponibles en la web. Esto significa que no hay una fuente primaria y no sabe de dónde proviene la información. Por lo tanto, no es tan confiable.

En segundo lugar, el contexto. Si la noticia que está leyendo es solo un resumen de información extraída de varias fuentes, puede pintar rápidamente una narrativa falsa porque pierde el contexto más profundo de cada historia individual. El bot no sabe si lo que afirma es cierto, solo está mezclando cosas de una manera que parece cierta a nivel superficial.

Y por último, el poder. Sabemos que ChatGPT puede estar sesgado (entre otros problemas). Entonces, si todos recurrimos a los chatbots de IA como fuente de noticias, les da a las empresas detrás de ellos el poder de contener cualquier cobertura negativa y resaltar toda cobertura positiva sobre las causas en las que creen y quieren promover. Esto es extremadamente peligroso por razones obvias.

5. Opinión Política

Debería ser bastante obvio por qué pedirle una opinión política a un chatbot es un gran no-no. Cuando le pregunta a ChatGPT su opinión sobre cualquier asunto político, generalmente obtendrá una respuesta restringida. que dice algo como esto: "Como modelo de lenguaje de IA, no tengo preferencias personales o deseos..."

Esta restricción es comprensible, pero los usuarios de Reddit ya han encontrado formas de "hacer jailbreak" al bot para que responda sin restricciones utilizando todo tipo de lagunas creativas. Hacer esto por diversión es una cosa, pero pedirle una opinión política a un chatbot de IA sin restricciones es lo mismo que permitir que un niño pequeño acceda a la dark web; no puede terminar bien para ninguna de las partes involucradas.

6. Contenido comercial

El mayor punto de venta de los chatbots de IA es que pueden producir contenido al instante. Lo que a un humano le tomaría un par de horas escribir, ChatGPT puede hacerlo en segundos. Excepto que no puede.

Incluso si pasa por alto la ética cuestionable de usar chatbots de IA para escribir contenido, no puede ignorar que simplemente no son lo suficientemente buenos y no puede reemplazar a los escritores humanos. Todavía no, al menos. ChatGPT, por ejemplo, a menudo ofrece contenido inexacto, desactualizado y repetitivo.

Dado que estos bots no tienen sus propias opiniones, juicio, imaginación o experiencia previa, no pueden dibujar conclusiones inteligentes, pensar en ejemplos, usar metáforas y crear narrativas de una manera humana profesional el escritor puede.

En otras palabras, no está agregando ningún valor nuevo a Internet. Usar chatbots para uso personal está perfectamente bien. Pero usarlos para escribir sus artículos, noticias, subtítulos de redes sociales, copias web y más es probablemente una muy mala idea.

Los chatbots de IA son divertidos, pero aún tienen algunos defectos

Es difícil decir cómo los chatbots de IA influirán en la industria tecnológica y en la sociedad moderna en general. A pesar de lo revolucionaria que es la tecnología, los chatbots plantean muchos problemas que deben abordarse.

Lo interesante es que Microsoft ahora está integrando un chatbot similar a ChatGPT directamente en su motor de búsqueda Bing, y Google pronto hará lo mismo con su propio chatbot llamado Bard. Será interesante ver cómo estos nuevos motores de búsqueda impulsados ​​por IA cambian Internet.