La IA generativa es excelente, pero siempre presenta su información con autoridad absoluta. Lo cual es genial a menos que esté alucinando la verdad.
La alucinación de la Inteligencia Artificial (IA) suena desconcertante. Probablemente estés pensando: "¿No es la alucinación un fenómeno humano?" Bueno, sí, solía ser exclusivamente humano. fenómeno hasta que la IA comenzó a exhibir características humanas como el reconocimiento facial, el autoaprendizaje y el habla reconocimiento.
Desafortunadamente, la IA adquirió algunos atributos negativos, incluidas las alucinaciones. Entonces, ¿la alucinación de la IA es similar al tipo de alucinación que experimentan los humanos?
¿Qué es la alucinación de IA?
La alucinación de inteligencia artificial ocurre cuando un modelo de IA genera resultados diferentes a los esperados. Tenga en cuenta que algunos modelos de IA están entrenados para generar intencionalmente resultados no relacionados con ninguna entrada (datos) del mundo real.
Por ejemplo, Los principales generadores de texto a arte de IA
, como DALL-E 2, puede generar creativamente imágenes novedosas que podemos etiquetar como "alucinaciones", ya que no se basan en datos del mundo real.Alucinación de IA en modelos de procesamiento de lenguajes grandes
Consideremos cómo se vería la alucinación de la IA en un modelo de procesamiento de lenguaje grande como ChatGPT. Una alucinación de ChatGPT daría como resultado que el bot le diera un hecho incorrecto con alguna afirmación, de modo que naturalmente tomaría esos hechos como verdad.
En términos simples, son declaraciones inventadas por el chatbot artificialmente inteligente. Aquí hay un ejemplo:
En una consulta adicional, ChatGPT apareció con esto:
Alucinación de IA en visión artificial
Consideremos otro campo de la IA que puede experimentar la alucinación de la IA: Visión por computador. El cuestionario a continuación muestra un montaje 4x4 con dos entidades que se parecen mucho. Las imágenes son una mezcla de papas fritas BBQ y hojas.
El desafío es seleccionar las papas fritas sin golpear ninguna hoja en el montaje. Esta imagen puede parecer engañosa para una computadora y es posible que no pueda diferenciar entre las papas fritas BBQ y las hojas.
Aquí hay otro montaje con una mezcla de imágenes de caniche y bollo de hilo de cerdo. Lo más probable es que una computadora no pueda diferenciarlos y, por lo tanto, mezcle las imágenes.
¿Por qué ocurre la alucinación de la IA?
La alucinación de la IA puede ocurrir debido a ejemplos contradictorios: datos de entrada que engañan a una aplicación de IA para que los clasifique erróneamente. Por ejemplo, al entrenar aplicaciones de IA, los desarrolladores usan datos (imagen, texto u otros); si los datos se modifican o distorsionan, la aplicación interpreta la entrada de manera diferente y genera una salida incorrecta.
Por el contrario, un ser humano aún puede reconocer e identificar los datos con precisión a pesar de las distorsiones. Podemos etiquetar esto como sentido común, un atributo humano que la IA aún no posee. Mira cómo se engaña a la IA con ejemplos contradictorios en este video:
Con respecto a los grandes modelos basados en el lenguaje, como ChatGPT y sus alternativas, pueden surgir alucinaciones debido a una decodificación inexacta del transformador (modelo de aprendizaje automático).
En IA, un transformador es un modelo de aprendizaje profundo que utiliza la autoatención (relaciones semánticas entre palabras en una oración) para producir un texto similar al que escribiría un ser humano usando un codificador-descodificador (entrada-salida) secuencia.
Por lo tanto, los transformadores, un modelo de aprendizaje automático semisupervisado, pueden generar un nuevo cuerpo de texto (salida) a partir del gran corpus de datos de texto utilizado en su entrenamiento (entrada). Lo hace prediciendo la siguiente palabra de una serie basada en las palabras anteriores.
Con respecto a la alucinación, si un modelo de lenguaje se entrenó con datos y recursos insuficientes e inexactos, se espera que el resultado sea inventado e inexacto. El modelo de lenguaje podría generar una historia o narrativa sin inconsistencias lógicas o conexiones poco claras.
En el siguiente ejemplo, se le pidió a ChatGPT que diera una palabra similar a "rebelión" y comenzara con una "b". Aquí está su respuesta:
Al seguir investigando, siguió dando respuestas incorrectas, con un alto nivel de confianza.
Entonces, ¿por qué ChatGPT no puede dar una respuesta precisa a estas indicaciones?
Podría ser que el modelo de lenguaje no esté equipado para manejar indicaciones bastante complejas como estas o que no puede interpretar el mensaje con precisión, ignorando el mensaje al dar una palabra similar con una específica alfabeto.
¿Cómo detectas la alucinación de la IA?
Ahora es evidente que las aplicaciones de IA tienen el potencial de alucinar: generar respuestas de otro modo a partir del resultado esperado (hecho o verdad) sin ninguna intención maliciosa. Y detectar y reconocer las alucinaciones de la IA depende de los usuarios de dichas aplicaciones.
Aquí hay algunas formas de detectar alucinaciones de IA mientras usa aplicaciones comunes de IA:
1. Modelos de procesamiento de idiomas grandes
Aunque es raro, si nota un error gramatical en el contenido producido por un gran modelo de procesamiento, como ChatGPT, eso debería levantar una ceja y hacerle sospechar una alucinación. De manera similar, cuando el contenido generado por texto no suena lógico, no se correlaciona con el contexto dado o no coincide con los datos de entrada, debe sospechar una alucinación.
Usar el juicio humano o el sentido común puede ayudar a detectar alucinaciones, ya que los humanos pueden identificar fácilmente cuando un texto no tiene sentido o no sigue la realidad.
2. Visión por computador
Como rama de la inteligencia artificial, el aprendizaje automático y la informática, la visión por computadora permite a las computadoras reconocer y procesar imágenes como los ojos humanos. Usando redes neuronales convolucionales, confían en la increíble cantidad de datos visuales utilizados en su entrenamiento.
Una desviación de los patrones de los datos visuales utilizados en el entrenamiento dará como resultado alucinaciones. Por ejemplo, si una computadora no fue entrenada con imágenes de una pelota de tenis, podría identificarla como una naranja verde. O si una computadora reconoce un caballo junto a una estatua humana como un caballo junto a un ser humano real, entonces se ha producido una alucinación de IA.
Entonces, para detectar una alucinación de visión por computadora, compare la salida generada con lo que se espera que vea un humano [normal].
3. Coches autónomos
Gracias a la IA, los autos sin conductor se están infiltrando gradualmente en el mercado automotriz. Pioneros como Tesla Autopilot y Ford's BlueCruise han estado defendiendo la escena de los autos sin conductor. Puedes revisar cómo y qué ve el piloto automático de Tesla para comprender un poco cómo la IA impulsa los autos sin conductor.
Si posee uno de esos autos, le gustaría saber si su auto AI está alucinando. Una señal será si su vehículo parece estar desviándose de sus patrones de comportamiento normales mientras conduce. Por ejemplo, si el vehículo frena o se desvía bruscamente sin ninguna razón aparente, su vehículo de IA podría estar alucinando.
Los sistemas de IA también pueden alucinar
Los humanos y los modelos de IA experimentan las alucinaciones de manera diferente. Cuando se trata de IA, las alucinaciones se refieren a resultados erróneos que están a kilómetros de distancia de la realidad o que no tienen sentido dentro del contexto del mensaje dado. Por ejemplo, un chatbot de IA puede dar una respuesta gramatical o lógicamente incorrecta o identificar erróneamente un objeto debido al ruido u otros factores estructurales.
Las alucinaciones de IA no son el resultado de una mente consciente o subconsciente, como se observaría en los humanos. Más bien, resulta de la inadecuación o insuficiencia de los datos utilizados en el entrenamiento y la programación del sistema de IA.