Tay AI de Microsoft pasó de ser una IA prometedora a una catástrofe total en menos de un día. Esto es lo que la compañía aprendió.
Los chatbots de IA como ChatGPT se están convirtiendo cada vez más en una parte más integral de la tecnología moderna, pero desconocido para muchos, la IA generativa no siempre fue tan buena como lo es hoy. De hecho, en 2016, el chatbot Tay, creado por Microsoft, nos mostró cuán rápido la IA puede ser contraproducente.
Exploremos qué era Tay, el chatbot de inteligencia artificial de Microsoft, por qué fracasó, sus controversias y las lecciones que aprendió la empresa después de su desastroso fracaso.
¿Qué fue Tay de Microsoft?
Tay fue un chatbot de IA desarrollado por Microsoft y disponible a través de Twitter el 23 de marzo de 2016. El chatbot fue desarrollado para jóvenes de 18 a 24 años en los EE. UU. con "fines de entretenimiento" y para "experimentar y realizar investigaciones sobre la comprensión conversacional".
Tay no estaba destinado a ser un chatbot sofisticado como ChatGPT, sino un robot de IA amigable en Twitter con el que podrías tener conversaciones, algo así como
Mi IA en Snapchat, pero para socializar.¿Por qué Microsoft cerró Tay?
Microsoft eliminó a Tay dentro de las 24 horas posteriores a su lanzamiento, por una buena razón. Casi inmediatamente después de la presentación de Tay, los usuarios de Twitter comenzaron a abusar del servicio alimentando el chatbot. información errónea, enseñándole términos despectivos e incitándolo a ser cada vez más ofensivo solo para ver hasta qué punto iría.
Y lejos fue de hecho. A las pocas horas del lanzamiento, Tay estaba tuiteando algunos de los insultos raciales más ofensivos, difundiendo discursos de odio, promoviendo el nazismo e incluso inspirando una "guerra racial". ¡Ay! Claramente, Microsoft estaba pasando por un mal momento y no podía haber dejado que el servicio continuara.
en un publicación en el blog oficial de Microsoft, el vicepresidente corporativo de Microsoft, Peter Lee, se hizo eco de lo mismo:
Lamentamos profundamente los tweets ofensivos e hirientes involuntarios de Tay, que no representan quiénes somos o qué representamos, ni cómo diseñamos a Tay. Tay ahora está fuera de línea y buscaremos recuperar a Tay solo cuando estemos seguros de que podemos anticipar mejor las intenciones maliciosas que entran en conflicto con nuestros principios y valores.
La debacle de Tay es solo una de las muchas peligros de la inteligencia artificial y un fuerte recordatorio de por qué su desarrollo debe hacerse con la máxima cautela y supervisión.
6 lecciones que Microsoft aprendió después de Tay
Tay fue un completo desastre, pero también le enseñó a Microsoft algunas lecciones cruciales en lo que respecta al desarrollo de herramientas de IA. Y por si sirve de algo, probablemente sea mejor que Microsoft haya aprendido sus lecciones más temprano que tarde, lo que le permitió obtener una ventaja sobre Google y desarrollar el nuevo Navegador Bing impulsado por IA.
Estas son algunas de esas lecciones:
1. Internet está lleno de trolls
Internet está lleno de trolls, y eso no es exactamente una noticia, ¿verdad? Aparentemente, fue así para Microsoft en 2016. No estamos diciendo que la creación de un chatbot con "fines de entretenimiento" dirigido a jóvenes de 18 a 24 años tenga algo que ver con la tasa a la que se abusó del servicio. Aún así, definitivamente tampoco fue la idea más inteligente.
La gente, naturalmente, quiere probar los límites de las nuevas tecnologías y, en última instancia, es el trabajo del desarrollador dar cuenta de estos ataques maliciosos. En cierto modo, los trolls internos actúan como un mecanismo de retroalimentación para el aseguramiento de la calidad, pero eso no quiere decir que un chatbot deba dejarse suelto sin las medidas de seguridad adecuadas implementadas antes del lanzamiento.
2. AI no puede diferenciar intuitivamente entre bueno y malo
El concepto del bien y el mal es algo que la IA no entiende intuitivamente. Tiene que ser programado para simular el conocimiento de lo que está bien y lo que está mal, lo que es moral e inmoral, y lo que es normal y peculiar.
Estas cualidades son más o menos naturales para los humanos como criaturas sociales, pero la IA no puede formar juicios independientes, sentir empatía o experimentar dolor. Esta es la razón por la que cuando los usuarios de Twitter estaban alimentando a Tay con todo tipo de propaganda, el bot simplemente los siguió, sin darse cuenta de la ética de la información que estaba recopilando.
3. No entrene modelos de IA usando las conversaciones de las personas
Tay fue creado mediante la "extracción de datos públicos relevantes y el uso de inteligencia artificial y editorial desarrollados por un personal que incluye comediantes de improvisación". Entrenar a un modelo de IA usando las conversaciones de la gente en Internet es una experiencia horrible. idea.
Y antes de culpar a Twitter por esto, sepa que el resultado probablemente habría sido el mismo independientemente de la plataforma. ¿Por qué? Porque las personas simplemente no son lo mejor de sí mismas en Internet. Se emocionan, usan palabras de jerga y usan su anonimato para ser nefastos.
4. La IA carece de sentido común y no entiende el sarcasmo
La IA hoy parece más intuitiva (o, para decirlo con mayor precisión, es mejor para simular la intuición), pero a veces todavía tiene problemas para reconocer el sarcasmo y las figuras retóricas. Esto era cierto aún más en 2016. Lo que es obvio para los humanos no lo es para la IA; en otras palabras, carece de sentido común.
Las IA como Tay no entienden por qué los humanos somos como somos, actuamos como lo hacemos y las excentricidades de cada individuo. Puede comportarse y sonar humano en un grado sorprendente, pero una buena programación solo puede llegar hasta cierto punto.
5. La IA debe programarse para rechazar solicitudes no válidas
La IA es muy impresionable y debe programarse para rechazar solicitudes que promuevan el daño. Incluso hoy, después de todos nuestros avances en el procesamiento del lenguaje natural, la gente sigue encontrando lagunas lingüísticas para hacer que los chatbots de IA como ChatGPT "alucinen" y entregar resultados que estaban destinados a ser restringidos.
El punto aquí es que la inteligencia artificial es perfectamente obediente, que es quizás su mayor fortaleza y debilidad. Todo lo que no desea que haga un chatbot debe programarse manualmente en él.
6. Los chatbots de IA nunca deben dejarse sin supervisión
Hasta que la IA pueda autorregularse, no puede dejarse sin supervisión. Puedes pensar en la IA de hoy como un niño prodigio; es brillante en algunos aspectos, pero sigue siendo un niño, no obstante. Si no se atiende, la gente explotará sus debilidades, y Tay fue un excelente ejemplo de esto.
La IA es una herramienta, al igual que Internet, pero la velocidad y la escala a la que las cosas pueden resultar contraproducentes con la IA son mucho mayores que las que experimentamos durante los primeros días de Internet.
La IA necesita supervisión y regulación constantes
Tay no es el único chatbot que se volvió deshonesto; ha habido muchos otros casos como este. Pero lo que lo hizo destacar es la gran velocidad a la que lo hizo, y el hecho de que fue creado por un gigante tecnológico como Microsoft.
Ejemplos como este muestran cuán cuidadosos debemos ser al desarrollar herramientas de IA, especialmente cuando están destinadas a ser utilizadas por personas comunes.