Las discusiones sobre la sensibilidad de la IA no son nada nuevo, pero las noticias sobre AI LaMDA de Google han avivado las llamas. Después de que un ingeniero afirmara que el bot estaba consciente, incluso teniendo un alma, surgieron nuevamente algunas preguntas familiares.
¿Puede la IA como LaMDA ser consciente o consciente de sí misma y, de ser así, cómo puede saberlo? ¿Importa?
¿Qué es LaMDA?
LaMDA, abreviatura de Language Model for Dialogue Applications, apareció por primera vez en 2021 en la conferencia de desarrolladores de Google. Se supone que el sistema avanzado de IA ayudará a construir otros chatbots más pequeños. Cuando Google lo presentó por primera vez, anunció planes para integrarlo en todo, ayudando a servicios como Google Assistant y Search a sentirse más humanos, o al menos naturales.
Cuando el ingeniero de Google, Blake Lemoine, habló con LaMDA para ver si usaba discurso de odio, se quedó con una impresión diferente. Lemoine afirmó que LaMDA era sensible, y si no supiera que era un bot, pensaría que era un niño de ocho años.
Después de sus conversaciones con LaMDA, Lemoine intentó demostrar que estaba consciente y defender lo que creía que eran sus derechos legales. En respuesta, Google colocó a Lemoine en licencia administrativa pagada por romper los acuerdos de confidencialidad.
¿LaMDA es realmente consciente?
Entonces, ¿LaMDA es realmente consciente? La mayoría de los expertos que han opinado sobre el tema se muestran escépticos. LaMDA es una plataforma de chat de IA muy avanzada que analiza billones de palabras de Internet, por lo que tiene la habilidad de sonar como una persona real.
Esta no es la primera vez que una de las IA de Google engaña a la gente para que piense que es humana. En 2018, Google demostró su Duplex AI llamando a un restaurante para reservar una mesa. En ningún momento el empleado del otro lado de la línea pareció dudar de que estaba hablando con una persona.
La sensibilidad es difícil de definir, aunque la mayoría de las personas dudo que la IA haya llegado a ese punto aún. Sin embargo, la pregunta importante puede no ser si LaMDA es realmente consciente, sino qué diferencia hace si puede engañar a las personas para que piensen que lo es.
Posibles implicaciones legales de LaMDA
La situación de LaMDA plantea muchas cuestiones legales y éticas. Primero, algunas personas pueden cuestionar si Google tuvo razón al poner a Lemoine en licencia por hablar al respecto.
De acuerdo con la Sección 740 de la Ley Laboral de Nueva York, las protecciones para denunciantes defienden a los empleados de tales consecuencias si creen que las prácticas de su empleador violan la ley o representan un riesgo significativo para el público la seguridad. La supuesta sensibilidad de LaMDA no cumple con ese requisito legal, pero ¿debería cumplirlo?
Otorgar derechos a la IA es un tema complicado. Mientras que la IA puede crear cosas y parecer humano, puede encontrarse con algunas situaciones complicadas si estas máquinas tienen protecciones legales. Los derechos legales operan en torno a recompensas y castigos que no afectan a la IA, lo que complica la justicia.
Si un automóvil autónomo atropella a un peatón, ¿es culpable la IA si la ley lo trata como a un humano? Y si es así, estrictamente no le da justicia a la víctima ya que técnicamente no puedes castigar a la IA de la misma manera que lo harías con un humano.
Otra pregunta que surge con LaMDA y chatbots de IA similares es su seguridad. Si estos bots parecen convincentemente reales, la gente puede confiar más en ellos y estar dispuesta a darles información más sensible. Eso abre la puerta a una gran cantidad de problemas de privacidad y seguridad si esta tecnología cae en las manos equivocadas.
AI presenta preguntas éticas complicadas
Las IA como LaMDA se vuelven cada vez más sofisticadas y realistas. A medida que crece esta tendencia, las empresas y los legisladores deben reevaluar cómo tratan a la IA y cómo estas decisiones podrían afectar la justicia y la seguridad.
Tal como está, la IA LaMDA de Google puede no ser consciente, pero es lo suficientemente buena como para engañar a las personas para que piensen que lo es, lo que debería generar algunas alarmas.