Con los modelos de lenguaje de IA modernos como ChatGPT y Bing Chat de Microsoft haciendo olas en todo el mundo, a varias personas les preocupa que la IA se apodere del mundo.
Si bien no nos encontraremos con SkyNet en el futuro previsible, la IA está mejorando a los humanos en varias cosas. Ahí es donde entra en juego el problema del control de la IA.
Explicación del problema del control de la IA
El problema del control de la IA es la idea de que la IA eventualmente será mejor que los humanos para tomar decisiones. De acuerdo con esta teoría, si los humanos no configuran las cosas correctamente de antemano, no tendremos la oportunidad de arreglar las cosas más tarde, lo que significa que la IA tendrá un control efectivo.
La investigación actual sobre modelos de inteligencia artificial y aprendizaje automático (ML) está, como mínimo, a años de superar las capacidades humanas. Sin embargo, es razonable pensar que, considerando el progreso actual, la IA superará a los humanos en términos de inteligencia y eficiencia.
Eso no quiere decir que los modelos de IA y ML no tengan sus límites. Después de todo, están sujetos a las leyes de la física y la complejidad computacional, así como a la potencia de procesamiento de los dispositivos que soportan estos sistemas. Sin embargo, es seguro asumir que estos límites están mucho más allá de las capacidades humanas.
Esto significa que superinteligente Los sistemas de IA pueden representar una gran amenaza si no está diseñado correctamente con medidas de seguridad para controlar cualquier comportamiento potencialmente deshonesto. Dichos sistemas deben construirse desde cero para respetar los valores humanos y mantener su poder bajo control. Esto es lo que significa el problema de control cuando dice que las cosas deben configurarse correctamente.
Si un sistema de IA superara la inteligencia humana sin las garantías adecuadas, el resultado podría ser catastrófico. Dichos sistemas podrían asumir el control de los recursos físicos a medida que muchas tareas se logran mejor o más eficientemente. Dado que los sistemas de IA están diseñados para lograr la máxima eficiencia, perder el control podría tener graves consecuencias.
¿Cuándo se aplica el problema del control de la IA?
El principal problema es que cuanto mejor se vuelve un sistema de IA, más difícil es para un supervisor humano monitorear la tecnología para garantizar que el control manual se pueda tomar fácilmente en caso de que el sistema falle. Además, la tendencia humana a confiar en un sistema automatizado es mayor cuando el sistema funciona de manera confiable la mayor parte del tiempo.
Un gran ejemplo de esto es el Paquete de conducción totalmente autónoma (FSD) de Tesla. Si bien el automóvil puede conducirse solo, requiere que un ser humano tenga las manos en el volante, listo para tomar el control del automóvil en caso de que el sistema no funcione correctamente. Sin embargo, a medida que estos sistemas de IA se vuelven más confiables, incluso la atención del ser humano más alerta comenzará a variar y aumentará la dependencia del sistema autónomo.
Entonces, ¿qué sucede cuando los automóviles comienzan a conducir a velocidades que los humanos no pueden seguir? Acabaremos cediendo el control a los sistemas autónomos del coche, lo que significa que un sistema de inteligencia artificial controlará tu vida, al menos hasta que llegues a tu destino.
¿Se puede resolver el problema del control de la IA?
Hay dos respuestas a si el problema del control de la IA se puede resolver o no. Primero, si interpretamos la pregunta literalmente, el problema del control no se puede resolver. No hay nada que podamos hacer que apunte directamente a la tendencia humana de confiar en un sistema automatizado cuando funciona de manera confiable y más eficiente la mayor parte del tiempo.
Sin embargo, si esta tendencia se considera como una característica de tales sistemas, podemos idear formas de evitar el problema de control. por ejemplo, el Toma de decisiones algorítmica y el problema de control El trabajo de investigación sugiere tres métodos diferentes para hacer frente a la situación:
- El uso de sistemas menos confiables requiere que un ser humano se comprometa activamente con el sistema, ya que los sistemas menos confiables no plantean el problema de control.
- Esperar a que un sistema supere la eficiencia y la confiabilidad humanas antes de la implementación en el mundo real.
- Para implementar solo una automatización parcial mediante la descomposición de tareas. Esto significa que solo se automatizan aquellas partes de un sistema que no requieren un operador humano para realizar una tarea importante. Se llama enfoque de asignación dinámica/complementaria de funciones (DCAF).
El enfoque DCAF siempre pone a un operador humano al mando de un sistema automatizado, asegurando que su entrada controle las partes más importantes del proceso de toma de decisiones del sistema. Si un sistema es lo suficientemente atractivo como para que un operador humano preste atención constantemente, el problema de control se puede resolver.
¿Podremos alguna vez controlar verdaderamente la IA?
A medida que los sistemas de IA se vuelvan más avanzados, capaces y confiables, continuaremos encargándoles más tareas. Sin embargo, el problema del control de la IA puede resolverse con las precauciones y salvaguardias adecuadas.
La IA ya está cambiando el mundo para nosotros, principalmente para mejor. Mientras la tecnología se mantenga bajo supervisión humana, no debería haber nada de qué preocuparnos.