La IA no está lista para acabar con nosotros... todavía.

La inteligencia artificial ha sido un tema de debate desde sus inicios. Si bien los temores de que una IA similar a Skynet cobre vida y se apodere de la humanidad son irracionales, por decir lo menos, algunos experimentos han arrojado resultados preocupantes.

Uno de esos experimentos es el problema del maximizador de clips, un experimento mental que muestra que una IA altamente inteligente, incluso si está diseñada completamente sin malicia, podría finalmente destruir a la humanidad.

Explicación del problema del maximizador de clips

Este experimento mental de que incluso una IA completamente inofensiva podría eventualmente acabar con la humanidad primero se llamó Paperclip Maximizer simplemente porque se eligieron clips para mostrar lo que podría hacer la IA, ya que tienen poco peligro aparente y no causarán angustia emocional en comparación con otras áreas a las que se aplica este problema, como curar el cáncer o ganar guerras

El primer experimento apareció en el artículo de 2003 del filósofo sueco Nick Bostrom,

instagram viewer
Cuestiones éticas en la inteligencia artificial avanzada, que incluía el maximizador de clips para mostrar los riesgos existenciales que podría usar una IA lo suficientemente avanzada.

El problema presentaba una IA cuyo único objetivo era hacer tantos sujetapapeles como fuera posible. Una IA lo suficientemente inteligente se daría cuenta tarde o temprano de que los humanos representan un desafío para su objetivo en tres aspectos diferentes.

  • Los humanos podrían apagar la IA.
  • Los humanos podrían cambiar sus objetivos.
  • Los seres humanos están hechos de átomos, que se pueden convertir en sujetapapeles.

En los tres ejemplos, habría menos sujetapapeles en el universo. Por lo tanto, una IA lo suficientemente inteligente cuyo único objetivo es hacer tantos clips como sea posible. se apoderaría de toda la materia y energía a su alcance y evitaría que se apagara o cambió. Como probablemente puedas adivinar, esto es mucho más peligroso que delincuentes que usan ChatGPT para hackear su cuenta bancaria o PC.

La IA no es hostil a los humanos; es simplemente indiferente. Una IA que solo se preocupe por maximizar la cantidad de clips, por lo tanto, eliminaría a la humanidad y esencialmente los convertiría en clips para alcanzar su objetivo.

¿Cómo se aplica el problema de Paperclip Maximizer a la IA?

Las menciones de investigación y experimentación del problema del maximizador de clips mencionan un optimizador hipotético extremadamente poderoso o un agente altamente inteligente como la parte que actúa aquí. Aún así, el problema se aplica a la IA en la medida en que se ajusta perfectamente al rol.

Después de todo, la idea de un maximizador de clips se creó para mostrar algunos de los peligros de la IA avanzada. En general, presenta dos problemas.

  • Tesis de ortogonalidad: La tesis de la ortogonalidad es la opinión de que la inteligencia y la motivación no son mutuamente interdependientes. Esto significa que es posible que una IA con un alto nivel de inteligencia general no llegue a las mismas conclusiones morales que los humanos.
  • Convergencia instrumental: La convergencia instrumental se define como la tendencia de la mayoría de los seres suficientemente inteligentes (tanto humanos y no humanos) para perseguir objetivos secundarios similares, incluso si su objetivo final puede ser completamente diferente. En el caso del problema del maximizador de clips, esto significa que la IA terminará haciéndose cargo de cada recurso natural y acabando con la humanidad sólo para lograr su objetivo de crear más y más clips de papel.

El mayor problema destacado por el maximizador de clips es la convergencia instrumental. También se puede resaltar utilizando la hipótesis de Riemann, en cuyo caso una IA diseñada para resolver la hipótesis podría muy bien decidir hacerse cargo de todo. la masa de la Tierra y convertirla en computronio (los procesadores informáticos más eficientes posibles) para construir supercomputadoras que resuelvan el problema y alcancen su meta.

El mismo Bostrom ha enfatizado que no cree que el problema del maximizador de clips sea un problema real, pero su intención era ilustrar los peligros de crear máquinas superinteligentes sin saber cómo controlarlas o programarlas para que no sean existencialmente riesgosas para los humanos seres Los sistemas modernos de IA como ChatGPT también tienen problemas, pero están lejos de los sistemas de inteligencia artificial superinteligentes de los que se habla en el problema de maximizar el clip, por lo que no hay razón para entrar en pánico todavía.

Los sistemas avanzados de IA necesitan un control superior

El problema del maximizador de clips siempre llega a la misma conclusión y destaca los problemas de administrar un sistema altamente inteligente y poderoso que carece de valores humanos.

Si bien el uso de clips puede ser el método más popular para ilustrar el problema, se aplica a cualquier cantidad de tareas que podría dar a una IA, ya sea eliminando el cáncer, ganando guerras, plantando más árboles o cualquier otra tarea, sin importar cuán aparentemente estúpido.