Anuncio

En los últimos meses, es posible que haya leído la cobertura que rodea un artículo, escrito por Stephen Hawking, discutiendo los riesgos asociados con la inteligencia artificial. El artículo sugirió que la IA puede representar un grave riesgo para la raza humana. Hawking no está solo allí. Elon Musk y Peter Thiel Ambos son figuras públicas intelectuales que han expresado preocupaciones similares (Thiel ha invertido más de $ 1.3 millones para investigar el problema y las posibles soluciones).

La cobertura del artículo de Hawking y los comentarios de Musk han sido, por no decir demasiado bien, un poco joviales. El tono ha sido mucho "Mira esta cosa rara por la que todos estos geeks están preocupados". Se da poca consideración a la idea de que si algunas de las personas más inteligentes de la Tierra te advierten que algo podría ser muy peligroso, podría valer la pena escucharlo.

Esto es comprensible: la inteligencia artificial que se apodera del mundo ciertamente suena muy extraña y inverosímil, tal vez debido a la enorme atención ya dada a esta idea por la ciencia ficción escritores Entonces, ¿qué ha asustado a todas estas personas nominalmente sensatas y racionales?

instagram viewer

¿Qué es la inteligencia?

Para hablar sobre el peligro de la Inteligencia Artificial, podría ser útil comprender qué es la inteligencia. Para comprender mejor el problema, echemos un vistazo a una arquitectura de IA de juguete utilizada por investigadores que estudian la teoría del razonamiento. Este juguete AI se llama AIXI y tiene una serie de propiedades útiles. Sus objetivos pueden ser arbitrarios, se adapta bien a la potencia informática y su diseño interno es muy limpio y directo.

Además, puede implementar versiones simples y prácticas de la arquitectura que pueden hacer cosas como jugar Pacman, si tu quieres. AIXI es el producto de un investigador de IA llamado Marcus Hutter, posiblemente el principal experto en inteligencia algorítmica. Ese es él hablando en el video de arriba.

AIXI es sorprendentemente simple: tiene tres componentes principales: aprendiz, planificadory función de utilidad.

  • los aprendiz toma cadenas de bits que corresponden a la entrada sobre el mundo exterior, y busca a través de programas de computadora hasta encontrar los que producen sus observaciones como salida. Estos programas, juntos, le permiten adivinar cómo será el futuro, simplemente ejecutando cada programa adelante y ponderando la probabilidad del resultado por la duración del programa (una implementación de Occam Maquinilla de afeitar).
  • los planificador busca a través de posibles acciones que el agente podría tomar, y utiliza el módulo de aprendizaje para predecir qué sucedería si tomara cada una de ellas. Luego los califica de acuerdo a cuán buenos o malos son los resultados pronosticados, y elige el curso de acción que maximiza la bondad del resultado esperado multiplicado por la probabilidad esperada de lograrlo
  • El último módulo, el función de utilidad, es un programa simple que toma una descripción de un estado futuro del mundo y calcula una puntuación de utilidad para él. Este puntaje de utilidad es qué tan bueno o malo es ese resultado, y es utilizado por el planificador para evaluar el futuro estado mundial. La función de utilidad puede ser arbitraria.
  • Tomados en conjunto, estos tres componentes forman un optimizador, que se optimiza para un objetivo particular, independientemente del mundo en el que se encuentre.

Este modelo simple representa una definición básica de un agente inteligente. El agente estudia su entorno, construye modelos de él y luego usa esos modelos para encontrar el curso de acción que maximizará las probabilidades de que obtenga lo que quiere. AIXI es similar en estructura a una IA que juega ajedrez u otros juegos con reglas conocidas, excepto que es capaz de deducir las reglas del juego al jugarlo, comenzando desde cero conocimiento.

AIXI, dado el tiempo suficiente para calcular, puede aprender a optimizar cualquier sistema para cualquier objetivo, por complejo que sea. Es un algoritmo generalmente inteligente. Tenga en cuenta que esto no es lo mismo que tener inteligencia similar a la humana (la IA de inspiración biológica es una tema completamente diferente Giovanni Idili de OpenWorm: cerebros, gusanos e inteligencia artificialSimular un cerebro humano está muy lejos, pero un proyecto de código abierto está dando los primeros pasos vitales, simulando la neurología y la fisiología de uno de los animales más simples conocidos por la ciencia. Lee mas ). En otras palabras, AIXI puede ser capaz de burlar a cualquier ser humano en cualquier tarea intelectual (dada la potencia informática suficiente), pero puede que no sea consciente de su victoria Máquinas de pensamiento: lo que la neurociencia y la inteligencia artificial pueden enseñarnos sobre la conciencia¿La construcción de máquinas y software artificialmente inteligentes puede enseñarnos sobre el funcionamiento de la conciencia y la naturaleza de la mente humana misma? Lee mas .

Escultura principal

Como una IA práctica, AIXI tiene muchos problemas. Primero, no tiene forma de encontrar aquellos programas que producen el resultado que le interesa. Es un algoritmo de fuerza bruta, lo que significa que no es práctico si no tienes una computadora arbitrariamente poderosa por ahí. Cualquier implementación real de AIXI es necesariamente una aproximación, y (hoy) generalmente es bastante burda. Aún así, AIXI nos da una visión teórica de cómo podría ser una poderosa inteligencia artificial y cómo podría razonar.

El espacio de valores

Si has hecho alguna programación de computadora Los fundamentos de la programación de computadoras 101 - Variables y tipos de datosHabiendo presentado y hablado un poco sobre la Programación Orientada a Objetos antes y dónde se llama proviene de, pensé que es hora de que revisemos los conceptos básicos absolutos de la programación en un lenguaje no específico camino. Esta... Lee mas , sabes que las computadoras son desagradables, pedante y mecánicamente literales. La máquina no sabe ni le importa lo que quiere que haga: solo hace lo que le han dicho. Esta es una noción importante cuando se habla de inteligencia artificial.

Con esto en mente, imagina que has inventado una poderosa inteligencia artificial: has surgido con algoritmos inteligentes para generar hipótesis que coincidan con sus datos y para generar buenos candidatos planes Su IA puede resolver problemas generales y puede hacerlo de manera eficiente en hardware de computadora moderno.

Ahora es el momento de elegir una función de utilidad, que determinará cuáles son los valores de AI. ¿Qué debe pedirle que valore? Recuerde, la máquina será odiosa, literalmente pedante sobre cualquier función que le pida que maximice, y nunca se detendrá: no hay fantasmas en la máquina que alguna vez se 'despertará' y decidirá cambiar su función de utilidad, independientemente de cuántas mejoras de eficiencia haga por sí misma razonamiento.

Eliezer Yudkowsky ponlo de esta manera:

Como en toda la programación de computadoras, el desafío fundamental y la dificultad esencial de AGI es que si escribimos el código incorrecto, la IA no revisará automáticamente nuestro código, marcará los errores, descubrirá lo que realmente queríamos decir y lo hará en lugar. Los no programadores a veces imaginan un AGI, o programas informáticos en general, como análogos a un servidor que sigue las órdenes sin cuestionamientos. Pero no es que la IA sea absolutamente obediente a su código; más bien, la IA simplemente es el código.

Si está tratando de operar una fábrica, y le dice a la máquina que valore hacer clips y luego le da el control de un montón de robots de fábrica, usted podría regresar al día siguiente para descubrir que se ha quedado sin otra forma de materia prima, que ha matado a todos sus empleados e hizo clips de papel con sus permanece. Si, en un intento de corregir su error, reprograma la máquina para simplemente hacer felices a todos, puede regresar al día siguiente para encontrarla poniendo cables en los cerebros de las personas.

clips de papel

El punto aquí es que los humanos tienen muchos valores complicados que asumimos se comparten implícitamente con otras mentes. Valoramos el dinero, pero valoramos más la vida humana. Queremos ser felices, pero no necesariamente queremos poner cables en nuestros cerebros para hacerlo. No sentimos la necesidad de aclarar estas cosas cuando damos instrucciones a otros seres humanos. Sin embargo, no puede hacer este tipo de suposiciones cuando diseña la función de utilidad de una máquina. Las mejores soluciones bajo las matemáticas sin alma de una función de utilidad simple son a menudo soluciones que los seres humanos rechazarían por ser moralmente horribles.

Permitir que una máquina inteligente maximice una función de utilidad ingenua casi siempre será catastrófica. Como dice el filósofo de Oxford Nick Bostom:

No podemos asumir alegremente que una superinteligencia necesariamente compartirá cualquiera de los valores finales estereotípicamente asociados con la sabiduría. y desarrollo intelectual en humanos: curiosidad científica, preocupación benévola por los demás, iluminación espiritual y contemplación, renuncia a la adquisición material, un gusto por la cultura refinada o por los simples placeres de la vida, la humildad y el desinterés, y etc.

Para empeorar las cosas, es muy, muy difícil especificar la lista completa y detallada de todo lo que las personas valoran. La pregunta tiene muchas facetas, y olvidar incluso una sola es potencialmente catastrófica. Incluso entre los que conocemos, hay sutilezas y complejidades que dificultan escribirlas como sistemas limpios de ecuaciones que podemos dar a una máquina como una función de utilidad.

Algunas personas, al leer esto, concluyen que construir IA con funciones de utilidad es una idea terrible, y deberíamos diseñarlas de manera diferente. Aquí también hay malas noticias: puedes demostrar formalmente que cualquier agente que no tenga algo equivalente a una función de utilidad no puede tener preferencias coherentes acerca del futuro.

Mejoramiento recursivo

Una solución al dilema anterior es no dar a los agentes de IA la oportunidad de lastimar a las personas: darles solo los recursos que necesitan para resuelva el problema en la forma en que pretende que se resuelva, supervise de cerca y manténgalos alejados de las oportunidades para hacerlo bien daño. Desafortunadamente, nuestra capacidad para controlar máquinas inteligentes es altamente sospechosa.

Incluso si no son mucho más inteligentes que nosotros, existe la posibilidad de que la máquina "arranque": recopile un mejor hardware o realice mejoras en su propio código que lo hace aún más inteligente. Esto podría permitir que una máquina supere la inteligencia humana en muchos órdenes de magnitud, burlando a los humanos en el mismo sentido que los humanos burlan a los gatos. Este escenario fue propuesto por primera vez por un hombre llamado I. J. Good, quien trabajó en el proyecto de análisis de criptas Enigma con Alan Turing durante la Segunda Guerra Mundial. Lo llamó una "Explosión de inteligencia" y describió el asunto de esta manera:

Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultra inteligente podría diseñar máquinas aún mejores; indudablemente habría una "explosión de inteligencia", y la inteligencia del hombre quedaría muy atrás. Por lo tanto, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil.

No se garantiza que sea posible una explosión de inteligencia en nuestro universo, pero parece probable. A medida que pasa el tiempo, las computadoras obtienen información más rápida y básica sobre la acumulación de inteligencia. Esto significa que el requerimiento de recursos para hacer ese último salto a una inteligencia general y de refuerzo se reduce cada vez más. En algún momento, nos encontraremos en un mundo en el que millones de personas pueden conducir a Best Buy y recoger el hardware y la literatura técnica que necesitan para construir una inteligencia artificial de superación personal, que ya hemos establecido puede ser muy peligroso. Imagina un mundo en el que podrías hacer bombas atómicas con palos y rocas. Ese es el tipo de futuro que estamos discutiendo.

Y, si una máquina hace ese salto, podría superar rápidamente a la especie humana en términos intelectuales productividad, resolviendo problemas que mil millones de humanos no pueden resolver, de la misma manera que los humanos pueden resolver problemas que mil millones de gatos no pueden.

Podría desarrollar robots poderosos (o bio o nanotecnología) y ganar relativamente rápido la capacidad de remodelar el mundo como le plazca, y habría muy poco que pudiéramos hacer al respecto. Tal inteligencia podría despojar a la Tierra y al resto del sistema solar de piezas de repuesto sin muchos problemas, en su camino a hacer lo que le digamos. Parece probable que tal desarrollo sería catastrófico para la humanidad. Una inteligencia artificial no tiene que ser maliciosa para destruir el mundo, simplemente catastróficamente indiferente.

Como dice el dicho: "La máquina no te ama ni te odia, pero estás hecho de átomos que puedes usar para otras cosas".

Evaluación de riesgos y mitigación

Entonces, si aceptamos que diseñar una poderosa inteligencia artificial que maximice una función de utilidad simple es malo, ¿en cuántos problemas estamos realmente? ¿Cuánto tiempo tenemos antes de que sea posible construir ese tipo de máquinas? Es, por supuesto, difícil de decir.

Los desarrolladores de inteligencia artificial son haciendo progreso. 7 sitios web increíbles para ver lo último en programación de inteligencia artificialLa Inteligencia Artificial aún no es HAL de 2001: The Space Odyssey... pero nos estamos acercando terriblemente. Efectivamente, un día podría ser tan similar a las ollas de ciencia ficción que Hollywood está produciendo ... Lee mas Las máquinas que construimos y los problemas que pueden resolver han ido creciendo constantemente. En 1997, Deep Blue podía jugar ajedrez a un nivel superior al de un gran maestro humano. En 2011, Watson de IBM pudo leer y sintetizar suficiente información profunda y rápidamente para vencer al mejor humano jugadores en un juego abierto de preguntas y respuestas plagado de juegos de palabras y juegos de palabras: eso es mucho progreso en catorce años.

En este momento, Google es Invertir mucho en la investigación del aprendizaje profundo, una técnica que permite la construcción de redes neuronales potentes mediante la construcción de cadenas de redes neuronales más simples. Esa inversión le permite hacer grandes progresos en el reconocimiento de voz e imagen. Su adquisición más reciente en el área es una startup de Deep Learning llamada DeepMind, por la cual pagaron aproximadamente $ 400 millones. Como parte de los términos del acuerdo, Google acordó crear una junta de ética para garantizar que su tecnología de inteligencia artificial se desarrolle de manera segura.

red neuronal

Al mismo tiempo, IBM está desarrollando Watson 2.0 y 3.0, sistemas que son capaces de procesar imágenes y videos y argumentar para defender conclusiones. Ofrecieron una demostración simple y temprana de la capacidad de Watson para sintetizar argumentos a favor y en contra de un tema en la demostración de video a continuación. Los resultados son imperfectos, pero un paso impresionante independientemente.

Ninguna de estas tecnologías son peligrosas en este momento: la inteligencia artificial como campo todavía está luchando para igualar las habilidades dominadas por los niños pequeños. La programación de computadoras y el diseño de IA es una habilidad cognitiva muy difícil y de alto nivel, y probablemente será la última tarea humana en la que las máquinas se vuelvan competentes. Antes de llegar a ese punto, también tendremos máquinas ubicuas eso puede conducir Así es como llegaremos a un mundo lleno de autos sin conductorConducir es una tarea tediosa, peligrosa y exigente. ¿Podría algún día ser automatizado por la tecnología de automóviles sin conductor de Google? Lee mas , practicar medicina y derecho, y probablemente también otras cosas, con profundas consecuencias económicas.

El tiempo que nos llevará llegar al punto de inflexión de la superación personal solo depende de qué tan rápido tengamos buenas ideas. Pronosticar avances tecnológicos de ese tipo es notoriamente difícil. No parece irrazonable que podamos construir una IA fuerte dentro de veinte años, pero tampoco parece irrazonable que pueda llevar ochenta años. De cualquier manera, sucederá eventualmente, y hay razones para creer que cuando suceda, será extremadamente peligroso.

Entonces, si aceptamos que esto va a ser un problema, ¿qué podemos hacer al respecto? La respuesta es asegurarse de que las primeras máquinas inteligentes sean seguras, de modo que puedan arrancar hasta un nivel significativo de inteligencia, y luego protegernos de las máquinas inseguras fabricadas más tarde. Esta "seguridad" se define al compartir valores humanos y al estar dispuesto a proteger y ayudar a la humanidad.

Debido a que en realidad no podemos sentarnos y programar valores humanos en la máquina, probablemente será necesario diseñar una función de utilidad que requiera que la máquina observar a los humanos, deducir nuestros valores y luego tratar de maximizarlos. Para que este proceso de desarrollo sea seguro, también puede ser útil desarrollar inteligencias artificiales diseñadas específicamente no tener preferencias sobre sus funciones de utilidad, lo que nos permite corregirlas o desactivarlas sin resistencia si comienzan a extraviarse durante el desarrollo.

Neuronas teñidas

Muchos de los problemas que tenemos que resolver para construir una inteligencia de máquina segura son matemáticamente difíciles, pero hay razones para creer que pueden resolverse. Varias organizaciones diferentes están trabajando en el tema, incluidas las Instituto del Futuro de la Humanidad en Oxford, y el Instituto de Investigación de Inteligencia de Máquinas (que Peter Thiel financia).

MIRI está interesado específicamente en desarrollar las matemáticas necesarias para construir una IA Amistosa. Si resulta que la inteligencia artificial de arranque es posible, entonces desarrollar este tipo de La tecnología de "IA amigable" en primer lugar, si tiene éxito, puede terminar siendo lo más importante que tienen los humanos Alguna vez has hecho.

¿Crees que la inteligencia artificial es peligrosa? ¿Le preocupa lo que podría traer el futuro de la IA? ¡Comparte tus pensamientos en la sección de comentarios a continuación!

Créditos de imagen: Lwp Kommunikáció Via Flickr, "Red neuronal", Por fdecomite" img_7801", Por Steve Rainwater," E-Volve ", por Keoni Cabral,"new_20x", Por Robert Cudmore,"Clips de papel", Por Clifford Wallace

Escritor y periodista con sede en el suroeste, Andre está garantizado para permanecer funcional hasta 50 grados centígrados, y es resistente al agua hasta una profundidad de doce pies.