La inteligencia artificial (IA) aún no ha alcanzado el nivel humano. Pero con la tecnología que cierra la brecha cada vez más cada año, han surgido muchos problemas éticos.

Una pregunta importante es: ¿Cuán similar será la inteligencia artificial a los seres humanos? ¿Pensarán por sí mismos o tendrán deseos y emociones? ¿Deberían tener derechos legales como los humanos? ¿Deberían ser obligados a trabajar o ser responsables si algo sale mal?

Profundizaremos en estas preguntas y más en este artículo.

Ética de la IA: por qué es importante pensar en ellas

La IA y la ética de las máquinas son dos campos relacionados que están ganando cada vez más tracción. Se relacionan con varios aspectos importantes de la tecnología, incluida la forma en que diseñamos, usamos y tratamos las máquinas. La mayoría de estos problemas se relacionan con preocupaciones de seguridad en relación con los seres humanos.

Sin embargo, la ética de la IA está comenzando a pasar de estos temas fundamentales a un territorio más controvertido. Imagine que en las próximas décadas se desarrolla una IA superinteligente que es potencialmente consciente y expresa deseos, sentimientos o puede experimentar sufrimiento. Dado que ni siquiera estamos seguros de qué es la conciencia humana o cómo surge, no es una proposición tan descabellada como parece originalmente.

instagram viewer

¿Cómo definiríamos y trataríamos tal IA? ¿Y cuáles son algunos de los problemas éticos a los que nos enfrentamos en este momento con nuestro nivel actual de IA?

Echemos un vistazo a algunos de los dilemas éticos a los que nos enfrentamos.

¿Debería la IA recibir ciudadanía?

En 2017, el gobierno de Arabia Saudita otorgó la ciudadanía completa a Sophia: uno de los robots impulsados ​​por IA más realistas del mundo. Sophia puede participar en una conversación y es capaz de imitar 62 expresiones faciales humanas. Sophia es la primera persona no humana en tener un pasaporte y la primera en tener una tarjeta de crédito.

La decisión de convertir a Sophia en ciudadana ha sido controvertida. Algunos lo ven como un paso adelante. Piensan que es importante que las personas y los organismos reguladores comiencen a prestar más atención a los problemas en esta área. Otros lo consideran una afrenta a la dignidad humana, y afirman que la IA aún no está cerca de ser humana y que la sociedad en su conjunto no está preparada para los ciudadanos robot.

El debate se vuelve acalorado por los derechos y deberes que se otorgan a los ciudadanos. Estos incluyen poder votar, pagar impuestos, casarse y tener hijos. Si a Sophia se le permite votar, ¿quién está votando realmente? Con el estado actual de la IA, ¿preferiría su creador el que votara? Otra crítica conmovedora es que a Sophia se le otorgaron más derechos que las mujeres y los trabajadores migrantes de Arabia Saudita.

AI e IP: ¿Deberían poseer los derechos sobre lo que crean?

Debates en torno a la propiedad intelectual (PI) y preocupaciones sobre la privacidad han alcanzado un máximo histórico, y ahora hay otra preocupación. La IA se utiliza cada vez más para desarrollar contenido, producir ideas y realizar otras acciones sujetas a las leyes de propiedad intelectual. Por ejemplo, The Washington Post lanzó Heliograf en 2016; un reportero de IA que desarrolló casi mil artículos en su primer año. Varias industrias también usan IA para rastrear grandes cantidades de datos y desarrollar nuevos productos, como la industria farmacéutica.

Actualmente, la IA se considera una herramienta; todos los derechos de propiedad intelectual y legales se otorgan a su propietario. Pero la UE consideró anteriormente la creación de una tercera entidad, una "personalidad electrónica", que se convertiría en una entidad legal a los ojos de las leyes de propiedad intelectual.

Algunos argumentan que sin IP al propietario de la máquina, habrá una falta de incentivos para construir una IA "creativa". Si la propiedad intelectual fue a la IA, ¿por qué alguien las desarrollaría? Y, debido a esto, creen que habrá una falta de innovación.

IA y el futuro del trabajo

El papel de la IA en el trabajo es un enigma. En los últimos años, hemos visto el controvertido uso de la IA en la contratación y el despido de algoritmos donde la IA estaba sesgado involuntariamente hacia ciertos datos demográficos. La IA también está reemplazando gradualmente niveles cada vez más altos de trabajo humano: primero trabajo manual y ahora trabajo mental de orden superior.

¿Qué se debe hacer al respecto? ¿Y qué pasa si se desarrolla alguna forma de IA consciente? ¿Debería ser obligado a trabajar? ¿Compensación por su trabajo? ¿Derechos otorgados en el lugar de trabajo? Etcétera.

En un episodio de Black Mirror (un programa conocido por jugando con nuestras cabezas), una niña llamada Greta crea un clon digital de su conciencia. Se le dice al clon que su propósito es llevar a cabo deberes por la vida de Greta. Pero, con la conciencia de Greta, el clon se considera Greta. Entonces, cuando el clon se niega a ser esclavo, sus creadores lo torturan hasta someterlo. Finalmente, el clon se pone a trabajar para Greta.

¿Deberíamos conceder de forma preventiva ciertos derechos a AI en el caso de que se crea un ser humano o experimente sufrimiento?

Para llevar esto un paso más allá, consideremos si la IA debe apagarse o retirarse libremente. Actualmente, cuando algo sale mal, podemos simplemente desconectar y apagar la IA. Pero, si la IA tuviera derechos legales y esto ya no fuera posible, ¿qué sería posible?

El famoso ejemplo de IA superinteligente que salió mal es el maximizador de clips. Esta es una IA que ha sido diseñada para crear la mayor cantidad de clips posible. Dado que la IA es lo suficientemente poderosa, es concebible que pueda decidir convertir a los seres humanos, y luego a todo, en clips.

¿Debería responsabilizarse la IA?

La IA ya es responsable de muchas decisiones que afectan la vida humana. De hecho, la IA ya se utiliza en muchas áreas que afectan directamente a los derechos humanos, lo cual es preocupante considerando lo sesgados que parecen ser muchos algoritmos de IA.

Por ejemplo, las grandes empresas utilizan la inteligencia artificial para decidir a quién se debe contratar para un trabajo. También se utiliza en algunos países para determinar quién debería recibir asistencia social. Lo que es más preocupante, la policía y los sistemas judiciales lo utilizan para determinar la sentencia de los acusados. Y eso no es todo.

¿Qué sucede cuando la IA comete errores? ¿Quiénes son responsables, los que lo usan? Los creadores Alternativamente, ¿debería castigarse la propia IA (y si es así, cómo funcionaría)?

AI y Humanidad

La IA nunca será humana. Pero puede ser consciente, sentir sufrimiento o tener deseos y anhelos. Si se desarrollara una IA como esta, ¿sería poco ético obligarla a trabajar, desmantelarla libremente o hacerle cosas que le causen sufrimiento?

Si bien la IA aún está en su infancia, ya se está utilizando para cosas que afectan directamente la vida humana, a veces de manera drástica. Se deben tomar decisiones sobre cómo regular el software que es mejor para las vidas humanas, y las vidas de la inteligencia artificial en caso de que eso ocurra.

CuotaPíoCorreo electrónico
5 mitos comunes sobre la inteligencia artificial que no son ciertos

Dejemos las cosas claras sobre algunas falsedades comunes que rodean a la IA.

Leer siguiente

Temas relacionados
  • Tecnología explicada
  • Inteligencia artificial
  • Futurología
  • Tecnología
Sobre el Autor
Jake Harfield (32 Artículos publicados)

Jake Harfield es un escritor independiente que vive en Perth, Australia. Cuando no está escribiendo, suele estar en el monte fotografiando la vida silvestre local. Puedes visitarlo en www.jakeharfield.com

Más de Jake Harfield

Suscríbete a nuestro boletín

¡Únase a nuestro boletín de noticias para obtener consejos técnicos, reseñas, libros electrónicos gratuitos y ofertas exclusivas!

Haga clic aquí para suscribirse