La Inteligencia Artificial (IA) es tan controvertida como impresionante. Puede facilitar muchas partes del trabajo y la vida cotidiana, pero también plantea algunas cuestiones éticas. El uso de la IA por parte del gobierno de los EE. UU., en particular, deja a algunas personas sintiéndose incómodas.

Hay muchos proyectos gubernamentales de IA en uso o en desarrollo hoy en día, y algunos han hecho mucho bien. Al mismo tiempo, plantean muchas preocupaciones sobre la privacidad de la inteligencia artificial. Aquí hay una mirada más cercana a estos proyectos y lo que significan para la privacidad pública.

Ejemplos de proyectos gubernamentales de IA y automatización

Los ejemplos más básicos de inteligencia artificial utilizados por el gobierno de los EE. UU. involucran la automatización del trabajo de oficina de rutina. En 2019, Seattle usó Automatización Robótica de Procesos (RPA) para encargarse de las aplicaciones de entrada y procesamiento de datos. Desde entonces, la ciudad superó más de 6000 solicitudes atrasadas y ahorró cientos de horas de trabajo.

instagram viewer

Otros proyectos gubernamentales de IA son más llamativos. El Departamento de Bomberos de Nueva York está probando perros robot de dinámica de boston para medir el daño estructural y los humos tóxicos antes de que entren los bomberos. Antes del proyecto del robot de extinción de incendios, el Departamento de Policía de Nueva York había planeado implementar los mismos robots.

Los departamentos de policía y otras agencias gubernamentales de todo el país están considerando el uso de tecnologías similares. Sin embargo, a medida que despegan estos proyectos gubernamentales de inteligencia artificial, sus posibles deficiencias de privacidad se han vuelto más claras.

¿Es la inteligencia artificial una amenaza para la privacidad y la seguridad?

Todavía no se sabe si verá robots policiales en el futuro, pero las cosas parecen ir por ese camino. Estos proyectos tienen muchos beneficios, pero las preocupaciones sobre la privacidad de la inteligencia artificial se vuelven más serias cuando se trata del gobierno. Estos son algunos de los mayores problemas con estas tecnologías.

La inteligencia artificial se basa en la recopilación y el análisis de datos. Como resultado, más proyectos gubernamentales de inteligencia artificial significan que estas agencias recopilarán y almacenarán información adicional sobre sus ciudadanos. Algunas personas sienten que toda esta recopilación de información viola su privacidad y viola sus derechos.

Las tecnologías como el proyecto del perro bombero son particularmente preocupantes porque pueden hacer que la vigilancia del gobierno sea engañosa. Las agencias dicen que el robot está allí para verificar los problemas de seguridad, pero no hay forma de que las personas sepan qué datos está recopilando. Podría tener cámaras y sensores que escanean sus rostros o rastrean sus teléfonos celulares sin que ellos lo sepan.

A algunas personas les preocupa que el "factor genial" de los robots oculte su potencial de vigilancia. Los robots policiales en el futuro podrían espiar a los ciudadanos sin despertar muchas sospechas, ya que las personas solo ven tecnología nueva en lugar de una violación de su privacidad.

Responsabilidades poco claras

Estos proyectos de IA y automatización también plantean la cuestión de la responsabilidad. Si un robot comete un error que resulta en daño, ¿quién es el responsable? Cuando un empleado del gobierno traspasa sus límites e infringe los derechos de alguien, los tribunales pueden responsabilizarlo, pero ¿qué pasa con un robot?

Puede ver este problema en los automóviles autónomos. La gente ha acusado al fabricante bajo un reclamo de responsabilidad del producto en algunos casos de accidentes con piloto automático, mientras que otros culpan al conductor. En un caso, el Junta de Seguridad de Transportación Nacional atribuyó la responsabilidad tanto al fabricante como al conductor, pero en última instancia debe decidirse caso por caso. Los robots de la policía enturbian las aguas de la misma manera. Si violan su privacidad, no está claro si culpar al fabricante, al departamento de policía o a los supervisores humanos.

Esta confusión podría ralentizar y complicar los procedimientos legales. Las víctimas de violaciones de la privacidad o violaciones de sus derechos pueden tardar un tiempo en obtener la justicia que merecen. Las nuevas leyes y los precedentes legales podrían aclarar las cosas y resolver este problema, pero en este momento es incierto.

Riesgos de violación de datos

La inteligencia artificial utilizada por el gobierno de los EE. UU. también podría expandir las preocupaciones sobre la privacidad de la IA que ve en el sector privado. La recopilación de algunos datos puede ser perfectamente legal, pero cuantas más organizaciones recopilan, más riesgo hay. La empresa o el gobierno no pueden usar la información para nada ilegal, pero puede hacer que las personas sean vulnerables al delito cibernético.

Había más de 28.000 ciberataques contra el gobierno de los Estados Unidos solo en 2019. Si las agencias tienen más información privada de los ciudadanos, estos ataques podrían afectar más que solo al gobierno. Una violación de datos exitosa podría poner en peligro a muchas personas sin que lo sepan. Las infracciones a menudo pasan desapercibidas, por lo que debe comprueba que tus datos no estén ya a la venta.

Por ejemplo, si un robot policial en el futuro utiliza el reconocimiento facial para buscar delincuentes buscados, puede almacenar datos biométricos de muchos ciudadanos. Los piratas informáticos que ingresan al sistema podrían robar esa información y usarla para ingresar a las cuentas bancarias de las personas. Los proyectos de inteligencia artificial del gobierno deben tener fuertes medidas de ciberseguridad si no quieren poner en peligro los datos de las personas.

La IA del gobierno tiene beneficios pero plantea preocupaciones

Todavía no está claro cómo el gobierno estadounidense utilizará la inteligencia artificial en el futuro. Las nuevas protecciones y leyes podrían resolver estos problemas y brindar todos los beneficios de la IA sin sus riesgos. Sin embargo, por ahora, estas preocupaciones generan algunas alarmas.

Las preocupaciones sobre la privacidad abundan en cualquier lugar donde funcione la IA. Estas preguntas se vuelven más serias a medida que juega un papel más importante en el gobierno. Los proyectos estatales de IA podrían hacer mucho bien, pero también tienen un potencial sustancial de daño.

Microsoft advierte que "1984" puede hacerse realidad en tres años

Leer siguiente

CuotaPíoCuotaCorreo electrónico

Temas relacionados

  • Seguridad
  • Inteligencia artificial
  • Privacidad en línea

Sobre el Autor

Shannon Flynn (79 artículos publicados)

Shannon es un creador de contenido ubicado en Filadelfia, Pensilvania. Ha estado escribiendo en el campo de la tecnología durante unos 5 años después de graduarse con un título en TI. Shannon es el editor gerente de la revista ReHack y cubre temas como ciberseguridad, juegos y tecnología empresarial.

Más de Shannon Flynn

Suscríbete a nuestro boletín

¡Únase a nuestro boletín para obtener consejos técnicos, reseñas, libros electrónicos gratuitos y ofertas exclusivas!

Haga clic aquí para suscribirse