La idea de que las tecnologías de IA deben regularse es un sentimiento común. La mayoría de los gobiernos, los desarrolladores de productos de IA e incluso los usuarios comunes de productos de IA están de acuerdo con esto. Desafortunadamente, la mejor manera de regular este campo en rápido crecimiento es un rompecabezas sin resolver.
Si no se controlan, las tecnologías de IA pueden alterar negativamente nuestra forma de vida y amenazar nuestra existencia. Pero, ¿cómo pueden los gobiernos navegar por el laberinto de desafíos que conlleva este campo en rápida evolución?
1. Reglamento de Protección y Privacidad de Datos
Una de las principales preocupaciones con las tecnologías de IA es la privacidad y seguridad de los datos. Los sistemas de inteligencia artificial son máquinas hambrientas de datos. Necesitan datos para operar, más datos para ser eficientes e incluso más datos para mejorar. Si bien esto no es un problema, la forma en que se obtienen estos datos, su naturaleza y cómo se procesan y almacenan es uno de los puntos de conversación más importantes en torno a las regulaciones de IA.
Teniendo esto en cuenta, el camino lógico a seguir es establecer normas estrictas de privacidad de datos que rijan los datos. recopilación, almacenamiento y procesamiento, así como los derechos de las personas, cuyos datos se utilizan, para acceder y controlar sus datos Las preguntas que estas regulaciones probablemente abordarían son:
- ¿Qué tipo de datos se pueden recopilar?
- ¿Deberían considerarse tabú algunos datos privados en la IA?
- ¿Cómo deben manejar las empresas de IA los datos personales confidenciales, como los registros de salud o la información biométrica?
- ¿Se debería exigir a las empresas de IA que implementen mecanismos para que las personas soliciten fácilmente la eliminación o corrección de sus datos personales?
- ¿Cuáles son las consecuencias para las empresas de IA que no cumplen con las normas de privacidad de datos? ¿Cómo se debe monitorear el cumplimiento y cómo se debe garantizar la aplicación?
- Quizás lo más importante, ¿qué estándar deberían implementar las empresas de IA para garantizar la seguridad de la naturaleza confidencial de la información que poseen?
Estas preguntas y algunas otras formaron el quid de la por qué ChatGPT fue prohibido temporalmente en Italia. A menos que se aborden estas preocupaciones, el espacio de la inteligencia artificial podría ser un salvaje oeste para la privacidad de los datos, y la prohibición de Italia podría convertirse en un modelo para las prohibiciones de otros países del mundo.
2. Desarrollo de un Marco Ético de IA
Las empresas de IA con frecuencia se jactan de su compromiso con las pautas éticas en el desarrollo de sistemas de IA. Al menos en el papel, todos son defensores del desarrollo responsable de la IA. En los medios, los ejecutivos de Google han enfatizado cómo la empresa se toma en serio la seguridad y la ética de la IA. Del mismo modo, "IA segura y ética" es un mantra para el director ejecutivo de OpenAI, Sam Altman. Estos son bastante aplaudibles.
Pero, ¿quién hace las reglas? ¿Quién decide qué pautas éticas de IA son lo suficientemente buenas? ¿Quién decide cómo es el desarrollo seguro de IA? En este momento, cada empresa de IA parece tener su propio giro en el desarrollo de IA responsable y ético. OpenAI, Anthropic, Google, Meta, Microsoft, todos. Confiar simplemente en que las empresas de inteligencia artificial hagan lo correcto es peligroso.
El Las consecuencias de un espacio de IA sin control pueden ser catastróficas. Dejar que las empresas individuales decidan qué pautas éticas adoptar y cuáles descartar es similar a caminar sonámbulos hacia un apocalipsis de IA. ¿La solución? Un marco ético claro de IA que garantice:
- Los sistemas de IA no perjudican injustamente ni discriminan a las personas o ciertos grupos por motivos de raza, género o estatus socioeconómico.
- Los sistemas de IA son seguros, confiables y confiables, y minimizan el riesgo de consecuencias no deseadas o comportamiento dañino.
- Los sistemas de IA se construyen teniendo en cuenta el impacto social más amplio de las tecnologías de IA.
- Que los humanos retengan el control final de los sistemas de IA y su toma de decisiones de manera transparente.
- Los sistemas de IA están intencionalmente limitados en formas que son ventajosas para los humanos.
3. Agencia Reguladora Dedicada
Debido a su impacto potencial en la civilización humana, la discusión sobre la seguridad de la IA suele ser paralela al riesgo de una crisis de salud o un desastre nuclear. Evitar posibles incidentes nucleares requiere una agencia dedicada como la NRC (Comisión Reguladora Nuclear) de EE. UU. Evitar el riesgo de crisis de salud peligrosas requiere el establecimiento de la FDA (Administración de Alimentos y Medicamentos)
De manera similar, para garantizar que las cosas no salgan mal en el espacio de la IA, se necesita una agencia dedicada similar a la FDA y la NRC, ya que la IA continúa incursionando agresivamente en todas las áreas de nuestra vida. Desafortunadamente, el tema de la regulación de la IA en el país es complicado. Es probable que el trabajo de cualquier agencia reguladora dedicada sea terriblemente difícil sin la cooperación transfronteriza. Al igual que la NRC (Comisión Reguladora Nuclear) de los EE. UU. debe trabajar de la mano con la Energía Atómica Internacional (OIEA) para estar en su mejor momento, cualquier agencia reguladora dedicada a la IA en el país también necesitaría un análogo internacional.
Dicha agencia sería responsable de lo siguiente:
- Desarrollo de normativas de IA
- Garantizar el cumplimiento y la aplicación
- Supervisar el proceso de revisión ética de los proyectos de IA
- Colaboración y cooperación entre países en materia de seguridad y ética de la IA
4. Abordar las preocupaciones sobre los derechos de autor y la propiedad intelectual
Las leyes de derechos de autor y los marcos legales existentes se derrumban frente a la Inteligencia Artificial. La forma en que se diseñan las herramientas de IA, especialmente las herramientas de IA generativa, las hace parecer una máquina de infracción de derechos de autor respaldada públicamente sobre la que no se puede hacer nada.
¿Cómo? Bueno, muchos de los sistemas de inteligencia artificial actuales se entrenan con materiales con derechos de autor. Ya sabes, artículos con derechos de autor, canciones con derechos de autor, imágenes con derechos de autor, etc. Así es como herramientas como ChatGPT, Bing AI y Google Bard pueden hacer las cosas asombrosas que hacen.
Si bien estos sistemas claramente se aprovechan de la propiedad intelectual de las personas, la forma en que lo hacen estos sistemas de IA no es diferente de un ser humano que lee un libro protegido por derechos de autor, escucha canciones protegidas por derechos de autor o mira imágenes
Puede leer un libro con derechos de autor, aprender nuevos datos de él y utilizar esos datos como base para su propio libro. También puede escuchar una canción con derechos de autor para inspirarse y crear su propia música. En ambos casos, utilizó materiales con derechos de autor, pero eso no significa necesariamente que el producto derivado infrinja los derechos de autor del original.
Si bien esta es una explicación lógica para explicar el desorden que la IA crea con las leyes de derechos de autor, aún perjudica a los propietarios de los derechos de autor y la propiedad intelectual. Considerando esto, las regulaciones son necesarias para:
- Defina claramente la obligación y las responsabilidades de todas las partes involucradas en el ciclo de vida de un sistema de IA. Esto incluye aclarar las funciones de cada parte, desde los desarrolladores de IA hasta los usuarios finales, para garantizar que las partes son responsables de cualquier infracción de derechos de autor o violaciones de propiedad intelectual cometidas por AI sistemas
- Reforzar los marcos de derechos de autor existentes y tal vez introducir leyes de derechos de autor específicas de IA.
- Para garantizar la innovación en el espacio de la IA y salvaguardar los derechos de los creadores originales, la IA las regulaciones deben redefinir los conceptos de uso justo y trabajo transformador en el contexto de Contenido generado por IA. Se necesitan definiciones y directrices más claras para garantizar que el espacio de la IA pueda seguir mejorando respetando los límites de los derechos de autor. Es fundamental lograr un equilibrio entre la innovación y la preservación de los derechos de los creadores de contenido.
- Vías claras para la colaboración con los titulares de derechos. Si los sistemas de IA van a utilizar la propiedad intelectual de las personas de todos modos, debe haber vías o marcos claros para los desarrolladores de IA y propietarios de derechos a colaborar, especialmente en términos de compensaciones financieras, si el trabajo derivado de dichas propiedades intelectuales es comercializado.
La regulación de la IA es una solución que se necesita desesperadamente
Si bien la inteligencia artificial se ha convertido en una solución prometedora para muchos de nuestros problemas sociales, la propia IA se está convirtiendo rápidamente en un problema que necesita una solución urgente. Es hora de dar un paso atrás, reflexionar y hacer las correcciones necesarias para garantizar el impacto positivo de la IA en la sociedad. Necesitamos desesperadamente una recalibración urgente de nuestro enfoque para construir y usar sistemas de IA.