El desarrollo de la IA avanza rápidamente, pero ¿quién debería guiar la IA y su impacto en el mundo?
Conclusiones clave
- La IA necesita un seguimiento más estricto, ya que siguen surgiendo vulnerabilidades de ciberseguridad y preocupaciones sobre la privacidad.
- El gobierno, las empresas de tecnología y los usuarios finales tienen un papel que desempeñar en la regulación de la IA, pero cada enfoque tiene sus limitaciones.
- Los medios de comunicación, las organizaciones sin fines de lucro, las asociaciones de la industria tecnológica, las instituciones académicas y los organismos encargados de hacer cumplir la ley también contribuyen a la regulación de la IA.
El público en general tiene puntos de vista diferentes sobre la IA: algunos creen que las máquinas reemplazarán por completo a los trabajadores humanos, mientras que otros afirman que la IA es una moda pasajera. Sin embargo, algo en lo que todos están de acuerdo es que la IA necesita un seguimiento más estricto.
A pesar de la importancia de la regulación de la IA, ha pasado a un segundo plano frente a la formación. Los desarrolladores están tan obsesionados con construir el próximo modelo de IA más grande que están cambiando la ciberseguridad por un rápido avance. La pregunta no es si la IA necesita regulación; es qué órgano rector con financiación, recursos humanos y capacidad tecnológica adecuados tomará la iniciativa.
Entonces, ¿quién debería regular la IA?
Cuerpos gubernamentales
Varias personas, desde consumidores hasta Líderes tecnológicos esperan que el gobierno regule la IA. Las instituciones financiadas con fondos públicos tienen los recursos para hacerlo. Incluso Elon Musk y Sam Altman, dos de los principales impulsores de la carrera de la IA, creen que algunos preocupaciones de privacidad en torno a la IA son demasiado peligrosos para que los órganos rectores los pasen por alto.
El gobierno debería centrarse en proteger la privacidad y las libertades civiles de sus electores si se hace cargo de la regulación de la IA. Los ciberdelincuentes siguen encontrando formas de explotar los sistemas de inteligencia artificial en sus planes. Las personas que no están bien versadas en inteligencia artificial pueden dejarse engañar fácilmente por voces sintetizadas, videos falsificados y perfiles en línea operados por robots.
Sin embargo, un problema importante con el que el gobierno regula la IA es que podría sofocar inadvertidamente la innovación. La IA es una tecnología compleja y en evolución. A menos que los funcionarios que supervisan el despliegue, el desarrollo y las directrices de capacitación entiendan cómo funciona la IA, podrían emitir juicios prematuros e ineficientes.
Desarrolladores de IA, empresas de tecnología y laboratorios
Teniendo en cuenta los posibles obstáculos que podrían surgir si el gobierno monitorea la IA, muchos preferirían que las empresas de tecnología encabezaran la regulación. Creen que los desarrolladores deberían ser responsables de la tecnología que lanzan. La autorregulación les permite impulsar la innovación y centrarse en hacer avanzar estos sistemas de manera eficiente.
Además, su conocimiento profundo de la IA les ayudará a elaborar directrices justas e informadas que prioricen la seguridad del usuario sin comprometer la funcionalidad. Como ocurre con cualquier tecnología, la experiencia de la industria agiliza el seguimiento. Asignar funcionarios no capacitados para regular tecnologías que apenas comprenden podría presentar más problemas que beneficios.
Tomemos como ejemplo la audiencia del Senado de Estados Unidos de 2018 sobre las leyes de privacidad de datos de Facebook. En este informe de El Correo de Washington, verás que muchos legisladores están confundidos con las funciones básicas de Facebook. Entonces, a menos que el Senado de Estados Unidos cree un departamento exclusivo de especialistas en tecnología, probablemente no estén calificados para regular un sistema tan avanzado y en constante cambio como la IA.
Sin embargo, el principal problema con la autoregulación de las empresas tecnológicas es que las corporaciones turbias podrían abusar de su poder. Sin un tercero que intervenga, son básicamente libres de hacer lo que quieran.
Los usuarios finales
Algunos temen que el gobierno y las entidades privadas abusen de los sistemas de inteligencia artificial. No están seguros de otorgar a un puñado de órganos de gobierno control total sobre tecnologías tan poderosas, especialmente porque la IA aún está evolucionando. Eventualmente podrían pelear por la autoridad en lugar de trabajar para lograr una regulación eficiente.
Para mitigar estos riesgos, los escépticos creen que los usuarios finales merecen rienda suelta para utilizar los modelos de IA como quieran. Dicen que los organismos gubernamentales sólo deberían interferir cuando los usuarios de IA infringen la ley. Es un objetivo ambicioso, pero técnicamente podría lograrse si los desarrolladores de IA de código abierto dominaran las cuotas de mercado.
Dicho esto, esta configuración pone en desventaja a las personas que no son expertos en tecnología. Los usuarios son responsables de establecer las restricciones dentro de sus sistemas; desafortunadamente, no todos tienen los recursos para hacerlo.
También es miope eliminar del mercado los modelos propietarios. La proliferación de Los modelos de IA de código abierto tienen varios impactos positivos y negativos.; para algunos, las desventajas superan a las ventajas.
Otras entidades que desempeñan un papel en la regulación de la IA
Aunque las principales entidades encabezarán la regulación de la IA, hay organismos que desempeñan papeles importantes:
Los medios de comunicación desempeñan un papel fundamental a la hora de dar forma a la percepción que el público tiene de la IA. Informan sobre los avances de la industria, comparten nuevas herramientas, crean conciencia sobre los usos nocivos de la IA y entrevistan a expertos sobre inquietudes relevantes.
La mayoría de los datos que los usuarios finales conocen sobre la IA provienen básicamente de los medios de comunicación. La publicación de datos falsos, ya sea intencionalmente o no, causará daños irreversibles; no se puede subestimar la rapidez con la que se difunde la información errónea.
2. Organizaciones no gubernamentales
Varias organizaciones sin fines de lucro se centran en proteger la privacidad y las libertades civiles de los usuarios de IA. Educan al público a través de recursos gratuitos, abogan por nuevas políticas, cooperan con funcionarios gubernamentales y expresan inquietudes pasadas por alto.
El único problema con las OSFL es que suelen tener pocos recursos. Como no están conectados con el gobierno, dependen de solicitudes y donaciones privadas para sus operaciones diarias. Lamentablemente, sólo unas pocas organizaciones obtienen la financiación adecuada.
3. Asociaciones de la industria tecnológica
Las asociaciones de la industria tecnológica centradas en la IA pueden representar los derechos e intereses del público. Al igual que las OSFL, trabajan con legisladores, representan a personas preocupadas, abogan por políticas justas y crean conciencia sobre cuestiones específicas.
La diferencia, sin embargo, es que a menudo tienen vínculos con empresas privadas. Sus miembros todavía realizan solicitudes, pero normalmente obtendrán suficiente financiación de sus organizaciones matrices siempre que obtengan resultados.
4. Instituciones académicas
Aunque la IA conlleva varios riesgos, es intrínsecamente neutral. Todos los prejuicios, los problemas de privacidad, los errores de seguridad y las posibles actividades de delito cibernético provienen de los seres humanos, por lo que la IA por sí sola no es algo que deba temer.
Pero muy pocos entienden ya cómo funcionan los modelos modernos de IA. Los conceptos erróneos distorsionan la percepción que la gente tiene de la IA, perpetuando temores infundados de que la IA se apodera de la humanidad o roba puestos de trabajo.
Las instituciones académicas podrían llenar estas brechas educativas a través de recursos accesibles. Todavía no hay demasiados trabajos académicos sobre sistemas LLM y PNL modernos. El público puede utilizar la IA de manera más responsable y combatir los delitos cibernéticos si comprende completamente cómo funciona.
5. Las fuerzas del orden
Los organismos encargados de hacer cumplir la ley deberían esperar encontrar más Ciberataques basados en IA. Con la proliferación de modelos generativos, los delincuentes pueden sintetizar rápidamente voces, generar imágenes falsas, raspar información de identificación personal (PII), e incluso crear personajes completamente nuevos.
La mayoría de las agencias no están equipadas para manejar estos delitos. Deberían invertir en nuevos sistemas y capacitar a sus funcionarios sobre los delitos cibernéticos modernos; de lo contrario, tendrán problemas para atrapar a estos delincuentes.
El futuro de la regulación de la IA
Teniendo en cuenta la naturaleza vertiginosa de la IA, es poco probable que un solo órgano rector la controle. Sí, los líderes tecnológicos tendrán más poder que los consumidores, pero varias entidades deben cooperar para gestionar los riesgos de la IA sin impedir los avances. Es mejor establecer medidas de control ahora, mientras que la inteligencia artificial general (AGI) sigue siendo un objetivo lejano.
Dicho esto, la regulación de la IA está tan lejos como la AGI. Mientras tanto, los usuarios deben observar prácticas de seguridad para combatir las amenazas impulsadas por la IA. Los buenos hábitos, como limitar el número de personas con las que se conecta en línea y proteger su PII digital, ya son de gran ayuda.