Los expertos creen que la IA acabará con la humanidad tal como la conocemos, entonces, ¿qué se está haciendo para evitar que suceda?

Una vez más, un grupo de destacados investigadores y empresas tecnológicas de IA han advertido que el rápido desarrollo actual de la inteligencia artificial podría significar un desastre para la humanidad.

Los riesgos abarcan conflictos nucleares, enfermedades, desinformación e IA desbocada sin supervisión, todo lo cual presenta una amenaza inmediata para la supervivencia humana.

Pero no se perderá el hecho de que muchas de esas advertencias provienen de las mismas personas que lideran el desarrollo de IA y promueven herramientas y programas de inteligencia artificial en sus respectivas empresas.

¿Por qué las empresas tecnológicas y los científicos de IA advierten sobre el riesgo de IA?

El 30 de mayo de 2023, más de 350 investigadores, desarrolladores e ingenieros de IA publicaron una declaración firmada advirtiendo sobre la amenaza de la IA para la humanidad.

Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.

signatarios de la Declaración de Safe.ai incluyó a Sam Altman de OpenAI, Demis Hassabis de Google DeepMind y Dario Amodei de Anthropic, junto con Turing Los ganadores del premio Geoffrey Hinton y Yoshua Bengio (aunque Yann LeCun, quien también ganó el mismo premio, se olvidó de firmar). La lista es casi quién es quién en el mundo del desarrollo de la IA, las personas que lideran el camino con la IA, pero aquí están todos, advirtiendo que la IA podría significar un desastre para la humanidad.

Es una breve declaración que aclara las amenazas, citando específicamente dos áreas clave que podrían poner en peligro el mundo tal como lo conocemos: la guerra nuclear y los problemas de salud global. Si bien la amenaza de un conflicto nuclear es una preocupación, el riesgo de una pandemia es una amenaza más tangible para la mayoría.

Sin embargo, no es solo una pandemia global lo que podría causar problemas de salud relacionados con la IA. El guardián informa varios otros problemas de salud de la IA que podrían afectar a los humanos si no se controlan antes de su uso generalizado. Un ejemplo relacionado con el uso de oxímetros impulsados ​​​​por IA que "sobreestimaron los niveles de oxígeno en la sangre en pacientes con piel más oscura, lo que resultó en un tratamiento insuficiente de su hipoxia".

Además, no es la primera vez que un grupo de líderes tecnológicos solicita una pausa o una reevaluación seria del desarrollo de la IA. En marzo de 2023, Elon Musk y otros investigadores de IA firmaron un llamado a la acción similar solicitando una moratoria en el desarrollo de IA hasta que se pueda implementar más regulación para ayudar a guiar el proceso.

¿Cuál es el riesgo de la IA?

La mayoría de los riesgos asociados con la IA, al menos en este contexto, se relacionan con el desarrollo de tecnología de IA fuera de control que excede las capacidades de los humanos, en el que eventualmente se vuelve contra su creador y acaba con la vida tal como la conocemos él. Es una historia cubierta innumerables veces en la escritura de ciencia ficción, pero la realidad ahora está más cerca de lo que pensamos.

Los modelos de lenguaje grande (que sustentan herramientas como ChatGPT) están aumentando drásticamente en capacidades. Sin embargo, herramientas como ChatGPT tienen muchos problemas, como el sesgo inherente, las preocupaciones sobre la privacidad y la alucinación de la IA, por no hablar de su capacidad de hacer jailbreak para actuar fuera de los límites de sus términos y condiciones programados.

A medida que aumentan los modelos de idiomas grandes y tienen más puntos de datos a los que recurrir, junto con el acceso a Internet y una mayor comprensión de los eventos actuales, los investigadores de IA temen que algún día, en palabras del CEO de OpenAI, Sam Altman, "vaya bastante equivocado."

¿Cómo regulan los gobiernos el desarrollo de la IA para detener los riesgos?

La regulación de la IA es clave para prevenir riesgos. A principios de mayo de 2023, Sam Altman pidió más regulación de la IA, afirmando que “la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes”.

Entonces el La Unión Europea anunció la Ley de IA, un reglamento diseñado para proporcionar un marco mucho más sólido para el desarrollo de la IA en toda la UE (con muchos reglamentos que se extienden a otras jurisdicciones). Altman inicialmente amenazó con sacar a OpenAI de la UE, pero luego se retractó de su amenaza y acordó que la empresa cumpliría con la regulación de IA que había solicitado anteriormente.

De todos modos, está claro que la regulación del desarrollo y los usos de la IA es importante.

¿Acabará la IA con la humanidad?

Dado que gran parte del debate sobre este tema se basa en hipótesis sobre el poder de las futuras versiones de la IA, existen problemas en torno a la longevidad y el poder que puede tener cualquier regulación de la IA. ¿Cuál es la mejor manera de regular una industria que ya se mueve a mil millas por minuto y los avances en el desarrollo ocurren a diario?

Además, todavía hay dudas sobre las capacidades de la IA en general y dónde terminará. Mientras que aquellos que temen lo peor apuntan a que la inteligencia artificial general se convierte en un señor supremo humano, otros apuntan a la hecho de que las versiones actuales de IA ni siquiera pueden hacer preguntas matemáticas básicas y que los autos completamente autónomos todavía son una forma apagado.

Es difícil no estar de acuerdo con quienes miran hacia el futuro. Muchas de las personas que gritan más fuerte sobre los problemas que la IA puede plantear están en el asiento del conductor, mirando hacia dónde nos dirigimos. Si son ellos los que exigen la regulación de la IA para protegernos de un futuro potencialmente horrendo, podría ser el momento de escuchar.