Las últimas innovaciones en tecnología basada en IA están ampliando los límites de lo que alguna vez pensamos que era posible con IA. Sin embargo, dado que los chatbots como ChatGPT y Bing Chat se están volviendo casi tan buenos como los humanos en varias cosas, ¿es hora de pisar el freno por un tiempo?

Elon Musk y varios investigadores de IA se encuentran entre las 1188 personas (en el momento de escribir este artículo) que piensan así. Una carta publicada por el instituto sin fines de lucro Future of Life pide una pausa de seis meses para entrenar tecnologías de IA mejor que GPT 4, pero ¿realmente se requiere una pausa?

¿De qué se trata la Carta Abierta del Futuro de la Vida?

El carta publicada por el instituto Future of Life señala que los laboratorios de IA se han "encerrado en una carrera fuera de control" para desarrollar e implementar más y más modelos de IA más poderosos que nadie, incluidos sus creadores, pueden "entender, predecir o confiablemente control".

También señala que los sistemas de IA contemporáneos ahora se están volviendo competitivos con los humanos en tareas generales y pregunta si deberíamos desarrollar "mentes no humanas que eventualmente podrían superar en número, burlar, obsoletas y reemplazar a nosotros".

instagram viewer

La carta finalmente pide a todos los laboratorios de IA que pausen de inmediato el entrenamiento de los sistemas de IA más potentes que GPT-4 durante al menos seis meses. La pausa también debe ser pública y verificable para todos los actores clave. También establece que si dicha pausa no se puede hacer cumplir rápidamente, los gobiernos deberían intervenir para prohibir temporalmente el entrenamiento del modelo de IA.

Una vez que la pausa está activa, se les pide a los laboratorios de IA y a los expertos independientes que la utilicen para desarrollar e implementar conjuntamente un "conjunto compartido de protocolos de seguridad" para garantizar que los sistemas que se adhieren a estas reglas son "seguros más allá de lo razonable". duda".

Esta carta ha sido firmada por bastantes personalidades, incluidos Elon Musk, Steve Wozniak e investigadores y autores de IA. De hecho, la lista de firmantes se encuentra actualmente en pausa debido a la gran demanda.

¿Cuáles son las preocupaciones de Musk con Advanced AI Tech y OpenAI?

Si bien firmar la carta de Future of Life podría indicar que Musk está preocupado por los riesgos de seguridad que plantean estos sistemas avanzados de IA, la verdadera razón podría ser otra.

Musk cofundó OpenAI con el actual CEO Sam Altman en 2015 como una organización sin fines de lucro. Sin embargo, chocó con Altman más tarde en 2018 después de darse cuenta de que no estaba contento con el progreso de la empresa. Según los informes, Musk quería hacerse cargo para acelerar el desarrollo, pero Altman y la junta de OpenAI rechazaron la idea.

Musk se alejó de OpenAI poco después y se llevó su dinero rompiendo su promesa de contribuir con mil millones en fondos y solo dando 100 millones antes de irse. Esto obligó a OpenAI a convertirse en una empresa privada poco después, en marzo de 2019, para recaudar fondos para continuar con su investigación.

Crédito de la imagen: Heisenberg Media/Wikimedia Commons

Otra razón por la que Musk se fue fue que el desarrollo de IA en Tesla causaría un conflicto de intereses en el futuro. Es obvio que Tesla necesita sistemas avanzados de inteligencia artificial para impulsar su Funciones completas de conducción autónoma. Desde que Musk dejó OpenAI, la compañía se ha escapado con sus modelos de IA, lanzando ChatGPT con tecnología GPT3.5 en 2022 y luego siguiendo con GPT-4 en marzo de 2023.

El hecho de que el equipo de IA de Musk no esté cerca de OpenAI debe tenerse en cuenta cada vez que dice que los modelos modernos de IA podrían plantear riesgos. Tampoco tuvo problemas lanzamiento de la versión beta de Tesla Full Self-Driving en la vía pública, esencialmente convirtiendo a los conductores regulares de Tesla en probadores beta.

Esto tampoco acaba aquí. Musk también ha sido bastante crítico con OpenAI en Twitter, y Altman llegó a decir que los está atacando mientras aparecía recientemente en el podcast "On with Kara Swisher".

Por el momento, parece que Musk solo está usando la carta Future of Life para detener el desarrollo en OpenAI y cualquier otra empresa que se ponga al día. a GPT-4 para dar a sus empresas la oportunidad de ponerse al día en lugar de preocuparse por los peligros potenciales de estos modelos de IA pose. Tenga en cuenta que la carta también solicita pausar el "entrenamiento" de los sistemas de IA durante seis meses, lo que puede eludirse con relativa facilidad para continuar desarrollándolos mientras tanto.

¿Es realmente necesaria una pausa?

La necesidad de una pausa depende del estado de los modelos de IA en el futuro. La carta definitivamente tiene un tono un poco dramático, y no nos arriesgamos a perder el control de nuestra civilización a manos de la IA, como lo afirma tan abiertamente. Dicho esto, Las tecnologías de IA plantean algunas amenazas.

Dado que OpenAI y otros laboratorios de IA pueden implementar mejores controles de seguridad, una pausa haría más daño que bien. Sin embargo, la sugerencia de la carta de un conjunto de protocolos de seguridad compartidos que son "rigurosamente auditados y supervisados ​​por expertos externos independientes" parece una buena idea.

Con gigantes tecnológicos como Google y Microsoft invirtiendo miles de millones en el desarrollo e integración de IA en sus productos, es poco probable que la carta afecte el ritmo actual del desarrollo de IA.

La IA está aquí para quedarse

Con los gigantes tecnológicos impulsando aún más la integración de la IA en sus productos e invirtiendo miles de millones de dólares en investigación y desarrollo, la IA llegó para quedarse, independientemente de lo que diga la oposición.

Pero no es una mala idea implementar medidas de seguridad para evitar que estas tecnologías se descarrilen y se conviertan potencialmente en herramientas para hacer daño.