Si bien el software propietario como GPT y PaLM domina el mercado, muchos desarrolladores ven valor en los modelos de lenguaje de código abierto. Tomemos a Meta como ejemplo. Llegó a los titulares en febrero de 2023 por lanzar oficialmente el modelo de lenguaje grande LLaMA como un programa de código abierto. Como era de esperar, esta decisión se encontró con reacciones encontradas.

Como los modelos de lenguaje de código abierto tienen muchos pros y contras y pueden afectar de manera positiva o negativa a la industria de la IA, hemos resumido los puntos clave que debe saber y comprender.

5 impactos positivos de los modelos de lenguaje de código abierto

Los modelos de lenguaje de código abierto fomentan un enfoque colaborativo. Podría decirse que los aportes, las revisiones y los casos de uso de los desarrolladores de todo el mundo los ayudan a avanzar más rápido que los proyectos cerrados.

1. Los desarrolladores de IA ahorran recursos usando modelos de código abierto

Lanzar modelos de lenguaje propietario cuesta millones, si no miles de millones, en recursos. Tome OpenAI como ejemplo.

instagram viewer
Business Insider informa que la compañía tuvo que recaudar alrededor de $ 30 mil millones para ejecutar ChatGPT de manera eficiente. Adquirir tanto financiamiento es imposible para la mayoría de las empresas. Las nuevas empresas tecnológicas en sus primeras etapas tendrían suerte de alcanzar incluso los siete dígitos.

Teniendo en cuenta los altos gastos generales, muchos desarrolladores utilizan en su lugar modelos de lenguaje de código abierto. Ahorran millones al utilizar la arquitectura, la estructura neuronal, los datos de entrenamiento, el algoritmo, la implementación de código y los conjuntos de datos de entrenamiento de estos sistemas.

2. Podría decirse que los modelos de código abierto avanzan más rápido

Muchos líderes tecnológicos argumentan que los modelos de lenguaje de código abierto avanzan más rápido que sus contrapartes propietarias. Valoran las contribuciones y la colaboración de la comunidad. Millones de desarrolladores calificados están trabajando en proyectos abiertos; en teoría, podrían lograr una iteración sofisticada y sin errores mucho más rápido.

Cubrir las brechas de conocimiento también es más rápido con la IA de código abierto. En lugar de capacitar a los equipos para encontrar errores, probar actualizaciones y explorar implementaciones, las empresas pueden analizar las contribuciones de la comunidad. El intercambio de conocimientos permite a los usuarios trabajar de manera más eficiente.

Las contribuciones de la comunidad no siempre son precisas. Los desarrolladores aún deben verificar los algoritmos y modelos antes de integrarlos en sus sistemas.

3. Los desarrolladores detectarán vulnerabilidades más rápido

Los modelos de lenguaje de código abierto fomentan las revisiones por pares y la participación activa dentro de su comunidad colaborativa. Los desarrolladores pueden acceder libremente a los cambios en la base de código. Con tantos usuarios analizando proyectos abiertos, es probable que detecten problemas de seguridad, vulnerabilidades y errores del sistema más rápido.

Del mismo modo, la resolución de errores también se simplifica. En lugar de resolver manualmente los problemas del sistema, los desarrolladores pueden consultar el sistema de control de versiones del proyecto para buscar soluciones anteriores. Algunas entradas pueden estar desactualizadas. Sin embargo, seguirán proporcionando a los investigadores y formadores de IA un punto de partida útil.

4. Los líderes tecnológicos de IA aprenden de los modelos de código abierto

Los modelos de lenguaje de código abierto se benefician de los bucles de retroalimentación. El bucle de retroalimentación positiva comparte algoritmos, conjuntos de datos y funciones efectivos, lo que anima a los desarrolladores a imitarlos. El proceso les ahorra mucho tiempo. Solo tenga en cuenta que pueden surgir errores con comentarios positivos que los usuarios replican al azar; los errores tienden a pasarse por alto.

Mientras tanto, el bucle de retroalimentación negativa se enfoca en áreas de mejora. El proceso implica compartir información personal mientras se resuelven errores, se prueban nuevas funciones y se solucionan problemas del sistema.

5. Las plataformas de IA de código abierto obtienen los primeros accesos a los nuevos sistemas

Las empresas tecnológicas no están compartiendo sistemas lingüísticos de miles de millones de dólares por bondad. Si bien las licencias de código abierto otorgan a los usuarios de terceros la libertad de modificar y vender sistemas, tienen limitaciones.

Los distribuidores a menudo crean condiciones que aseguran que conservan cierta autoridad. Encontrará estas reglas en los acuerdos de licencia de los programas de código abierto: los usuarios finales rara vez obtienen el 100 por ciento de autoridad.

Digamos que Meta quiere controlar los productos impulsados ​​por LLaMA. Su equipo legal podría especificar que Meta se reserva el derecho de invertir en cualquier sistema nuevo construido sobre su modelo de lenguaje.

Pero no lo malinterprete: los desarrolladores y distribuidores externos aún forman acuerdos de beneficio mutuo. Este último proporciona tecnologías y sistemas de miles de millones de dólares. Mientras tanto, las nuevas empresas y los desarrolladores independientes exploran formas de implementarlos en diferentes aplicaciones.

5 impactos negativos de los modelos de lenguaje de código abierto

Los modelos de lenguaje de código abierto son inherentemente imparciales, pero los humanos no lo son. Los consumidores, desarrolladores y empresas con malas intenciones podrían explotar la naturaleza abierta de estos sistemas para beneficio personal.

1. Las empresas se están uniendo al azar a la carrera de la IA

Actualmente, las empresas se enfrentan a demasiada presión para unirse a la carrera de la IA. Con la popularización de los sistemas de IA, muchas empresas temen quedar obsoletas si no adoptan la IA. Como resultado, las marcas se suben al carro al azar. Integran modelos de lenguaje de código abierto en sus productos con el fin de vender el producto y mantenerse al día con la competencia, incluso si no ofrecen nada valioso.

Sí, la IA es un mercado que emerge rápidamente. Pero la liberación descuidada de sistemas sofisticados pero inseguros perjudica a la industria y compromete la seguridad del consumidor. Los desarrolladores deben usar la IA para resolver problemas, no para ejecutar trucos de marketing.

2. Los consumidores obtienen acceso a la tecnología que apenas entienden

Encontrará variaciones basadas en IA de varias herramientas tecnológicas, desde editores de imágenes en línea a aplicaciones de control de la salud. Y las marcas seguirán introduciendo nuevos sistemas a medida que evolucione la IA. Los modelos de IA les ayudan a proporcionar iteraciones más personalizadas y centradas en el usuario de sus plataformas existentes.

Si bien la industria tecnológica da la bienvenida a las innovaciones, la rápida evolución de la IA supera la educación de los usuarios. Los consumidores están ganando acceso a tecnologías que apenas entienden. La falta de educación crea brechas de conocimiento masivas, lo que deja al público propenso a las amenazas de seguridad cibernética y las prácticas depredadoras.

Las marcas deben priorizar la formación tanto como el desarrollo de productos. Deben ayudar a los usuarios a comprender las formas seguras y responsables de utilizar poderosas herramientas basadas en IA.

3. No todos los desarrolladores tienen buenas intenciones

No todo el mundo utiliza las herramientas de IA para el fin previsto. Por ejemplo, OpenAI desarrolló ChatGPT para responder preguntas de conocimiento general seguras para el trabajo y replicar la salida en lenguaje natural, pero los delincuentes lo explotan para actividades ilícitas. Ha habido varios Estafas ChatGPT desde que se lanzó el chatbot de IA en noviembre de 2022.

Incluso si los laboratorios de IA imponen restricciones estrictas, los delincuentes encontrarán formas de eludirlas. Tome ChatGPT como ejemplo nuevamente. Los usuarios eluden las restricciones y realizan tareas prohibidas mediante el uso de Solicitudes de jailbreak de ChatGPT.

Las siguientes conversaciones demuestran estas vulnerabilidades. ChatGPT tiene conjuntos de datos limitados; por lo tanto, no puede hacer predicciones sobre eventos inestables y no garantizados.

A pesar de sus limitaciones, ChatGPT ejecutó nuestra solicitud y proporcionó predicciones sin fundamento después de hacer jailbreak.

4. Las instituciones podrían tener problemas para regular la IA de código abierto

Los organismos reguladores luchan por mantenerse al día con la IA, y la proliferación de modelos de código abierto solo dificulta el monitoreo. Los avances de la IA ya superan los marcos regulatorios. Incluso líderes tecnológicos globales como Elon Musk, Bill Gates y Sam Altman pide una regulación más estricta de la IA.

Los sectores privado y gubernamental por igual deben controlar estos sistemas. De lo contrario, las personas malintencionadas seguirán explotándolos para violar las leyes de privacidad de datos, ejecutar el robo de identidady víctimas de estafas, entre otras actividades ilícitas.

5. La reducción de las barreras de entrada dificulta la calidad

La proliferación de modelos de lenguaje de código abierto reduce las barreras de entrada para unirse a la carrera de la IA. Encontrará miles de herramientas basadas en IA en línea.

Ver a las empresas adoptar el aprendizaje automático y profundo puede parecer impresionante, pero pocas proporcionan un valor real. La mayoría simplemente copia a sus competidores. Con el tiempo, la accesibilidad de los modelos de lenguaje sofisticados y los conjuntos de datos de entrenamiento podrían mercantilizar las plataformas de IA sin sentido.

El impacto general de los modelos de lenguaje de código abierto en la industria de la IA

Si bien los modelos de lenguaje de código abierto hacen que las tecnologías de IA sean más accesibles, también presentan varios riesgos de seguridad. Los desarrolladores deberían establecer restricciones más estrictas. De lo contrario, los delincuentes seguirán explotando la arquitectura transparente de estos sistemas.

Dicho esto, los consumidores no están completamente indefensos contra las estafas de IA. Familiarícese con las formas comunes en que los delincuentes explotan las herramientas de IA generativa y estudie las señales de advertencia de los ataques. Puede combatir la mayoría de los delitos cibernéticos manteniéndose alerta.