Cada vez más empresas prohíben ChatGPT en el lugar de trabajo, pero ¿qué hay detrás de las prohibiciones?
A pesar de sus impresionantes capacidades, varias empresas importantes han prohibido a sus empleados el uso de ChatGPT.
En mayo de 2023, Samsung prohibió el uso de ChatGPT y otras herramientas de IA generativa. Luego, en junio de 2023, el Commonwealth Bank of Australia hizo lo mismo, junto con empresas como Amazon, Apple y JPMorgan Chase & Co. Algunos hospitales, bufetes de abogados y agencias gubernamentales también han prohibido a los empleados usar ChatGPT.
Entonces, ¿por qué cada vez más empresas prohíben ChatGPT? Aquí hay cinco razones principales.
1. Fugas de datos
ChatGPT requiere una gran cantidad de datos para entrenar y operar de manera efectiva. El chatbot se entrenó utilizando cantidades masivas de datos derivados de Internet y continúa entrenándose.
De acuerdo a Página de ayuda de OpenAI, todos los datos, incluidos los detalles confidenciales de los clientes, los secretos comerciales y los datos comerciales confidenciales. la información que alimenta al chatbot puede ser revisada por sus entrenadores, quienes pueden usar sus datos para mejorar sus sistemas
Muchas empresas están sujetas a estrictas normas de protección de datos. Como resultado, son cautelosos a la hora de compartir datos personales con entidades externas, ya que esto aumenta los riesgos de fugas de datos.
Además, OpenAI no ofrece ninguna protección de datos infalible ni garantía de confidencialidad. En marzo de 2023, OpenAI confirmado un error que permite a algunos usuarios ver los títulos de chat en las historias de otros usuarios activos. Aunque este error fue corregido y OpenAI lanzó un programa de recompensas por errores, la empresa no garantiza la seguridad y privacidad de los datos de los usuarios.
Muchas organizaciones están optando por restringir el uso de ChatGPT por parte de los empleados para evitar fugas de datos. que pueden dañar su reputación, provocar pérdidas financieras y poner en peligro a sus clientes y empleados. riesgo.
2. Riesgos de ciberseguridad
Mientras no está claro si ChatGPT es realmente propenso a los riesgos de ciberseguridad, existe la posibilidad de que su implementación dentro de una organización pueda introducir vulnerabilidades potenciales que los ciberatacantes pueden explotar.
Si una empresa integra ChatGPT y hay debilidades en el sistema de seguridad del chatbot, los atacantes pueden aprovechar las vulnerabilidades e inyectar códigos de malware. Además, la capacidad de ChatGPT para generar respuestas similares a las humanas es un huevo de oro para los atacantes de phishing que pueden tomar sobre una cuenta o hacerse pasar por entidades legítimas para engañar a los empleados de la empresa para que compartan información.
3. Creación de Chatbots Personalizados
A pesar de sus características innovadoras, ChatGPT puede generar información falsa y engañosa. Como resultado, muchas empresas han creado chatbots de IA con fines laborales. Por ejemplo, el Commonwealth Bank of Australia pidió a sus empleados que usaran Gen.ai, un chatbot de inteligencia artificial (AI) que usa la información de CommBank para brindar respuestas.
Empresas como Samsung y Amazon han desarrollado modelos avanzados de lenguaje natural, por lo que las empresas pueden crear e implementar fácilmente chatbots personalizados basados en transcripciones existentes. Con estos chatbots internos, puede evitar las consecuencias legales y reputacionales asociadas con el manejo indebido de datos.
4. Falta de regulación
En industrias donde las empresas están sujetas a protocolos y sanciones regulatorias, la falta de orientación regulatoria de ChatGPT es una señal de alerta. Sin condiciones regulatorias precisas que rijan el uso de ChatGPT, las empresas pueden enfrentar graves consecuencias legales al usar el chatbot de IA para sus operaciones.
Además, la falta de regulación puede disminuir la responsabilidad y la transparencia de una empresa. La mayoría de las empresas pueden estar confundidas acerca de explicar el Procesos de toma de decisiones y medidas de seguridad del modelo de lenguaje AI a sus clientes.
Las empresas están restringiendo ChatGPT por temor a posibles violaciones de las leyes de privacidad y las regulaciones específicas de la industria.
5. Uso irresponsable por empleados
En muchas empresas, algunos empleados confían únicamente en las respuestas de ChatGPT para generar contenido y realizar sus funciones. Esto genera pereza en el ambiente de trabajo y frena la creatividad y la innovación.
Ser dependiente de la IA puede dificultar su capacidad de pensar críticamente. También puede dañar la credibilidad de una empresa, ya que ChatGPT a menudo proporciona datos inexactos y poco fiables.
Si bien ChatGPT es una herramienta poderosa, su uso para abordar consultas complejas que requieren experiencia en un dominio específico puede dañar la operación y la eficiencia de una empresa. Es posible que algunos empleados no recuerden verificar los hechos y verificar las respuestas proporcionadas por el chatbot de IA, tratando las respuestas como una solución única para todos.
Para mitigar problemas como estos, las empresas están prohibiendo el chatbot para que los empleados puedan concentrarse en sus tareas y brindar soluciones sin errores a los usuarios.
Prohibiciones de ChatGPT: más vale prevenir que curar
Las empresas que prohíben ChatGPT indican riesgos de ciberseguridad, estándares éticos de los empleados y desafíos de cumplimiento normativo. La incapacidad de ChatGPT para aliviar estos desafíos al tiempo que proporciona soluciones industriales da fe de sus limitaciones y necesidades para evolucionar aún más.
Mientras tanto, las empresas están cambiando a chatbots alternativos o simplemente restringiendo que los empleados utilicen ChatGPT para evitar posibles violaciones de datos y protocolos regulatorios y de seguridad poco confiables asociados con el chatbot.