Las capacidades de inteligencia artificial se están expandiendo exponencialmente, y la IA ahora se utiliza en industrias que van desde la publicidad hasta la investigación médica. El uso de la inteligencia artificial en áreas más sensibles, como el software de reconocimiento facial, los algoritmos de contratación y la provisión de atención médica, ha precipitado el debate sobre el sesgo y la equidad.
El sesgo es una faceta bien investigada de la psicología humana. La investigación expone regularmente nuestras preferencias y prejuicios inconscientes, y ahora vemos que la IA refleja algunos de estos sesgos en sus algoritmos.
Entonces, ¿cómo se sesga la inteligencia artificial? ¿Y por qué importa esto?
¿Cómo se sesga la IA?
En aras de la simplicidad, en este artículo, nos referiremos a aprendizaje automático y aprendizaje profundo algoritmos como algoritmos o sistemas de IA.
Los investigadores y desarrolladores pueden introducir sesgos en los sistemas de IA de dos formas.
En primer lugar, los sesgos cognitivos de los investigadores pueden integrarse accidentalmente en algoritmos de aprendizaje automático. Los sesgos cognitivos son percepciones humanas inconscientes que pueden afectar la forma en que las personas toman decisiones. Esto se convierte en un problema importante cuando los prejuicios se refieren a personas o grupos de personas y pueden dañar a esas personas.
Estos sesgos pueden introducirse de forma directa pero accidental, o los investigadores pueden entrenar a la IA en conjuntos de datos que se vieron afectados por el sesgo. Por ejemplo, una IA de reconocimiento facial podría entrenarse utilizando un conjunto de datos que solo incluye rostros de piel clara. En este caso, la IA funcionará mejor cuando se trate de rostros de piel clara que de oscuros. Esta forma de sesgo de IA se conoce como legado negativo.
En segundo lugar, pueden surgir sesgos cuando la IA se entrena con conjuntos de datos incompletos. Por ejemplo, si una IA se entrena en un conjunto de datos que solo incluye a científicos informáticos, no representará a toda la población. Esto conduce a algoritmos que no proporcionan predicciones precisas.
Ejemplos de sesgo de la IA en el mundo real
Ha habido varios ejemplos recientes y bien informados de sesgo de IA que ilustra el peligro de permitir que estos prejuicios se filtren.
Priorización de la atención médica con sede en EE. UU.
En 2019, se diseñó un algoritmo de aprendizaje automático para ayudar a los hospitales y las compañías de seguros a determinar qué pacientes se beneficiarían más de ciertos programas de atención médica. Basado en una base de datos de alrededor de 200 millones de personas, el algoritmo favoreció a los pacientes blancos sobre los pacientes negros.
Se determinó que esto se debió a una suposición errónea en el algoritmo con respecto a los costos de atención médica variables entre personas negras y blancas, y el sesgo finalmente se redujo en un 80%.
COMPAS
El perfil de gestión de delincuentes correccionales para sanciones alternativas, o COMPAS, era un algoritmo de inteligencia artificial diseñado para predecir si personas en particular reincidirían. El algoritmo produjo el doble de falsos positivos para los delincuentes negros en comparación con los delincuentes blancos. En este caso, tanto el conjunto de datos como el modelo tenían fallas, lo que introdujo un sesgo importante.
Amazonas
En 2015, se descubrió que el algoritmo de contratación que utiliza Amazon para determinar la idoneidad de los solicitantes favorece mucho a los hombres sobre las mujeres. Esto se debió a que el conjunto de datos contenía casi exclusivamente hombres y sus hojas de vida, ya que la mayoría de los empleados de Amazon son hombres.
Cómo detener el sesgo de la IA
La IA ya está revolucionando la forma en que trabajamos cada industria. Tener sistemas sesgados que controlen los procesos sensibles de toma de decisiones es menos que deseable. En el mejor de los casos, reduce la calidad de la investigación basada en inteligencia artificial. En el peor de los casos, daña activamente a los grupos minoritarios.
Hay ejemplos de algoritmos de IA que ya se utilizan para ayudar a la toma de decisiones humanas reduciendo el impacto de los sesgos cognitivos humanos. Debido a cómo se entrenan los algoritmos de aprendizaje automático, pueden ser más precisos y menos sesgados que los humanos en la misma posición, lo que resulta en una toma de decisiones más justa.
Pero, como hemos mostrado, lo contrario también es cierto. Los riesgos de permitir que los sesgos humanos sean cocinados y amplificados por la IA pueden superar algunos de los posibles beneficios.
Al final del día, La IA es tan buena como los datos con los que se entrena. El desarrollo de algoritmos no sesgados requiere un análisis previo exhaustivo y exhaustivo de los conjuntos de datos, lo que garantiza que los datos estén libres de sesgos implícitos. Esto es más difícil de lo que parece porque muchos de nuestros prejuicios son inconscientes y, a menudo, difíciles de identificar.
Desafíos para prevenir el sesgo de la IA
En el desarrollo de sistemas de IA, se debe evaluar cada paso para determinar su potencial para incorporar sesgos en el algoritmo. Uno de los principales factores para prevenir el sesgo es garantizar que la justicia, en lugar del sesgo, se incorpore al algoritmo.
Definición de equidad
La equidad es un concepto relativamente difícil de definir. De hecho, es un debate que nunca llegó a un consenso. Para hacer las cosas aún más difíciles, al desarrollar sistemas de IA, el concepto de equidad debe definirse matemáticamente.
Por ejemplo, en términos del algoritmo de contratación de Amazon, ¿la equidad se vería como una división perfecta de 50/50 entre trabajadores masculinos y femeninos? ¿O una proporción diferente?
Determinación de la función
El primer paso en el desarrollo de la IA es determinar exactamente qué se va a lograr. Si se usa el ejemplo de COMPAS, el algoritmo predeciría la probabilidad de que los delincuentes reincidan. Luego, es necesario determinar las entradas de datos claras para permitir que el algoritmo funcione. Esto puede requerir definir variables importantes, como el número de delitos anteriores o el tipo de delitos cometidos.
Definir estas variables correctamente es un paso difícil pero importante para garantizar la equidad del algoritmo.
Haciendo el conjunto de datos
Como hemos cubierto, una de las principales causas del sesgo de la IA son los datos incompletos, no representativos o sesgados. Al igual que en el caso de la IA de reconocimiento facial, los datos de entrada deben verificarse minuciosamente en busca de sesgos, idoneidad e integridad antes del proceso de aprendizaje automático.
Elegir atributos
En los algoritmos se pueden considerar o no ciertos atributos. Los atributos pueden incluir género, raza o educación, básicamente cualquier cosa que pueda ser importante para la tarea del algoritmo. Dependiendo de los atributos que se elijan, la precisión predictiva y el sesgo del algoritmo pueden verse gravemente afectados. El problema es que es muy difícil medir qué tan sesgado está un algoritmo.
El sesgo de la IA no está aquí para quedarse
El sesgo de IA ocurre cuando los algoritmos hacen predicciones sesgadas o inexactas debido a entradas sesgadas. Ocurre cuando los datos sesgados o incompletos se reflejan o amplifican durante el desarrollo y entrenamiento del algoritmo.
La buena noticia es que con la multiplicación de los fondos para la investigación de la IA, es probable que veamos nuevos métodos para reducir e incluso eliminar el sesgo de la IA.
Dejemos las cosas claras sobre algunas falsedades comunes que rodean a la IA.
Leer siguiente
- Tecnología explicada
- Inteligencia artificial
- Aprendizaje automático
Jake Harfield es un escritor independiente que vive en Perth, Australia. Cuando no está escribiendo, suele estar en el monte fotografiando la vida silvestre local. Puedes visitarlo en www.jakeharfield.com
Suscríbete a nuestro boletín
¡Únase a nuestro boletín de noticias para obtener consejos técnicos, reseñas, libros electrónicos gratuitos y ofertas exclusivas!
Un paso más…!
Confirme su dirección de correo electrónico en el correo electrónico que le acabamos de enviar.