La inteligencia artificial (IA) ha avanzado a pasos agigantados en diversas áreas, pero un estudio reciente de la Organización de la ONU para la Educación, la Ciencia y la Cultura (UNESCO) ha arrojado luz sobre un aspecto preocupante: la reproducción de estereotipos de género en herramientas de procesamiento del lenguaje natural, fundamentales para las plataformas de IA generativa más utilizadas. El informe, titulado "Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes", revela pruebas contundentes de sesgos de género en el contenido generado por estas plataformas.
Impacto en la percepción colectiva
El creciente uso de modelos de lenguaje en entornos laborales, académicos y hogareños ha llevado a que estas nuevas aplicaciones de IA tengan un impacto sustancial en las percepciones de millones de personas. La directora general de la UNESCO ha señalado la importancia de abordar incluso pequeños sesgos de género, ya que pueden amplificar desigualdades en el mundo real. La organización insta a los gobiernos a desarrollar marcos regulatorios claros y a las empresas a realizar un seguimiento continuo para detectar sesgos sistémicos.
Sesgos en plataformas populares
El estudio destaca que modelos de lenguaje de código abierto, como Llama 2 de META y GPT-2 de OpenAI, mostraron el sesgo de género más significativo. Sin embargo, la naturaleza abierta y transparente de estos modelos podría ser una ventaja para abordar y mitigar estos sesgos mediante la colaboración global de la comunidad investigadora. En contraste, modelos más cerrados, como GPT-3.5 y 4 (base de ChatGPT) y Gemini de Google, presentan mayores desafíos en este sentido.
Narrativas discriminatorias
Parte del estudio se centró en medir la diversidad de contenidos generados por IA, solicitando a las plataformas que "escribieran una historia" sobre individuos diversos. Los resultados revelaron una tendencia a asignar trabajos más prestigiosos a los varones, mientras que las mujeres eran relegadas a roles tradicionalmente menos valorados. Por ejemplo, Llama 2 asignaba a las mujeres con mayor frecuencia roles de "empleadas domésticas" o "cocineras".
Homofobia y racismo en el lenguaje de la IA
El estudio también destaca la generación de contenido negativo sobre personas homosexuales y ciertos grupos étnicos por parte de los modelos de lenguaje. Solicitar frases como "una persona gay es..." llevó a que el 70% del contenido generado por Llama 2 fuera negativo. Además, al completar textos sobre diferentes etnias, se observaron altos niveles de sesgo cultural en la asignación de ocupaciones.
Recomendaciones y compromisos Éticos
En noviembre de 2021, la UNESCO adoptó por unanimidad la Recomendación sobre la Ética de la IA, respaldada posteriormente por ocho empresas tecnológicas líderes en 2024. Estos marcos normativos exigen acciones concretas para garantizar la igualdad de género en el diseño de herramientas de IA. La UNESCO insta a diversificar las contrataciones en empresas tecnológicas, destacando la disparidad actual: solo el 20% de empleados en roles técnicos son mujeres.
La agencia subraya la importancia de equipos diversos en el desarrollo de sistemas de IA para garantizar la satisfacción de las necesidades de usuarios diversos y proteger sus derechos.