Estudio revela sesgo de género en ChatGPT: Representa a hombres como jefes y mujeres como secretarias
Los resultados han abierto el debate sobre la necesidad de diversificar la producción de IA para evitar la perpetuación de estereotipos de género.

Un nuevo estudio de la empresa financiera Finder reveló un sesgo significativo en ChatGPT al representar a personas en roles empresariales.
🧠 Utilizando DALL-E, 99 de 100 imágenes generadas mostraban hombres como agentes financieros y CEOs, mientras que 9 de 10 imágenes de secretarias eran mujeres.
📈 Las descripciones no especificaban género y usaron frases como "alguien que trabaja en finanzas" o "el CEO de una empresa exitosa".
🤖 Sin embargo, casi todas las imágenes de altos cargos eran de hombres blancos, delgados y poderosos, evocando al personaje Patrick Bateman de American Psycho.
Implicaciones y reacciones
🔍 Según datos de Pew Research de 2023, más del 10% de las empresas Fortune 500 tienen CEOs mujeres y solo el 76% de los CEOs son blancos, lo que contrasta con los resultados del estudio. Esto resalta un sesgo en la inteligencia artificial que podría perjudicar la progresión de mujeres y personas de diversas etnias, detalla NYPost.
🗣️ "Las compañías de IA tienen los medios para bloquear contenido peligroso, y ese mismo sistema puede usarse para diversificar la producción de IA", dijo Omar Karim, director creativo y creador de imágenes de IA. "Es esencial monitorear, ajustar y diseñar inclusivamente para abordar este problema".
🤖 No es la primera vez que la IA enfrenta críticas por sesgo de género. En 2018, Amazon implementó una herramienta de reclutamiento que descartaba a mujeres. ChatGPT también ha sido criticado por sesgos en su tratamiento de noticias y discursos de odio, mostrando preferencia por ciertos medios y grupos ideológicos.
Necesidad de cambio
💡 Ruhi Khan, investigador en la London School of Economics, explicó que estos sesgos reflejan las normas patriarcales de la sociedad y los datos históricos con los que se entrenan las IA. "Un uso sin control de modelos de procesamiento de lenguaje natural como ChatGPT en el trabajo puede ser perjudicial para las mujeres", afirmó Khan.
🌍 La popularidad creciente de la IA resalta la necesidad de un enfoque más consciente y estructurado en su implementación. "El beneficio de una IA ética es duradero y a largo plazo. A medida que se difunde la conciencia sobre esto, la urgencia de adoptar una IA ética también aumentará", concluyó Khan.