miércoles, noviembre 19, 2025
No menu items!
- Advertisement -spot_img
InicioRevistaTecnologíaInteligencia artificial con sesgos reales: retos de igualdad

Inteligencia artificial con sesgos reales: retos de igualdad


En América Latina y el Caribe (ALC), la inteligencia artificial (IA) se utiliza cada vez más en las decisiones cotidianas que afectan a millones de personas: procesos de selección de becas, subsidios, alertas de servicios sociales, identificación biométrica e incluso asesoramiento a víctimas de violencia.
Pero, como advierte el Informe Regional sobre Desarrollo Humano 2025, la IA se está integrando en una región donde persisten las desigualdades, y los datos que alimentan estos sistemas reflejan inevitablemente los sesgos arraigados en la sociedad.

Si los algoritmos aprenden de estas realidades, el sesgo de género deja de ser una falla en el laboratorio y se convierte en un problema de desarrollo: puede excluir a quienes están menos representados en los registros, como las mujeres pobres, indígenas, inmigrantes o rurales, erosionando aún más la confianza institucional.
Pero las mismas tecnologías que pueden profundizar la desigualdad también pueden proteger, informar y abrir oportunidades, especialmente para grupos tradicionalmente excluidos.

El desafío es reducir este sesgo y seleccionar controles verificables que prioricen la equidad para ampliar los derechos, mejorar los objetivos de las políticas y promover un crecimiento más inclusivo.

Cuestiones «técnicas» ya en desarrollo

Uno de los principales usos de la inteligencia artificial es optimizar decisiones basadas en la identificación de patrones en grandes cantidades de datos. Sin embargo, los modelos que “promedian” poblaciones diversas pueden poner en desventaja a grupos subrepresentados y reproducir patrones históricos de discriminación.

Por ejemplo, en los programas de seguridad social, algunos países de América Latina y el Caribe han adoptado modelos automatizados para clasificar a las personas y asignar beneficios, pero los sistemas de puntuación pueden perpetuar las exclusiones si las mujeres u otros grupos no están representados equitativamente en los datos que proporcionan.

El sesgo de género surge en decisiones específicas, y la seguridad pública proporciona una comparación igualmente ilustrativa. La región se ha apresurado a adoptar tecnología de reconocimiento facial y biométrico, pero las investigaciones muestran que los falsos positivos afectan desproporcionadamente a las mujeres, especialmente a las mujeres racializadas.

Estos errores de identificación socavan las libertades, pueden provocar detenciones injustas y exacerbar la desigualdad.

Al mismo tiempo, cuando los algoritmos de contratación replican experiencias laborales masculinas, o cuando el crédito se otorga según un modelo que penaliza las trayectorias de las mujeres según los estándares bancarios tradicionales, las oportunidades de las mujeres disminuyen, la productividad se resiente y el espíritu empresarial se limita. La región no puede permitirse una tecnología que excluya al talento femenino de un mercado ya segmentado.

Invertir en datos representativos, fortalecer los marcos regulatorios para el uso de la IA e incorporar métricas de equidad y mecanismos de rendición de cuentas son pasos clave para utilizar esta tecnología de manera responsable e inclusiva.

Por lo tanto, la inteligencia artificial puede ser una oportunidad no solo para mejorar la eficiencia de la toma de decisiones, sino también para ampliar la base de beneficiarios de las innovaciones, acelerar la adopción digital y promover la inclusión laboral y financiera.

También vale la pena recordar el nivel simbólico: la feminización tácita de los asistentes virtuales o chatbots –a través de sus nombres, voces y avatares– reproduce jerarquías.
Esto puede estar justificado dentro de un servicio en particular, pero a menudo refuerza los estereotipos sobre el papel de la mujer en la sociedad. El diseño de interfaz se utiliza cada vez más para mejorar la prestación de servicios públicos y es un elemento de política pública.

Mujeres en liderazgo: de outsiders a diseñadoras

Los principios de no discriminación, transparencia y control humano ya están presentes en las estrategias y marcos de varios países de la región.

El desafío es traducirlos en controles verificables: registrar la composición demográfica de los datos; evaluar el desempeño por subgrupos (mujeres por edad, origen, situación migratoria o zona rural); monitorear los resultados después de que se implementen los sistemas; y exigir auditorías independientes obligatorias de los sistemas de alto impacto (como los de protección social, salud, justicia y seguridad). A través de estos controles, la IA se vuelve auditable y gobernable.

Debido a las exclusiones históricas y la menor visibilidad de los datos formales, el sistema tiende a clasificar a las mujeres como «valores atípicos», término que define un valor atípico en estadística como una observación numéricamente distante del resto de los datos. Desde un enfoque estrictamente estadístico, los resultados de conjuntos de datos con valores atípicos pueden llevar a conclusiones erróneas, por lo que esto suele evitarse. Sin embargo, esto no siempre se aplica a situaciones más sutiles, como solicitudes de crédito, ofertas de empleo o programas sociales, donde las características de las mujeres pueden diferir de las de los hombres pero no deberían ser una razón para ser excluidas del proceso de selección.

Pero las mujeres de la región no solo son usuarias de IA, sino también líderes en la creación de soluciones: marcos para el desarrollo feminista de IA, herramientas abiertas para detectar estereotipos en modelos lingüísticos e iniciativas para incorporar una perspectiva de género en el trabajo de plataformas. Poner a las mujeres en el centro (como diseñadoras, auditoras, reguladoras y usuarias) puede mejorar la calidad técnica de los sistemas y acelerar su aceptación social. Además, se trata también de una política innovadora.

En resumen, reducir el sesgo de género dará frutos exponenciales: políticas sociales más precisas y legítimas; seguridad alineada con derechos; mercados laborales y financieros más inclusivos y productivos; y una mayor confianza en instituciones capaces de gestionar tecnologías complejas. Esto se traduce en desarrollo humano: capacidades más auténticas (para la salud, la educación, la participación, el trabajo decente) y más capacidad para influir en la propia vida y el entorno.

La IA no es neutral, pero puede ser justa. Para lograrlo, América Latina y el Caribe necesita adoptar estándares mínimos que ya están a su alcance: datos representativos y documentados, indicadores de equidad por agrupación, auditorías independientes y vías de compensación en caso de daño. Reducir el sesgo de género no sólo abre oportunidades para las mujeres sino que también impulsa el desarrollo en toda la región.

Este artículo se basa en los hallazgos del Informe Regional sobre Desarrollo Humano 2025 titulado “Bajo presión: recalibrando el futuro del desarrollo” elaborado por el Programa de las Naciones Unidas para el Desarrollo (PNUD) para América Latina y el Caribe.

Gemma Jardín-Clavell
Fundador y CEO de Eticas Consulting, una organización dedicada a identificar, medir y corregir vulnerabilidades, sesgos e ineficiencias en herramientas predictivas y modelos de lenguaje (LLM).
Ana Pireira-Ríos
Analista de Investigaciones Económicas para América Latina y el Caribe del Programa de las Naciones Unidas para el Desarrollo (PNUD).



Fuente

Artículos relacionados
- Advertisment -spot_img

Lo más popular