- Jan 2025
-
feministai.pubpub.org feministai.pubpub.org
-
three essential recommendations for building equality from scratch when designing e-procurement systems: civic participation, automation of reparation rules, and the constant improvement of the e-procurement platforms:
En Colombia, las comunidades indígenas, afrodescendientes y campesinas enfrentan barreras estructurales que limitan su acceso a la participación económica y política, agravadas por la desigualdad en la distribución de recursos tecnológicos.
La implementación de sistemas de contratación pública automatizados (e-procurement) en Colombia podría:
Promover la participación activa de mujeres, personas con discapacidades y grupos étnicos en la lista de proveedores.
Compensar desigualdades históricas al aplicar reglas de reparación que prioricen a las comunidades marginalizadas en la asignación de contratos.
Por ejemplo, podrían diseñarse mecanismos para priorizar la contratación de mujeres rurales y pequeñas cooperativas lideradas por minorías en sectores como la agricultura o la tecnología.
Colombia tiene una rica diversidad lingüística con lenguas indígenas, criollas y el español. Para que la Inteligencia Artificial sea verdaderamente inclusiva, es crucial desarrollar datasets localizados y traducir contenidos a lenguas como el wayuunaiki, emberá o nasa yuwe.
Garantizar que las comunidades no hispanohablantes puedan participar en procesos de contratación pública.
Reducir el sesgo en la Inteligencia Artificial al incorporar datos lingüísticos y culturales diversos en el entrenamiento de algoritmos.
Tal como se observa en iniciativas como la plataforma Common Voice en África, Colombia podría promover proyectos similares para recopilar y digitalizar lenguas locales, fortaleciendo la inclusión en sistemas automatizados de gobernanza.
Inspirándose en el enfoque presentado, Colombia puede utilizar Inteligencia Artificial y e-procurement para mejorar los procesos de contratación pública con énfasis en equidad e inclusión:
- Participación cívica
Crear plataformas abiertas donde las comunidades puedan participar activamente en el diseño y mejora de los sistemas.
Incluir mecanismos de retroalimentación para que las decisiones sean transparentes y respondan a las necesidades locales.
- Reglas de reparación automatizadas:
Implementar medidas temporales que prioricen a mujeres, minorías étnicas y personas con discapacidad en los procesos de contratación.
Diseñar incentivos económicos para cooperativas lideradas por mujeres y comunidades indígenas, promoviendo la redistribución equitativa de recursos públicos.
- Mejora constante de los sistemas:
Garantizar que las plataformas sean de código abierto para permitir auditorías y mejoras colaborativas.
Documentar públicamente los cambios realizados en los sistemas, asegurando que respondan a las demandas ciudadanas.
Principios feministas en la tecnología gubernamental
Adoptar un enfoque feminista en la implementación de tecnologías emergentes en Colombia puede:
Promover la igualdad de género al incorporar principios de equidad desde el diseño de Inteligencia Artificial.
Aumentar la transparencia diseñar sistemas que prioricen los derechos humanos y eviten prácticas discriminatorias.
Fortalecer la gobernanza democrática al integrar la perspectiva de género en las políticas públicas de contratación.
Por ejemplo, los sistemas de contratación pública podrían evaluar automáticamente la representación de género entre los proveedores, asegurando una distribución justa de oportunidades.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Imagine you are deaf and blind
Imagínate vivir en condición de discapacidad visual y auditiva, dependiendo exclusivamente de otras personas para lograr una traducción del mundo que te rodea.
Tu percepción está moldeada por la información que otros eligen compartir contigo y cómo la interpretan. Esta traducción no es neutral; está impregnada de sesgos, prioridades, y limitaciones.
Los algoritmos de Inteligencia Artificial, actúan como traductores de datos a decisiones y también presentan sesgos. Pero, ¿qué sucede cuando esas traducciones fallan o privilegian ciertas perspectivas sobre otras?
Los algoritmos, en su esencia, son cuerpos digitales que interpretan, procesan y deciden. Sin embargo, estos cuerpos no existen en el vacío. Son creados por humanos, influenciados por sus propias experiencias, limitaciones, y sesgos. En este sentido, la Inteligencia Artificial no solo traduce datos, sino también las prioridades y omisiones de quienes la diseñan.
El sesgo algorítmico es un reflejo directo de cómo ciertos cuerpos son sistemáticamente silenciados o malinterpretados en los datos. Por ejemplo, los sistemas de reconocimiento facial han mostrado tasas significativamente más altas de error al identificar rostros de personas negras o mujeres, lo que deriva en daños irreversibles como acusaciones falsas o vigilancia excesiva. Estos errores no son solo técnicos; son éticos, porque los cuerpos afectados no solo son datos mal clasificados, sino personas que cargan con las consecuencias.
Las decisiones de diseño, como qué categorías incluir o qué diferencias ignorar, traducen las vidas de las personas en formatos legibles para una máquina, pero a menudo lo hacen de forma reductiva. Por ejemplo, nombres o características culturales pueden ser transformados o eliminados debido a limitaciones en la estructura del sistema. Estas decisiones, aunque aparentemente técnicas, tienen implicaciones en la forma en que los cuerpos son reconocidos o desestimados en los espacios sociales y legales.
La traducción sirve como intermediación no sólo lingüística sino como transformara de problemas complejos del mundo real en un modelo simplificado que una máquina pueda procesar. Sin embargo, esta traducción no es neutral ni universal. Es un proceso moldeado por el lenguaje, el contexto cultural, y las prioridades del equipo de desarrollo.
Al igual que en la traducción entre idiomas, traducir problemas sociales en modelos de Inteligencia Artificial implica decisiones sobre qué preservar, qué transformar, y qué descartar. Un equipo de desarrollo que no comprende las complejidades culturales del contexto que está modelando puede introducir sesgos significativos.
En muchas ocasiones, los sistemas de Inteligencia Artificial traducen las identidades humanas en categorías discretas, ignorando las complejas intersecciones de raza, género, clase y otras variables. Por ejemplo, una Inteligencia Artificial diseñada para ser justa con mujeres o con personas negras podría ignorar las experiencias específicas de las mujeres negras, perpetuando la exclusión de aquellos en las intersecciones de estas categorías.
Los algoritmos tienen un impacto físico y tangible en los cuerpos humanos. Desde negaciones de crédito hasta vigilancia injusta, estos sistemas afectan de manera desproporcionada a los grupos marginados.
La diversidad en los equipos de desarrollo debe ir más allá de una métrica. Es esencial incluir las voces y experiencias de aquellos más afectados por los sistemas algorítmicos.
Las decisiones de diseño deben basarse en un profundo entendimiento cultural y social. Esto implica consultar a expertos locales y a las comunidades afectadas para garantizar que la Inteligencia Artificial refleje sus realidades, en lugar de distorsionarlas.
Las instituciones que implementan IA deben abrir sus sistemas a auditorías públicas, permitiendo que las comunidades afectadas cuestionen y revisen los algoritmos que moldean sus vidas.
Ninguna Inteligencia Artificial es neutral ni perfecta. Las empresas deben ser transparentes sobre las limitaciones de sus modelos y educar a los usuarios en la identificación y mitigación de sesgos.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Groups Fairness vs Individual Fairness
Las métricas de equidad en inteligencia artificial consiste en equilibrar las necesidades y derechos de los individuos con los de los grupos a los que pertenecen. En esta interacción, los cuerpos, como sujetos de políticas, datos y decisiones, son tanto el objeto de la equidad como el espacio donde se manifiestan sus fallas. Al mismo tiempo, traducir valores éticos en métricas matemáticas resalta los límites y riesgos de confiar únicamente en lo cuantitativo para resolver problemas profundamente humanos.
Muchas métricas de equidad, como paridad demográfica o igualdad de oportunidades, priorizan problemas entre grupos tales como género o raza. No obstante, esta priorización puede generar nuevas desigualdades dentro de esos mismos grupos. Por ejemplo:
Buscar igualdad en las tasas de aceptación entre grupos, sin necesariamente garantizar que los individuos más cualificados sean seleccionados. Esto puede incluir a personas menos capacitadas en un esfuerzo por equilibrar resultados entre géneros o razas.
Dar prioridad a contratar a los individuos más cualificados, independientemente del grupo, lo que puede excluir a grupos marginados.
Estas desigualdades generan costos. La primera puede aumentar la percepción de injusticia entre individuos del mismo grupo (un postulante cualificado rechazado mientras uno menos cualificado es aceptado). La segunda perpetúa desigualdades estructurales al priorizar una lógica de mérito que no considera las barreras históricas. Esta tensión refleja una realidad ineludible: no existe una solución técnica capaz de satisfacer simultáneamente todas las demandas de equidad.
La interseccionalidad complica aún más estas dinámicas. Un algoritmo que parece justo en términos de género (hombres/mujeres) o raza (blancos/negros), puede ser injusto para subgrupos en las intersecciones de estas categorías, como mujeres afro, indígenas, etc. Estas identidades no son meras combinaciones de atributos; son experiencias vividas que reflejan múltiples niveles de opresión y privilegio.
En un sistema de contratación, la representación equitativa de hombres y mujeres puede ocultar la exclusión sistemática de mujeres racializadas o indígenas. Esto subraya cómo la traducción de conceptos éticos en métricas matemáticas puede pasar por alto la complejidad de las experiencias humanas.
En el diseño de la Inteligencia Artificial, la traducción no solo implica convertir datos en modelos, sino también transcribir principios éticos en reglas operativas. Esta traducción puede ser empoderadora o dañina para los cuerpos que impacta.
Empoderadora en el sentido en que una Inteligencia Artificial que integra principios éticos mediante enfoques participativos y contextualizados puede visibilizar y mitigar desigualdades estructurales.
Dañina en el sentido en que si las decisiones se limitan a métricas aisladas, como maximizar precisión, las Inteligencias Artificiales pueden reforzar jerarquías preexistentes, ignorando los cuerpos marginados que quedan fuera de su diseño.
Priorizar lo mensurable sobre lo significativo en el sentido en que los cuerpos afectados por estas decisiones recuerdan que, detrás de cada dato, hay vidas humanas con historias complejas.
Para lograr una ética corporal en la Inteligencia Artificial y para abordar estas tensiones, sería clave una ética que reconozca tanto los cuerpos como los cuerpos que usan ensamblajes para programar a la Inteligencia Artificial:
Las métricas de equidad deben diseñarse de manera participativa, integrando las experiencias de los cuerpos afectados. Esto requiere un enfoque interdisciplinario que combine ética, ciencias sociales e ingeniería.
La equidad debería ser un proceso continuo, lo que incluye auditorías regulares para identificar y mitigar sesgos que surgen en datos y modelos.
Las métricas deben ir más allá de categorías rígidas y considerar las intersecciones complejas que definen las experiencias humanas.
Replantear el objetivo técnico de los modelos, priorizando minimizar daños sobre maximizar precisión. Esto quiere decir que lo ideal sería reorientar la eficiencia hacia resultados que reflejen valores humanos.
-
What is fairness?
Los cuerpos, la traducción y la Inteligencia Artificial vistos desde una posibilidad ética en la equidad revela tensiones profundas entre lo cuantificable y lo ético, especialmente cuando consideramos cómo la Inteligencia Artificial impacta los cuerpos. En el centro de estas tensiones yace un desafío, traducir conceptos éticos complejos, como la equidad, en métricas operativas que puedan implementarse en modelos matemáticos. Sin embargo, esta traducción no es neutral ni perfecta, es un acto cargado de decisiones políticas, éticas y culturales que afectan directamente a las corporalidades.
Primero que todo, el cuerpo en el centro del problema refleja que los cuerpos son los sujetos finales de las decisiones algorítmicas. Por ejemplo, en el caso de las métricas de paridad demográfica y de igualdad de oportunidades, los cuerpos se convierten en estadísticas como los números de aceptación o rechazo y probabilidades calculadas. Esto despersonaliza a los individuos y reduce sus complejas experiencias a puntos de datos que se integran en sistemas automatizados.
Además, el impacto sobre los cuerpos marginados no puede desvincularse de sus contextos culturales y sociales. Por ejemplo, la paridad demográfica puede corregir desigualdades numéricas, pero si la Inteligencia Artificial perpetúa estereotipos o malinterpreta características culturales en sus métricas de similitud, los cuerpos aún enfrentan injusticias.
segundo, la traducción vista desde las posibilidades éticas hasta la matemática implica que la traducción de conceptos éticos en modelos matemáticos, como los índices de entropía generalizada o las métricas de equidad grupal, enfrenta una paradoja fundamental ya que la ética es intrínsecamente contextual y fluida, mientras que las matemáticas buscan exactitud, consistencia y universalidad. Esto da lugar a dilemas como el teorema de imposibilidad, donde no es posible satisfacer simultáneamente múltiples métricas de equidad.
Este proceso de traducción puede ocultar o amplificar sesgos, dependiendo de cómo se define y mide la similitud entre individuos. Por ejemplo, al intentar medir similitud entre postulantes a un empleo, ¿cómo se traduce la experiencia laboral de una mujer en un contexto cultural donde históricamente se han excluido sus contribuciones? Traducir esta experiencia en un valor numérico puede distorsionar las realidades de los cuerpos que pretende representar.
Tercero, la Inteligencia Artificial como cuerpo traductor indica que no solo traduce datos, sino también cuerpos y experiencias, reduciéndolos a representaciones que interactúan con sistemas automatizados. Por lo tanto, la Inteligencia Artificial actúa como un “cuerpo traductor” que interpreta y reconfigura las relaciones de poder existentes. Un ejemplo es la dificultad de aplicar métricas de equidad grupal en contextos donde las desigualdades históricas han creado disparidades profundas en las oportunidades educativas y económicas.
Por último, el problema surge cuando la Inteligencia Artificial perpetúa, en lugar de mitigar, estas desigualdades. Por ejemplo, si una métrica de igualdad de oportunidades selecciona predominantemente a individuos del grupo mayoritario debido a sus mayores tasas de calificación previa, las dinámicas de poder se refuerzan, y los cuerpos del grupo minoritario quedan relegados.
Para lograr unas posibilidades éticas dentro de las cartografías de tecnodiversidades es necesario que:
Las métricas de equidad deben reevaluarse constantemente en función de los contextos sociales, políticos y culturales en los que se aplican. Esto implica un enfoque repetitivo y dinámico en la toma de decisiones algorítmicas.
Los cuerpos no pueden reducirse a datos estadísticos. Es necesario desarrollar métodos participativos que integren las experiencias vividas de los afectados por las decisiones algorítmicas en el diseño y evaluación de la Inteligencia Artificial.
En lugar de intentar traducir la ética directamente a matemática, podemos fomentar una interacción entre disciplinas, incluyendo la filosofía, las ciencias sociales y la ingeniería, para que la traducción sea más inclusiva y representativa.
Las métricas de similitud deben ser auditadas desde perspectivas interdisciplinarias para garantizar que no perpetúen sesgos ni deshumanicen a los sujetos.
-
-
feministai.pubpub.org feministai.pubpub.org
-
What are our values as a society? And which policies and regulations do we need in order to live up to them? What can we regulate, and in which ways can and should we regulate it?
La regulación debe centrarse en proteger y representar a las corporalidades humanas en toda su diversidad. Esto implica diseñar políticas que aborden las necesidades y derechos de las personas afectadas por la Inteligencia Artificial. Para lograrlo, es crucial que los responsables de políticas comprendan las implicaciones tecnológicas y que los tecnólogos integren valores sociales y éticos en sus diseños. Por ejemplo, aunque se desaconseje el uso de características protegidas en predicciones de la Inteligencia Artificial, la recopilación de estos datos podría ser esencial para auditar impactos demográficos y garantizar que no se perpetúen inequidades.
La traducción, como puente necesario entre disciplinas, abarca desde la tecnología hasta las políticas públicas. Se requiere un lenguaje común que permita a tecnólogos, legisladores y comunidades colaborar para crear soluciones responsables que sean aplicables en contextos específicos. Este proceso de traducción debe ser dinámico y reflexivo, adaptándose al impacto continuo de la tecnología en las personas.
La Inteligencia Artificial y las sociedades son dinámicas, lo que implica que no basta con diseñar una tecnología y desplegarla. Es necesario un proceso de auditoría continua que evalúe cómo los sistemas afectan a las corporalidades y modifican los datos y comportamientos sociales con el tiempo. Esto subraya la necesidad de reguladores confiables y terceros independientes que garanticen que las tecnologías sigan siendo justas y responsables a medida que evolucionan.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Bias in the data and algorithms
En el contexto de la recolección de datos inclusivos, se puede analizar desde tres perspectivas como puente para comprender realidades diversas, y el uso ético de la Inteligencia Artificial para promover la inclusión.
Corporalidades y sesgos en los datos y algoritmos
Las metodologías de recolección de datos tradicionales han invisibilizado a muchas corporalidades, como los cuerpos de mujeres embarazadas, personas trans y no binarias. Por ejemplo, el diseño de cinturones de seguridad que ignora diferencias corporales aumenta el riesgo de lesiones graves para mujeres. La Inteligencia Artificial, si se basa en datos sesgados, amplifica estas desigualdades, perpetuando narrativas dominadas por parámetros masculinos y blancos.
Los sistemas de clasificación basados en el binario hombre/mujer deben ser replanteados. Incorporar categorías inclusivas en los algoritmos y diseños de recolección de datos es crucial para capturar experiencias interseccionales relacionadas con género, etnia, discapacidad y otras identidades.
Traducción como herramienta de inclusión
Traducir no solo significa adaptar el lenguaje, sino también interpretar las realidades vividas por diferentes corporalidades en contextos sociales y culturales específicos. Por ejemplo, las respuestas de mujeres en redes sociales pueden estar condicionadas por el miedo a amenazas digitales, lo que requiere traducir estas limitaciones en análisis más sensibles.
La traducción de los riesgos y beneficios de la recolección de datos a las comunidades involucradas es esencial para garantizar un consentimiento informado. Esto es especialmente relevante para grupos vulnerables que pueden no comprender completamente cómo se utilizarán sus datos.
Inteligencia Artificial como aliada para la inclusión y la ética
La Inteligencia Artificial puede combinar datos tradicionales y no tradicionales para ofrecer información y corregir desigualdades. Sin embargo, el diseño de algoritmos debe incluir parámetros que reflejen normas sociales y realidades políticas, considerando los desafíos específicos de las mujeres y niñas.
La intersección de big data y la Inteligencia Artificial plantea desafíos éticos en términos de privacidad. Las tecnologías deben garantizar la anonimización de datos y prevenir su mal uso para dañar a comunidades vulnerables. Iniciativas como las directrices del UNDG enfatizan la necesidad de marcos normativos que protejan la privacidad y promuevan el consentimiento informado.
Para lograr una verdadera transformación, los gobiernos y organizaciones deben invertir en personal técnico capacitado y promover colaboraciones público-privadas que aprovechen el big data para el bien común. Esto incluye proyectos de recopilación de datos enfocados en feminismos interseccionales y en visibilizar a las corporalidades históricamente excluidas.
-
Collecting the right data with methods that ensure the right disaggregation is an important first step, but to create a more inclusive data system, these data must also be analyzed and interpreted using appropriate and efficient methods.
Corporalidades y fuentes de datos no tradicionales
Las fuentes no tradicionales, como registros administrativos y datos generados por la ciudadanía, pueden proporcionar información más granular sobre las corporalidades. Esto incluye indicadores relacionados con salud, género, y desigualdades espaciales o demográficas, como se observó en el caso de Nepal, donde datos geoetiquetados revelaron variaciones espaciales de desigualdades de género.
Incorporar datos de poblaciones marginadas, como personas trans, no binarias o mujeres en comunidades rurales, puede visibilizar experiencias y desigualdades que los métodos tradicionales ignoran. Por ejemplo, análisis de violencia sexual en El Salvador demuestran cómo el análisis de registros administrativos puede desglosar patrones que afectan a grupos específicos.
Traducción de datos y la alteración de dinámicas de poder
La recopilación de datos generados por la ciudadanía permite reflejar mejor las realidades vividas por distintas corporalidades, particularmente en regiones o contextos donde los métodos tradicionales no capturan su complejidad. Por ejemplo, la traducción de experiencias reportadas a través de encuestas SMS debe respetar las diferencias culturales y lingüísticas de los encuestados.
Al permitir que las comunidades participen directamente en la generación de datos, como en el proyecto de Ghana para reportar resultados en salud materno-infantil, se altera la dinámica de poder en la recopilación de datos. Este enfoque feminista reconoce las experiencias vividas y las traduce en evidencia cuantificable.
IA como herramienta para la equidad de datos
La Inteligencia Artificial puede detectar patrones en fuentes de datos no tradicionales, como redes sociales, imágenes satelitales y registros móviles. Estos patrones pueden revelar desigualdades relacionadas con género, ubicación o acceso a servicios, permitiendo intervenciones informadas.
Las tecnologías de Inteligencia Artificial permiten analizar múltiples capas de desigualdad simultáneamente. Por ejemplo, combinando datos satelitales, móviles y encuestas demográficas, se pueden mapear variaciones interseccionales como la brecha de alfabetización por género y región.
La Inteligencia Artificial puede crear datos sintéticos para suplir vacíos en áreas donde las corporalidades y sus experiencias no están representadas, siempre con atención ética para evitar reforzar sesgos.
Desafíos éticos y metodológicos
La recopilación de datos mediante métodos no tradicionales y herramientas de Inteligencia Artificial plantea preocupaciones sobre la privacidad, especialmente para las corporalidades en situaciones vulnerables.
La interpretación y traducción de datos implica que el análisis automatizado puede no captar matices culturales (culturemas) o de género si no se diseñan algoritmos sensibles e inclusivos.
Muchos gobiernos y comunidades carecen de los recursos técnicos y financieros necesarios para implementar sistemas avanzados de análisis de datos, limitando su capacidad para traducir datos en políticas inclusivas.
Un enfoque transformador para la recopilación de datos
Usar fuentes no tradicionales para incluir experiencias invisibilizadas, como mujeres en zonas rurales o personas no binarias.
Garantizar que los datos recojan las perspectivas locales con sensibilidad cultural y lingüística.
Diseñar algoritmos que no solo procesen datos, sino que también prioricen la equidad y representen realidades interseccionales.
Implementar regulaciones claras para proteger la privacidad y asegurar que las tecnologías beneficien a las poblaciones marginadas.
-
Addressing problems of traditional data collection
Superar las limitaciones de los métodos tradicionales de recopilación de datos mediante enfoques inclusivos y feministas incluye la consideración de cuerpos diversos, la sensibilidad cultural y lingüística en la traducción de datos, y el uso de Inteligencia Artificial para identificar y corregir sesgos inherentes.
Corporalidades y sesgos en la recopilación de datos
Los métodos tradicionales tienden a homogeneizar las experiencias corporales, ignorando diferencias relacionadas con género, identidad no binaria, edad, condición de discapacidad, o situación socioeconómica. Esto invisibiliza las realidades de las mujeres y otros grupos marginados.
Los datos recopilados a nivel de hogar ignoran desigualdades dentro del mismo, lo que perpetúa la invisibilización de corporalidades y experiencias individuales. Por ejemplo, las contribuciones económicas de mujeres y niñas suelen ser subestimadas o ignoradas.
Las corporalidades en situaciones de vulnerabilidad extrema, como mujeres refugiadas, personas trans y no binarias, enfrentan mayores riesgos de ser omitidas. Estas exclusiones limitan la capacidad de crear políticas que respondan a sus necesidades.
Traducción como mediadora inclusiva
El diseño de preguntas en las encuestas refleja sesgos culturales y de género, lo que perpetúa desigualdades. Por ejemplo, las preguntas que asumen roles tradicionales, como identificar a una mujer como “ama de casa” sin considerar su trabajo remunerado, invisibilizan sus contribuciones económicas. Traducir estos términos con sensibilidad feminista puede ayudar a visibilizar estas realidades.
La traducción debe permitir incorporar categorías de género inclusivas, como “no binario” o “otra”, asegurando que los datos reflejen corporalidades no normativas y realidades locales.
Inteligencia artificial como herramienta inclusiva
La Inteligencia Artificial puede identificar y mitigar sesgos en el diseño de encuestas y en la recopilación de datos al analizar patrones de exclusión. Por ejemplo, puede destacar cómo ciertas preguntas excluyen a las mujeres trans o no binarias al imponer categorías binarias de género.
Los algoritmos pueden descomponer datos por variables interseccionales, como género, edad, ingresos y etnicidad, para revelar desigualdades invisibles en los métodos tradicionales. Esto incluye medir desigualdades dentro de los hogares y entre grupos marginados.
La Inteligencia Artificial puede utilizar fuentes de datos no tradicionales, como redes sociales o sensores, para captar experiencias de corporalidades excluidas en contextos conflictivos o difíciles de alcanzar con métodos estándar.
-
Bias exists in current data collection practices, leaving women and girls invisible in the data.
Los sesgos en la recopilación de datos y la invisibilización de mujeres y niñas puede relacionarse profundamente con corporalidades, traducción e Inteligencia Artificial.
Corporalidades y recopilación de datos
La invisibilidad de corporalidades diversas en los métodos tradicionales de recopilación de datos tienden a generalizar los cuerpos de las mujeres y niñas, omitiendo diferencias significativas como raza, etnicidad, identidad de género, condición de discapacidad o edad. Un enfoque feminista desvirtuaría estos datos para representar estas corporalidades y sus experiencias específicas.
Los sesgos en tecnologías biométricas y sensores en la Inteligencia Artificial analizan datos corporales, como reconocimiento facial o monitoreo de salud, a menudo fallan en captar la diversidad de cuerpos femeninos o marginados, reforzando estereotipos y exclusión.
Traducción como puente inclusivo
El lenguaje inclusivo en la recopilación de datos, al traducir encuestas, análisis o resultados, se corre el riesgo de eliminar términos culturalmente específicos como los culturemas que reflejan la diversidad de corporalidades y experiencias. Por ejemplo, conceptos relacionados con género o identidad corporal en un idioma pueden no tener equivalentes exactos en otro, lo que invisibiliza problemáticas clave.
La interpretación del significado en la traducción de datos requiere una sensibilidad cultural y feminista que respete las diferencias lingüísticas y semánticas de cómo las corporalidades y el género son comprendidos en distintos contextos. Sin esta sensibilidad, la traducción puede reforzar las inequidades en lugar de corregirlas.
Inteligencia Artificial (IA) y recopilación feminista de datos
Las oportunidades en la Inteligencia Artificial tiene un enorme potencial para analizar grandes volúmenes de datos de manera desagregada, identificar patrones de exclusión y ampliar el uso de fuentes no tradicionales (como redes sociales, sensores, y datos de dispositivos móviles). Esto podría visibilizar experiencias de mujeres y niñas que antes eran ignoradas.
Los riesgos de sesgos algorítmicos sucederían si los algoritmos de Inteligencia Artificial son entrenados con datos históricos sesgados, replicarán esas inequidades. Esto incluye subrepresentar corporalidades no normativas o ignorar contextos culturales específicos al interpretar datos traducidos.
El diseño interseccional sirve para superar estas limitaciones, los algoritmos deben diseñarse con principios feministas que incluyan parámetros explícitos para identificar y corregir sesgos relacionados con género y corporalidades diversas.
- Preguntas críticas para la recopilación inclusiva de datos
Las preguntas pueden adaptarse para incluir corporalidades, traducción e IA:
• ¿Quién define qué corporalidades son relevantes y cómo se representan en los datos? • ¿Quién traduce y cómo garantiza que las voces de las mujeres y niñas sean fielmente representadas? • ¿Cómo asegura la IA que los datos desagregados reflejen experiencias interseccionales y no perpetúen exclusión? • ¿Quién decide qué fuentes de datos se utilizan y con qué criterios éticos?
Hacia una Inteligencia Artificial inclusiva
Una Inteligencia Artificial de recopilación de datos verdaderamente inclusiva debe:
1. Diseñar encuestas y procesos de recopilación que reconozcan la diversidad de corporalidades y vivencias. 2. Incorporar traducciones que respeten el contexto cultural y lingüístico, permitiendo que los datos capturen las realidades de mujeres y niñas en distintos entornos. 3. Utilizar IA para integrar fuentes de datos no tradicionales, asegurando que los modelos sean revisados constantemente para mitigar sesgos algorítmicos. 4. Basarse en principios feministas que guíen cada etapa del proceso, desde la definición del problema hasta el uso de los datos.
Tags
- Inteligencia Artificial-inclusión
- Inteligencia Artificial-feminista
- Traducción-culturemas
- Traducción-registro de datos
- Traducción-corporalidades
- Culturemas en traducción
- Inteligencia Artificial-sesgos
- Inteligencia Artificial-cartografía
- Corporalidad-registro de datos
- Traducción-inclusión
- Corporalidades-invisibilización
- Inteligencia Artificial-registro de datos
- Corporalidad-sesgo
Annotators
URL
-
-
feministai.pubpub.org feministai.pubpub.org
-
The seven principles of data feminism are as follows:
El feminismo de datos, tal como se describe, ofrece una oportunidad para interconectar conceptos de corporalidades, traducción e inteligencia artificial, ya que estas tres áreas se entrelazan en las dinámicas de poder, representación y conocimiento. Esto se puede apreciar en tres dimensiones:
Corporalidades y Feminismo de Datos
Elevar la emoción y la corporalidad:
Este principio resalta la importancia de reconocer a las personas como cuerpos vivos y sensibles. En el contexto de la Inteligencia Artificial, esto desafía la tendencia a despersonalizar los datos y tratar a los sujetos como abstracciones numéricas. Por ejemplo, al diseñar sistemas de reconocimiento facial, los cuerpos no normativos (como aquellos racializados o con diversidad funcional) son a menudo mal representados. Incorporar una perspectiva feminista exige cuestionar estas omisiones y visibilizar la experiencia corporal diversa.
Repensar los binarismos y las jerarquías:
El binarismo de género frecuentemente excluye corporalidades no conformes, tanto en los datos como en los algoritmos que los procesan. Esto tiene implicaciones tangibles, desde la falta de representación de personas no binarias en formularios digitales hasta los sesgos en modelos predictivos que perpetúan desigualdades. Integrar las corporalidades en la Inteligencia Artificial significa desestabilizar estas jerarquías y crear tecnologías más inclusivas.
Traducción y Feminismo de Datos
Adoptar el pluralismo:
La traducción aquí no solo se refiere a lenguas, sino a la intermediación entre perspectivas diversas, como los saberes indígenas y los sistemas de datos occidentales. Por ejemplo, la traducción de indicadores de género en datos cuantitativos puede borrar o simplificar las experiencias locales si no se contextualiza adecuadamente. Un feminismo de datos traducido con cuidado prioriza estos conocimientos y los integra en el análisis tecnológico.
Considerar el contexto:
La traducción de datos a diferentes idiomas y culturas requiere sensibilidad para no neutralizar las relaciones de poder que los generan. Por ejemplo, una Inteligencia Artificial que analiza patrones de violencia de género debe ser consciente de cómo se interpreta este fenómeno en diferentes contextos culturales, lo que implica una traducción crítica de términos y categorías.
Hacer visible el trabajo:
La traducción es una labor colectiva que a menudo queda invisibilizada en los procesos de desarrollo tecnológico. Desde los equipos de localización hasta los traductores de interfaces, el feminismo de datos puede destacar estas contribuciones como parte esencial de la ciencia de datos.
IA y Feminismo de Datos
Examinar el poder y desafiarlo:
La Inteligencia Artificial refleja las estructuras de poder subyacentes en los datos que utiliza. Por ejemplo, los algoritmos entrenados con datos sesgados perpetúan desigualdades sistémicas. Un enfoque feminista en la Inteligencia Artificial busca desmantelar estos sistemas cuestionando las fuentes de los datos, las metodologías empleadas y los objetivos finales de la tecnología.
Repensar binarismos y jerarquías:
En el diseño de la Inteligencia Artificial, los sistemas categóricos rígidos (hombre/mujer, blanco/no blanco) limitan la representación de la diversidad humana. El feminismo de datos propone un rediseño de los sistemas de clasificación, favoreciendo representaciones fluidas y menos jerárquicas que reconozcan las identidades interseccionales.
Elevar la emoción y la corporalidad:
La Inteligencia Artificial suele ignorar las dimensiones emocionales y corporales del conocimiento humano. Por ejemplo, las Inteligencias Artificiales están diseñadas para imitar respuestas humanas, pero carecen de la sensibilidad para responder adecuadamente a experiencias humanas complejas, como el dolor o el trauma. Incorporar un enfoque feminista podría llevar a tecnologías que reflejen estas realidades de manera más ética.
Adoptar el pluralismo:
La diversidad en el desarrollo de la Inteligencia Artificial, incluyendo voces marginadas y saberes locales, no solo enriquece la tecnología, sino que la hace más ética y eficaz. El feminismo de datos puede guiar estos procesos, garantizando que la Inteligencia Artificial no sea solo un reflejo de las agendas del Norte Global.
-
-
feministai.pubpub.org feministai.pubpub.org
-
strong critiques of AI from a feminist standpoint
Las corporalidades y feminismos en la Inteligencia Artificial se podría ver reflejada en la invisibilidad del cuerpo en la tecnología.
La Inteligencia Artificial, frecuentemente percibida como desprovista de corporalidad aunque goza de ensamblajes ya que son organizaciones de personas las que operan sobre datos que representan cuerpos humanos en la Inteligencia Artificial. Sin embargo, las brechas de datos de género reflejan cómo ciertas corporalidades (como las de mujeres, personas racializadas o no conformes con el género) son ignoradas o mal representadas. Esto afecta directamente la producción de sistemas de IA que perpetúan desigualdades corporales y sociales.
La materialidad de los datos es la falta de datos sobre cuidados no remunerados o violencia de género que invisibiliza las experiencias corporales. Estos datos “faltantes” no solo son números, son ausencias que impactan cuerpos reales, reproduciendo desigualdades en políticas y decisiones tecnológicas.
Las estrategias normativas y la performatividad del cambio se centran en las estrategias educativas para la transformación de normas (como entrenamientos en género y diversidad) que pueden incluir perspectivas corporales para abordar las maneras en que las tecnologías moldean las experiencias físicas, desde interfaces hasta el impacto del reconocimiento facial en personas racializadas.
La traducción como herramienta feminista aplicaría a la traducción de conceptos complejos como “feminismo de datos” o “IA feminista” que requiere una mediación cultural y lingüística que haga accesibles estos temas en contextos diversos. Las herramientas normativas, como las guías educativas sobre Inteligencia Artificial, pueden ser traducidas y adaptadas para comunidades no angloparlantes, fomentando un cambio inclusivo.
Los sesgos lingüísticos en la Inteligencia Artificial se manifiestan porque los algoritmos de procesamiento de lenguaje natural incorporan sesgos culturales que pueden reforzar estereotipos de género. Por ejemplo, traductores automáticos que perpetúan roles de género (“doctor” vs. “enfermera”) necesitan intervenciones basadas en datos de género de alta calidad para minimizar estas desigualdades.
La traducción como puente disciplinar e intermediación lingüística. Dado que las estrategias para la IA feminista requieren la colaboración entre tecnólogos, activistas y teóricos, la traducción también puede entenderse como una práctica de mediación entre disciplinas, ayudando a alinear epistemologías divergentes.
La IA feminista y el potencial transformador en los datos para cuerpos diversos se puede percibir para crear y usar datos sobre experiencias corporales diversas, como el impacto del diseño de ciudades en mujeres, personas en condición de discapacidad, o personas trans, es crucial para una IA feminista que considere a todas las corporalidades.
La educación para la inclusión abarcaría las normativas que fomenten el uso de herramientas educativas, como guías sobre los riesgos de la Inteligencia Artificial, ya que son vitales para garantizar que las tecnodiversidades no reproduzcan exclusiones históricas.
El diálogo interdisciplinar de la traducción entre datos (cuantitativos y cualitativos) y las narrativas sobre género puede ser el punto de partida para superar las barreras de autoridad que limitan los cambios en la Inteligencia Artificial. Esto incluye no solo traducir términos técnicos, sino también experiencias humanas.
-
-
feministai.pubpub.org feministai.pubpub.org
-
AI as a Software
Las corporalidades, la traducción y la inteligencia artificial son creados para interpretar y operar, amplifican y perpetúan los sesgos sociales que definen tanto la representación como la interacción de los cuerpos en el ámbito tecnológico. Se entretejen las nociones de traducción como la adaptación o interpretación de las corporalidades humanas al lenguaje de los datos, y la ética de la Inteligencia Artificial, en la que se abordan los sesgos en la sociedad.
La traducción con Inteligencia Artificial “traduce” las corporalidades humanas a datos estructurados mediante procesos de entrenamiento que dependen de patrones en los datasets. Sin embargo, esta traducción es imperfecta y limitada.
Las corporalidades humanas, con sus matices de diversidad cultural, étnica, de género y funcionalidad, son codificadas en un espacio de datos reducido, lo que deja fuera muchas experiencias humanas.
La Inteligencia Artificial no sólo traduce, sino que también amplifica los sesgos presentes en los datos. Un sistema entrenado con imágenes que asocian género con profesiones perpetuará estos estereotipos, traduciéndolos como “verdades” tecnológicas.
La Inteligencia Artificial, al comportarse como un software “inteligente”, plantea desafíos únicos que afectan cómo las corporalidades son representadas, a diferencia de un software tradicional, los resultados de la Inteligencia Artificial cambian con el tiempo y el contexto, lo que dificulta crear métricas fijas para medir su sesgo. Esto afecta directamente cómo los cuerpos son clasificados o reconocidos.
En lugar de reconocer la fluidez de las identidades humanas, los sistemas de Inteligencia Artificial suelen fijar a las corporalidades en etiquetas binarias (“hombre” o “mujer”), dejando fuera identidades LGBTQ+.
La comprensión y mitigación de sesgos en la Inteligencia Artificial requiere un enfoque interdisciplinario que reconozca las complejidades sociales y culturales de las corporalidades.
Las ciencias sociales pueden aportar conceptos de sesgo y equidad que guíen la creación de métricas en la Inteligencia Artificial. Redefinir cómo los sistemas interpretan y categorizan las corporalidades más allá de los parámetros normativos.
La introducción de herramientas como REVISE y datasets como el Pilot Parliament Benchmark marcan un paso hacia la evaluación de sesgos, pero aún no abordan la diversidad completa de las corporalidades.
La Inteligencia Artificial puede entenderse como una traducción cultural que convierte dinámicas humanas en procesos computacionales, la traducción de las corporalidades al ámbito de la Inteligencia Artificial no es neutral, ya que refleja los valores y prejuicios de quienes crean los sistemas y los datasets. Este proceso requiere una revisión ética que considere cómo las decisiones de diseño afectan a las poblaciones marginalizadas.
Resolver estos desafíos exige la colaboración entre disciplinas (ciencias sociales, legales, matemáticas, etc.) y geografías como las cartografías, reconociendo que las corporalidades humanas son interpretadas de maneras distintas según el contexto cultural.
La interacción entre la Inteligencia Artificial y las corporalidades tiene consecuencias profundas que van más allá de los sesgos técnicos, si los sesgos en la Inteligencia Artificial no se mitigan, las tecnodiversidades podrían institucionalizar discriminaciones sociales, afectando cómo ciertos cuerpos son vistos, valorados o incluso controlados.
En un mundo donde la Inteligencia Artificial tiene un impacto cada vez mayor, es esencial que todos los sectores de la sociedad trabajen juntos para garantizar que las tecnologías no perpetúen ni amplifiquen las desigualdades existentes.
-
we shall see how AI algorithms, when trained on these datasets, pick up these biases and amplify them, leading to biased AI systems.
La Inteligencia Artificial y las corporalidades no solo tiene implicaciones técnicas, sino que también expone dinámicas culturales y sociales que determinan cómo los cuerpos son interpretados y clasificados.
El predominio de rostros blancos en datasets como Rostros Etiquetados en la Naturaleza (LFW por su sigla en inglés) crea modelos que reconocen con precisión a personas blancas, pero fallan al identificar a personas de otras razas. Esto marginaliza a cuerpos no blancos, reduciendo su visibilidad tecnológica y reproduciendo jerarquías raciales.
La tendencia de los modelos a asociar características específicas con ciertos grupos (como mujeres en la cocina u hombres en el garaje) refleja cómo las corporalidades son codificadas de manera sesgada en los datos y amplificadas por la Inteligencia Artificial.
El proceso de entrenamiento de la Inteligencia Artificial puede considerarse una forma de traducción algorítmica, donde las corporalidades son reducidas a patrones y etiquetas.
Los modelos tienden a generalizar patrones, lo que significa que las corporalidades que no se ajustan a los estándares dominantes (por ejemplo, caras racializadas o cuerpos fuera de las normas hegemónicas) son malinterpretadas o invisibilizadas.
Durante el entrenamiento, los modelos reciben “recompensas” por predecir correctamente según el dataset. Si el dataset es sesgado, las predicciones correctas refuerzan esas generalizaciones erróneas, consolidando una visión limitada y parcial de las corporalidades.
El uso de métricas como la precisión para evaluar modelos sesgados resalta una desconexión entre la eficiencia técnica y la justicia social, un modelo que alcanza un 85% de precisión al reconocer rostros blancos en un dataset dominado por estas imágenes no es verdaderamente eficiente; simplemente está optimizado para perpetuar el sesgo del dataset.
La creación de datasets verdaderamente diversos y la reformulación de cómo los modelos interactúan con las corporalidades son pasos esenciales para evitar la amplificación de sesgos.
Un dataset diverso no solo debe incluir representaciones equilibradas de diferentes razas y géneros, sino también considerar otras dimensiones de la identidad, como la edad, si tiene alguna condición de discapacidad y los culturemas.
La Inteligencia Artificial debe integrar mecanismos que detecten y mitiguen sesgos inherentes, evitando la reproducción de inequidades.
Incorporar perspectivas interseccionales permite a la Inteligencia Artificial considerar cómo múltiples formas de identidad se cruzan y afectan la representación de las corporalidades.
-
Deep learning models require huge amounts of data for training
Las corporalidades, la traducción y la Inteligencia Artificial se encuentra en el análisis de cómo los datos utilizados para entrenar modelos de aprendizaje profundo reproducen y amplifican las construcciones sociales y culturales relacionadas con los cuerpos humanos.
Los datasets visuales como ImageNet o OpenImages, usados para entrenar modelos de visión por computadora, refuerzan nociones específicas de las corporalidades.
La mayoría de las imágenes están sesgadas hacia cuerpos blancos, lo que genera problemas de reconocimiento en cuerpos racializados. Los sistemas de reconocimiento facial identifican incorrectamente rostros negros cinco veces más que blancos, lo que evidencia una invisibilización sistémica de las corporalidades no occidentales.
Las imágenes etiquetadas tienden a asociar ciertos objetos o contextos con corporalidades específicas. Los cosméticos o las flores están sobrerrepresentados con mujeres, mientras que herramientas e instrumentos suelen estar vinculados con hombres. Esto reproduce constructos culturales que refuerzan la pasividad femenina y la agencia masculina.
La traducción, como intermediación cultural, es fundamental en la creación de datasets. Sin embargo, este proceso está mediado por quienes etiquetan los datos.
La mayoría de los etiquetadores (Amazon Mechanical Turk) provienen de países occidentales, lo que lleva a una interpretación culturalmente limitada de las imágenes. Esto impacta cómo se codifican corporalidades de otras culturas, generando traducciones parciales o erróneas.
La falta de diversidad en los datasets traduce las experiencias corporales en un marco único, al homogeneizar las diferencias culturales, raciales y de género. Esto no solo afecta la precisión técnica de la traducción, sino que también tiene consecuencias éticas y sociales.
La Inteligencia Artificial traduce las corporalidades en patrones que pueden perpetuar desigualdades como en el caso de las imágenes etiquetadas, las mujeres son frecuentemente observadoras pasivas, mientras que los hombres interactúan con objetos o son asociados con roles de liderazgo. Esto reproduce construcciones culturales que vinculan el poder con la masculinidad.
Los intentos de capturar la diversidad en datasets como Pilot Parliament Benchmark o Fair Face son limitados porque intentan traducir muchas experiencias corporales a un marco normativo preexistente.
Incluir comunidades subrepresentadas en el diseño, etiquetado y curación de los datos.
Adoptar herramientas para detectar y corregir sesgos en las etiquetas, asegurando que las corporalidades no sean traducidas desde marcos reductivos.
Incorporar múltiples dimensiones de identidad (género, raza, clase, etc.) para evitar simplificaciones excesivas.
La relación entre las corporalidades, la IA y la traducción no solo implica reconocer los sesgos inherentes a los datos, sino también repensar cómo las tecnologías representan y traducen las experiencias humanas.
-
-
feministai.pubpub.org feministai.pubpub.org
-
women and girls can and do serve as a proxy
Las mujeres y las niñas funcionan como símbolos o proxies de grupos históricamente invisibilizados y marginados por los sistemas sociales, lo que tiene una relación directa con el concepto de corporalidades.
Las corporalidades hacen referencia a las maneras en que son construidos, percibidos y tratados socialmente. Este enfoque explica sobre cómo los cuerpos, particularmente aquellos que son racializados, feminizados o clasificados por categorías de género, clase y otras identidades interseccionales, experimentan las desigualdades estructurales de manera material y simbólica.
La Inteligencia Artificial feminista, se entrelaza con la interseccionalidad para abordar sistemas de opresión interdependientes. Implica directamente las corporalidades porque estas categorías de opresión no existen en abstracto, sino que están encarnadas: los cuerpos de mujeres, personas racializadas o de clases marginadas son el terreno donde se manifiestan estas discriminaciones.
Es en estos cuerpos donde se cruza el peso de los sistemas de exclusión, como el patriarcado, el racismo o el clasismo.
El acceso desigual a la tecnología, los sesgos en los sistemas de reconocimiento facial o los algoritmos que reproducen estereotipos son evidencias de cómo las corporalidades son mediadas y discriminadas a través de estas categorías sociales.
Al plantear que el feminismo y la interseccionalidad son inseparables, se reafirma la necesidad de comprender que las discriminaciones no son simplemente abstractas, sino vividas, percibidas y sufridas por cuerpos específicos.
En este sentido, cualquier esfuerzo hacia una Inteligencia Artificial feminista no solo debería desafiar los sistemas de discriminación, sino también ser profundamente consciente de cómo sus prácticas afectan las corporalidades concretas, considerando sus múltiples capas de significado e intersección.
-
Machine learning
Los cuerpos de mujeres, niñas y otros grupos marginalizados son borrados o distorsionados dentro de los sistemas de aprendizaje automático (machine learning).
Estos sistemas reproducen y amplifican desigualdades al hacer explícita, a través del código, la invisibilidad y los sesgos presentes en los datos de origen.
La corporalidad es fundamental porque los sesgos en los datos no solo afectan a las identidades, sino que tienen consecuencias concretas en las vidas corporales y materiales de las personas, tales como:
La ausencia de datos sobre cuerpos femeninos en estudios médicos y algoritmos puede llevar a diagnósticos imprecisos o tratamientos menos efectivos.
Los sesgos en sistemas de vigilancia o justicia criminal pueden reforzar estereotipos raciales y de género, poniendo en mayor riesgo a los cuerpos ya vulnerabilizados.
Las decisiones algorítmicas que excluyen o marginan refuerzan la idea de que ciertos cuerpos son menos importantes o incluso inexistentes, al perpetuar dinámicas excluyentes.
Cuando estas dinámicas se codifican en sistemas de inteligencia artificial, los estereotipos y normas patriarcales, raciales y de clase que ya afectan a los cuerpos en el mundo analógico se transforman en reglas explícitas que refuerzan estas jerarquías.
La corporalidad podría ser el terreno donde estas desigualdades se viven de manera tangible: desde quién es vigilado y criminalizado hasta quién es ignorado en los espacios laborales o en las decisiones de políticas públicas.
La “Patriarquía 2.0” radica en su capacidad de solidificar desigualdades de manera más eficiente y difícil de desmantelar.
Las relaciones entre género, raza y clase ya no serían solo normas sociales implícitas, sino códigos que regulan y automatizan exclusiones, al afectar directamente cómo los cuerpos se posicionan y sobreviven en el mundo.
Sería importante repensar la creación de datos, asegurando que incluyan las experiencias y necesidades de cuerpos históricamente marginados para evitar que el futuro tecnológico perpetúe desigualdades del pasado.
-
As Marshall McLuhan is famously quoted, “We shape our tools, and thereafter our tools shape us”
Nosotros le damos forma a nuestras herramientas y por ende nuestras herramientas nos dan forma a nosotros.
Kraft-Buchman, C. (2021). Chapter 1. We shape our tools, and thereafter our tools shape us. From bias to feminist Ai. A+ Alliance. Tomado de https://feministai.pubpub.org/pub/we-shape-our-tools/release/3?readingCollection=c218d365
-
“We shape our tools, and thereafter our tools shape us”
Las posibilidades críticas en las corporalidades y la traducción en tiempos de Inteligencia Artificial permite repensar cómo estas tecnodiversidades interactúan con cuerpos e identidades diversas, y cómo pueden ser transformadas en herramientas de resistencia contra las desigualdades históricas.
Los sesgos de género, racismo, estereotipos y otras formas de discriminación, profundamente incrustados en las tecnodiversidades, afectan a las corporalidades y cómo una posibilidad feminista puede abrir caminos para un cambio transformador.
Casos como la aplicación DeepNude y los bots deepfake en Telegram exponen cómo los cuerpos femeninos son desproporcionadamente vulnerables a formas de explotación y violencia digital. Estas tecnodiversidades convierten a las corporalidades en objetos de vigilancia, control y deshumanización, reforzando dinámicas de poder que han existido históricamente.
Los sistemas de autocompletado que representan a los hombres en trajes y a las mujeres en bikinis son un ejemplo claro de cómo los algoritmos perpetúan estereotipos de género. Estas representaciones no solo reflejan los sesgos sociales, sino que activamente los amplifican, definiendo cómo las corporalidades son vistas y entendidas en el espacio digital.
La Inteligencia Artificial, entrenada con datos históricos, hereda y codifica desigualdades sociales, afectando a las corporalidades en múltiples dimensiones (género, raza, orientación sexual, edad, etc.). Sin una intervención crítica, estas tecnologías corren el riesgo de cristalizar estas desigualdades en las agendas del Norte Globla para la toma de decisiones.
Los anuncios de spyware dirigidos a hombres para espiar a mujeres refuerzan la narrativa de que las corporalidades feminizadas deben ser controladas y vigiladas, lo cual perpetúa dinámicas de poder patriarcales en el ámbito digital.
Las corporalidades no son sólo receptores pasivos de las tecnodiversidades, sino también el terreno donde se materializan las desigualdades y las posibilidades de transformación. Una posibilidad crítica feminista implica entender cómo estas tecnodiversidades afectan a las personas en su materialidad y subjetividad.
El texto subraya la necesidad de movilizar equipos interdisciplinarios que incluyan perspectivas feministas, antirracistas para diseñar Inteligencias Artificiales que no solo mitiguen los sesgos, sino que avancen hacia sistemas que promuevan la equidad. Esto requiere integrar voces históricamente marginadas, especialmente de mujeres y niñas del Sur Global.
La frase “Nosotros le damos forma a nuestras herramientas y por ende, nuestras herramientas nos dan forma a nosotros” destaca la urgencia de diseñar Inteligencias Artificiales que reflejen los valores de igualdad, justicia y derechos humanos. Esto implica establecer estándares éticos y normativos para la creación de tecnologías que no perpetúen dinámicas de explotación.
Una Inteligencia Artificial feminista debe imaginar nuevas formas de interacción tecnológica que empoderen a las corporalidades históricamente marginadas. Esto incluye a la traducción con Inteligencia Artificial y generación de lenguaje que respeten y representen la diversidad de experiencias humanas, evitando la imposición de estereotipos.
-
when Google Translate converted news articles written in Spanish into English
Las posibilidades críticas de las corporalidades y la traducción en tiempos de Inteligencia Artificial devela cómo estas tecnologías perpetúan y amplifican dinámicas de poder, desigualdades estructurales y estereotipos históricos.
La IA no opera en un vacío, sino que reproduce los sesgos en las agendas que diseñan y entrenan en el Norte Global.
Las corporalidades juegan un papel crucial, pues los sistemas algorítmicos afectan directamente a cómo las personas son representadas, entendidas y tratadas en los entornos digitales.
Cuando Google Translate introduce sesgos de género en idiomas sin pronombres específicos, como el turco, o asignan estereotipos de género (“ella es cocinera”, “él es ingeniero”), están reconfigurando las representaciones de las corporalidades en una forma que refuerza estructuras de opresión.
Esto refleja cómo las tecnologías lingüísticas no son neutrales, sino que privilegian corporalidades asociadas al poder (masculino, blanco, occidental) y desvalorizan otras.
La elección de voces femeninas por defecto en Alexa, Siri y Google Home, junto con su incapacidad superior para reconocer voces femeninas, subraya cómo las tecnologías perpetúan una visión servicial y subordinada de las corporalidades femeninas.
Esto refuerza estereotipos que asocian a las mujeres con roles de cuidado y servicio, mientras priorizan y optimizan las experiencias de los hombres en la interacción con estas máquinas.
Ejemplos como el uso de autocompletados de Google para reforzar estereotipos sexistas (“las mujeres no deberían tener derechos”) son formas de violencia simbólica que afectan las corporalidades al crear entornos digitales hostiles para ciertos grupos.
Estas manifestaciones tecnológicas no solo reflejan la discriminación existente, sino que la normalizan y amplifican, impactando cómo las corporalidades son percibidas en lo social.
Los modelos de OpenAI, muestran cómo las desigualdades históricas y los estereotipos se entrelazan en las estructuras de datos, reproduciendo narrativas que deshumanizan o limitan las posibilidades de ciertos cuerpos. En este sentido, el texto generado por modelos como GPT-2 no solo refleja sesgos, sino que los materializa al influir en cómo se entienden y representan las corporalidades en el ámbito público.
Al desviar la representación de ciertas identidades hacia patrones dominantes, las tecnologías lingüísticas marginan corporalidades que no se ajustan al modelo hegemónico. En lugar de ser herramientas de inclusión, estas tecnologías refuerzan las jerarquías.
Los sesgos de género en la traducción o generación de texto no afectan a las mujeres de manera uniforme; mujeres racializadas, personas no binarias y otros cuerpos vulnerabilizados enfrentan formas más profundas de exclusión en estas tecnologías.
Las tecnologías lingüísticas deberían ser entrenadas con datos que reflejen la diversidad de las experiencias humanas y representen positivamente todas las corporalidades.
Es crucial que las agendas del Norte Global sean responsables al auditar sus modelos para identificar y corregir sesgos que afectan corporalidades específicas.
Incorporar voces diversas en el diseño y desarrollo de estas herramientas, especialmente de grupos históricamente excluidos, para garantizar que las tecnologías no perpetúen opresiones.
-
Inherent bias in hiring
El algoritmo se autoenseñó a penalizar cualquier currículum que incluyera la palabra “mujeres”, como “capitana del club de ajedrez femenino” en el texto, y degradó los currículums de mujeres que asistieron a dos “universidades para mujeres”.
Esto se debe a que los datos de entrenamiento que contienen sesgo humano o discriminación histórica crean un bucle de profecía autocumplida donde el aprendizaje automático absorbe el sesgo humano y lo replica, lo incorpora a decisiones futuras y convierte el sesgo implícito en una realidad explícita.
-
Amazon
Los sistemas algorítmicos, al ser entrenados con datos que reflejan desigualdades históricas y sesgos humanos, reproducen dinámicas opresivas y las proyectan en relación con las corporalidades.
Los cuerpos de las mujeres, específicamente aquellos identificados por marcadores de género como “women’s chess club” o la asistencia a “women’s colleges”, fueron desvalorizados en el proceso algorítmico.
Esto demuestra cómo los algoritmos no operan en un vacío abstracto, sino que tienen efectos tangibles sobre cuerpos concretos, excluyendo a mujeres de procesos laborales que moldean sus trayectorias de vida.
La decisión del algoritmo de penalizar referencias asociadas al género femenino refuerza la idea de que los cuerpos masculinos (y sus experiencias) son el estándar de valor y éxito, mientras que los cuerpos femeninos son vistos como una desviación de la norma.
Esta jerarquización de corporalidades, basada en datos históricos sesgados, solidifica desigualdades estructurales en espacios laborales.
Al absorber y amplificar los sesgos históricos, el algoritmo no solo afectó a las corporalidades que estaban representadas en los datos, sino que también condicionó qué tipos de cuerpos e identidades serían visibles, aceptables y valiosas en el futuro.
Este mecanismo tiene implicaciones profundas, pues define quién puede ocupar ciertos espacios de poder y autoridad.
Aunque el sesgo identificado fue de género, este caso subraya cómo las tecnologías algorítmicas pueden replicar múltiples formas de discriminación (de raza, clase, género, orientación sexual, discapacidad, etc.), que afectan a los cuerpos.
Las corporalidades no son homogéneas, y un sistema que discrimina en función de un aspecto frecuentemente reproduce desigualdades en otras dimensiones.
El hecho de que Amazon no pudiera corregir el sesgo a pesar de múltiples intentos indica cómo la opresión de ciertas corporalidades no es un accidente técnico, sino un reflejo de sistemas históricos de exclusión profundamente enraizados.
Los cuerpos que se quedaron fuera del proceso laboral son una evidencia de cómo la tecnología puede perpetuar desigualdades en lugar de eliminarlas.
-
COVID-19 pandemic
Los cuerpos de mujeres, niñas y otros grupos marginados del Sur Global son doblemente afectados por las dinámicas de exclusión tecnológica.
La rápida implementación de la Inteligencia Artificial en el Norte Global, agravada por las desigualdades intensificadas por la pandemia, tiene consecuencias tangibles en los cuerpos del Sur Global: desde la falta de acceso a tecnologías relevantes hasta la imposición de sistemas diseñados para contextos ajenos, que ignoran sus necesidades y realidades vividas.
La ausencia de investigación y diseño inclusivo para abordar los problemas únicos del Sur Global perpetúa una violencia estructural que se manifiesta en cuerpos precarizados: sistemas de salud que no consideran diferencias de género y etnicidad, tecnologías laborales que refuerzan inequidades de clase y género, y un acceso limitado a soluciones que podrían mejorar sus condiciones materiales.
Actuar con rapidez es vital para evitar que estas exclusiones se solidifiquen, ampliando aún más el abismo entre los cuerpos del Norte y del Sur Global.
Incorporar posibilidades críticas y éticas a las corporales feministas del Sur Global en la investigación y diseño de Inteligencia Artificial posiblemente hará las tecnologías más inclusivas, y garantizará que respondan a las realidades vividas de quienes han sido históricamente marginados, generando un futuro tecnológico más equitativo y diverso.
-
new norms
Al reconocer los cuerpos marginados y sus experiencias, podemos crear normas que los incluyan y valoren.
Esto nos permitiría diseñar sistemas tecnológicos que no perpetúen opresiones, sino que empoderen a los cuerpos excluidos, integrando sus vivencias en los datos y las decisiones futuras.
-
particular danger to women and girls of the Global South
La corporalidad (experiencia vivida a través del cuerpo), tiene una relación directa con la problemática.
Las mujeres y niñas del Sur Global, históricamente marginalizadas y excluidas de las esferas de poder y toma de decisiones, viven estas dinámicas opresivas de manera tangible en sus cuerpos.
Estas exclusiones limitan su acceso a la tecnología y a la creación de soluciones para los problemas sociales, y refuerzan desigualdades que se manifiestan físicamente en la precarización de sus vidas, en la explotación laboral y en la violencia de género.
Se acentúa al considerar las posibilidades críticas y éticas de la Inteligencia Artificial y Toma de Decisiones Algorítmica (ADM), que replican y amplifican patrones discriminatorios preexistentes.
Los algoritmos aprenden de datos históricos que reflejan desigualdades sociales, muchas de las cuales están profundamente entrelazadas con la corporalidad. Por ejemplo, sistemas de reconocimiento facial que tienen tasas de error más altas para personas racializadas o algoritmos de contratación que perpetúan sesgos de género impactan directamente en cómo los cuerpos de las mujeres y niñas del Sur Global son valorados y tratados en diferentes contextos.
La corporalidad es un punto de partida para entender cómo estas exclusiones se viven, y es una herramienta clave para imaginar resistencias y alternativas.
A través de sus cuerpos, sus experiencias y sus luchas, las mujeres y niñas pueden desafiar estas estructuras opresivas y reclamar su lugar en la construcción de un futuro tecnológico más equitativo y justo.
-
-
feministai.pubpub.org feministai.pubpub.org
-
AI systems reflect those biases which can influence who gets access to finance, services or opportunities, and risk amplifying social inequalities related to gender, ethnicity, income level in ways we may not be able to change in the future.
Los sesgos que se perciben de manera intrínseca en la IA de acuerdo a las necesidades de sus creadores, influencia en la decisión de aquellos usuarios para manipular la información teniendo un impacto en la desigualdad social (género, etnia, capacidad económica)
-
-
www.margen.org www.margen.org
-
cuerpo es un territorio donde diferentes lenguajes, distintasformas de decir, encuentran entrelazamiento y síntesis. Pero también,el territorio se hace cuerpo en los lugares de la intersubjetividad.Somos territorio, porque somos historia, presente y futuro contados,relatados, dichos, desde una perspectiva situada, no abstracta oindividual. Lo corporal entrelaza espacio y subjetividad. Así, el cuerpoes en el territorio y esa relación se construye y de construye desde losubjetivo en diálogo con lo social. El cuerpo cuenta, relata diferentesformas de encuentro, desencuentro que dialogan con otras formas deaproximación a lo social y lo cultural
Las corporalidades abarcan diferentes lenguajes, formas de decir, coincidencias y conclusiones. El territorio se hace cuerpo en la historia, presente y futuro relatados desde una mirada ubicada, pensada y no colectiva.
Tags
Annotators
URL
-