16 Matching Annotations
  1. Jan 2025
    1. three essential recommendations for building equality from scratch when designing e-procurement systems: civic participation, automation of reparation rules, and the constant improvement of the e-procurement platforms:

      En Colombia, las comunidades indígenas, afrodescendientes y campesinas enfrentan barreras estructurales que limitan su acceso a la participación económica y política, agravadas por la desigualdad en la distribución de recursos tecnológicos.

      La implementación de sistemas de contratación pública automatizados (e-procurement) en Colombia podría:

      Promover la participación activa de mujeres, personas con discapacidades y grupos étnicos en la lista de proveedores.

      Compensar desigualdades históricas al aplicar reglas de reparación que prioricen a las comunidades marginalizadas en la asignación de contratos.

      Por ejemplo, podrían diseñarse mecanismos para priorizar la contratación de mujeres rurales y pequeñas cooperativas lideradas por minorías en sectores como la agricultura o la tecnología.

      Colombia tiene una rica diversidad lingüística con lenguas indígenas, criollas y el español. Para que la Inteligencia Artificial sea verdaderamente inclusiva, es crucial desarrollar datasets localizados y traducir contenidos a lenguas como el wayuunaiki, emberá o nasa yuwe.

      Garantizar que las comunidades no hispanohablantes puedan participar en procesos de contratación pública.

      Reducir el sesgo en la Inteligencia Artificial al incorporar datos lingüísticos y culturales diversos en el entrenamiento de algoritmos.

      Tal como se observa en iniciativas como la plataforma Common Voice en África, Colombia podría promover proyectos similares para recopilar y digitalizar lenguas locales, fortaleciendo la inclusión en sistemas automatizados de gobernanza.

      Inspirándose en el enfoque presentado, Colombia puede utilizar Inteligencia Artificial y e-procurement para mejorar los procesos de contratación pública con énfasis en equidad e inclusión:

      1. Participación cívica

      Crear plataformas abiertas donde las comunidades puedan participar activamente en el diseño y mejora de los sistemas.

      Incluir mecanismos de retroalimentación para que las decisiones sean transparentes y respondan a las necesidades locales.

      1. Reglas de reparación automatizadas:

      Implementar medidas temporales que prioricen a mujeres, minorías étnicas y personas con discapacidad en los procesos de contratación.

      Diseñar incentivos económicos para cooperativas lideradas por mujeres y comunidades indígenas, promoviendo la redistribución equitativa de recursos públicos.

      1. Mejora constante de los sistemas:

      Garantizar que las plataformas sean de código abierto para permitir auditorías y mejoras colaborativas.

      Documentar públicamente los cambios realizados en los sistemas, asegurando que respondan a las demandas ciudadanas.

      Principios feministas en la tecnología gubernamental

      Adoptar un enfoque feminista en la implementación de tecnologías emergentes en Colombia puede:

      Promover la igualdad de género al incorporar principios de equidad desde el diseño de Inteligencia Artificial.

      Aumentar la transparencia diseñar sistemas que prioricen los derechos humanos y eviten prácticas discriminatorias.

      Fortalecer la gobernanza democrática al integrar la perspectiva de género en las políticas públicas de contratación.

      Por ejemplo, los sistemas de contratación pública podrían evaluar automáticamente la representación de género entre los proveedores, asegurando una distribución justa de oportunidades.

    1. Imagine you are deaf and blind

      Imagínate vivir en condición de discapacidad visual y auditiva, dependiendo exclusivamente de otras personas para lograr una traducción del mundo que te rodea.

      Tu percepción está moldeada por la información que otros eligen compartir contigo y cómo la interpretan. Esta traducción no es neutral; está impregnada de sesgos, prioridades, y limitaciones.

      Los algoritmos de Inteligencia Artificial, actúan como traductores de datos a decisiones y también presentan sesgos. Pero, ¿qué sucede cuando esas traducciones fallan o privilegian ciertas perspectivas sobre otras?

      Los algoritmos, en su esencia, son cuerpos digitales que interpretan, procesan y deciden. Sin embargo, estos cuerpos no existen en el vacío. Son creados por humanos, influenciados por sus propias experiencias, limitaciones, y sesgos. En este sentido, la Inteligencia Artificial no solo traduce datos, sino también las prioridades y omisiones de quienes la diseñan.

      El sesgo algorítmico es un reflejo directo de cómo ciertos cuerpos son sistemáticamente silenciados o malinterpretados en los datos. Por ejemplo, los sistemas de reconocimiento facial han mostrado tasas significativamente más altas de error al identificar rostros de personas negras o mujeres, lo que deriva en daños irreversibles como acusaciones falsas o vigilancia excesiva. Estos errores no son solo técnicos; son éticos, porque los cuerpos afectados no solo son datos mal clasificados, sino personas que cargan con las consecuencias.

      Las decisiones de diseño, como qué categorías incluir o qué diferencias ignorar, traducen las vidas de las personas en formatos legibles para una máquina, pero a menudo lo hacen de forma reductiva. Por ejemplo, nombres o características culturales pueden ser transformados o eliminados debido a limitaciones en la estructura del sistema. Estas decisiones, aunque aparentemente técnicas, tienen implicaciones en la forma en que los cuerpos son reconocidos o desestimados en los espacios sociales y legales.

      La traducción sirve como intermediación no sólo lingüística sino como transformara de problemas complejos del mundo real en un modelo simplificado que una máquina pueda procesar. Sin embargo, esta traducción no es neutral ni universal. Es un proceso moldeado por el lenguaje, el contexto cultural, y las prioridades del equipo de desarrollo.

      Al igual que en la traducción entre idiomas, traducir problemas sociales en modelos de Inteligencia Artificial implica decisiones sobre qué preservar, qué transformar, y qué descartar. Un equipo de desarrollo que no comprende las complejidades culturales del contexto que está modelando puede introducir sesgos significativos.

      En muchas ocasiones, los sistemas de Inteligencia Artificial traducen las identidades humanas en categorías discretas, ignorando las complejas intersecciones de raza, género, clase y otras variables. Por ejemplo, una Inteligencia Artificial diseñada para ser justa con mujeres o con personas negras podría ignorar las experiencias específicas de las mujeres negras, perpetuando la exclusión de aquellos en las intersecciones de estas categorías.

      Los algoritmos tienen un impacto físico y tangible en los cuerpos humanos. Desde negaciones de crédito hasta vigilancia injusta, estos sistemas afectan de manera desproporcionada a los grupos marginados.

      La diversidad en los equipos de desarrollo debe ir más allá de una métrica. Es esencial incluir las voces y experiencias de aquellos más afectados por los sistemas algorítmicos.

      Las decisiones de diseño deben basarse en un profundo entendimiento cultural y social. Esto implica consultar a expertos locales y a las comunidades afectadas para garantizar que la Inteligencia Artificial refleje sus realidades, en lugar de distorsionarlas.

      Las instituciones que implementan IA deben abrir sus sistemas a auditorías públicas, permitiendo que las comunidades afectadas cuestionen y revisen los algoritmos que moldean sus vidas.

      Ninguna Inteligencia Artificial es neutral ni perfecta. Las empresas deben ser transparentes sobre las limitaciones de sus modelos y educar a los usuarios en la identificación y mitigación de sesgos.

    1. Additional Ethical Considerations

      Las corporalidades deben ser el centro en la creación de la Inteligencia Artificial, ya que los sistemas impactan directamente a las personas. Es crucial incluir las voces de poblaciones vulnerables, quienes suelen ser ignoradas en los procesos de diseño. Esto implica entender las expectativas de justicia y equidad de los diversos grupos sociales y cómo estas varían según factores como el estatus socioeconómico, la experiencia tecnológica y el nivel de impacto directo que puedan experimentar.

      La traducción con Inteligencia Artificial no solo implica convertir datos en decisiones, sino hacerlo de manera comprensible para todos. La interpretación va más allá de la simple explicación técnica, buscando que cualquier ciudadano pueda entender cómo opera un sistema y confiar en sus resultados. Este proceso de traducción también debe integrar valores éticos como la privacidad y la equidad, equilibrando estas metas para evitar comprometer una en favor de la otra.

      Las Inteligencias Artificiales no funcionan aisladas; interactúan con los humanos que las usan y son afectadas por ellos. Esto es evidente en escenarios como la revisión de libertad condicional, donde las decisiones finales las toman jueces basándose en las predicciones de la Inteligencia Artificial. La interacción entre sesgos humanos y algorítmicos puede amplificar injusticias si no se diseña cuidadosamente todo el sistema. Por ello, la colaboración entre humanos y máquinas debe ser auditada y diseñada para reducir los sesgos, no perpetuarlos.

    2. Classification Rebalancing Ranking Sampling

      Las corporalidades son esenciales en la Inteligencia Artificial, ya que los datos utilizados reflejan las experiencias vividas de las personas. Sin embargo, estas experiencias están mediadas por atributos protegidos como género, raza o condición de discapacidad, los cuales a menudo están ausentes o mal representados en los sistemas algorítmicos. Esto limita la capacidad de los algoritmos para abordar inequidades estructurales. Por ejemplo, si un proceso de selección de personal omite mujeres en etapas iniciales, el sistema no podrá generar una representación justa más adelante.

      Traducir conceptos como equidad o no discriminación en métricas procesables es un desafío. Los algoritmos deben manejar definiciones de justicia, pero no siempre pueden satisfacerlas simultáneamente. Esto requiere soluciones que minimicen las injusticias en distintos contextos. Además, los sistemas actuales comienzan a abordar problemas como la ausencia de atributos protegidos en los datos, utilizando técnicas que implican trabajar de forma implícita con la información demográfica.

      La Inteligencia Artificial no es monolítica; es un conjunto de algoritmos interconectados que toman decisiones en varias etapas. El sesgo puede introducirse en cualquier punto, desde la preselección de datos hasta la etapa final de decisión. Por ejemplo, en procesos como la búsqueda web o la contratación, los sesgos en etapas iniciales limitan la capacidad de los algoritmos posteriores para producir resultados diversos y justos. Por ello, es crucial considerar la equidad en todas las partes del sistema, no solo en su resultado final.

    1. Addressing problems of traditional data collection

      Superar las limitaciones de los métodos tradicionales de recopilación de datos mediante enfoques inclusivos y feministas incluye la consideración de cuerpos diversos, la sensibilidad cultural y lingüística en la traducción de datos, y el uso de Inteligencia Artificial para identificar y corregir sesgos inherentes.

      Corporalidades y sesgos en la recopilación de datos

      Los métodos tradicionales tienden a homogeneizar las experiencias corporales, ignorando diferencias relacionadas con género, identidad no binaria, edad, condición de discapacidad, o situación socioeconómica. Esto invisibiliza las realidades de las mujeres y otros grupos marginados.

      Los datos recopilados a nivel de hogar ignoran desigualdades dentro del mismo, lo que perpetúa la invisibilización de corporalidades y experiencias individuales. Por ejemplo, las contribuciones económicas de mujeres y niñas suelen ser subestimadas o ignoradas.

      Las corporalidades en situaciones de vulnerabilidad extrema, como mujeres refugiadas, personas trans y no binarias, enfrentan mayores riesgos de ser omitidas. Estas exclusiones limitan la capacidad de crear políticas que respondan a sus necesidades.

      Traducción como mediadora inclusiva

      El diseño de preguntas en las encuestas refleja sesgos culturales y de género, lo que perpetúa desigualdades. Por ejemplo, las preguntas que asumen roles tradicionales, como identificar a una mujer como “ama de casa” sin considerar su trabajo remunerado, invisibilizan sus contribuciones económicas. Traducir estos términos con sensibilidad feminista puede ayudar a visibilizar estas realidades.

      La traducción debe permitir incorporar categorías de género inclusivas, como “no binario” o “otra”, asegurando que los datos reflejen corporalidades no normativas y realidades locales.

      Inteligencia artificial como herramienta inclusiva

      La Inteligencia Artificial puede identificar y mitigar sesgos en el diseño de encuestas y en la recopilación de datos al analizar patrones de exclusión. Por ejemplo, puede destacar cómo ciertas preguntas excluyen a las mujeres trans o no binarias al imponer categorías binarias de género.

      Los algoritmos pueden descomponer datos por variables interseccionales, como género, edad, ingresos y etnicidad, para revelar desigualdades invisibles en los métodos tradicionales. Esto incluye medir desigualdades dentro de los hogares y entre grupos marginados.

      La Inteligencia Artificial puede utilizar fuentes de datos no tradicionales, como redes sociales o sensores, para captar experiencias de corporalidades excluidas en contextos conflictivos o difíciles de alcanzar con métodos estándar.

    1. feminist AI should

      Las tecnologías de Inteligencia Artificial están mediada por las estructuras de poder que moldean qué datos se recopilan, cómo se interpretan y qué usos se les da. Esto es especialmente evidente en las brechas de datos de género, donde las experiencias y necesidades de ciertos cuerpos, particularmente los de mujeres, personas no binarias y otras corporalidades marginalizadas, son omitidas, invisibilizadas o mal representadas.

      Los ecosistemas diversos y el rol de los actores sociales consiste en que la producción de datos es un proceso profundamente social, influido por las decisiones de múltiples agendas del Norte Global. Para abordar las brechas de género en los datos, es esencial reconocer este ecosistema diverso (gobiernos, empresas tecnológicas, organizaciones de la sociedad civil, activistas y comunidades de base).

      Las corporalidades invisibilizadas en los datos pueden emerger a través de esfuerzos colaborativos entre sociedad civil y ministerios gubernamentales. Por ejemplo, iniciativas donde organizaciones feministas trabajan con gobiernos para construir políticas de datos con perspectiva de género.

      Estas colaboraciones no solo reducen las brechas de datos, sino que también desvirtúan estructuras de poder tradicionales al movilizar a las comunidades hacia el cambio.

      Las dinámicas de coerción interna y externa en la transformación tecnológica.

      Para construir una Inteligencia Artificial feminista, es necesario emplear estrategias que combinen herramientas internas (cambios dentro de las instituciones) y externas (presión desde movimientos sociales).

      Las estrategias internas incluyen la integración de equipos interdisciplinarios que combinen conocimientos técnicos y teóricos, como data scientists, activistas y académicas feministas, para diseñar sistemas que reflejen la diversidad de experiencias corporales.

      Las estrategias externas implican la presión de movimientos feministas para exigir transparencia y responsabilidad a las grandes empresas tecnológicas y gobiernos, promoviendo cambios en las políticas y normativas que rigen la tecnología.

      Investigación sobre ejemplos exitosos (“bright spots”): Para avanzar hacia una Inteligencia Artificial más inclusiva, es vital identificar casos donde actuantes feministas hayan logrado cerrar brechas de género o implementar sistemas tecnológicos más equitativos. Por ejemplo, proyectos que han utilizado datos de género para visibilizar el trabajo de cuidado no remunerado o reducir las desigualdades en salud materna pueden servir como modelos para futuras iniciativas.

      Estas experiencias también resaltan el papel de las comunidades locales en traducir las necesidades corporales específicas en soluciones tecnológicas efectivas y contextualizadas.

      la investigación interdisciplinaria y colaborativa podría abrir las brechas en los datos de género y el diseño de una IA feminista con enfoques que integren disciplinas que tradicionalmente no dialogan entre sí.

      La traducción de corporalidades a datos digitales puede ser abordada por equipos que combinen desarrolladores tecnológicos, expertas en teoría de género y organizadoras comunitarias, generando sistemas que reflejen tanto las dinámicas sociales como los contextos técnicos.

      Este enfoque también fomenta sistemas de Inteligencia Artificial que sean culturalmente sensibles y diseñados para promover equidad.

      La construcción de plataformas y prácticas feministas de Inteligencia Artificial requiere plataformas políticas y prácticas informales que incluyan múltiples niveles de acción, desde cambios individuales hasta transformaciones sistémicas.

      A nivel individual, esto incluye sensibilización sobre cómo las tecnologías reproducen desigualdades de género y su impacto en los cuerpos marginalizados.

      A nivel sistémico, implica movilizar políticas que aseguren la representatividad y la inclusión en la gobernanza de la tecnología, así como fomentar prácticas que desmantelen las jerarquías opresivas incrustadas en los sistemas algorítmicos.

      Utilizar herramientas interdisciplinarias, movilizar a diversos actuantes sociales y articular estrategias internas y externas que impulsen el cambio. De este modo, la Inteligencia Artificial feminista no sólo traduce las experiencias humanas a datos, sino que lo hace desde un lugar de justicia social, visibilizando y empoderando a las corporalidades históricamente excluidas.

    1. “Feminist principles can be a handy framework to understand and transform the impact of AI systems. Key principles include reflexivity, participation, intersectionality, and working towards structural change.”

      Las corporalidades, la traducción y la Inteligencia Artificial desde una posibilidad feminista puede articularse en torno a la idea de cómo las tecnologías emergentes interactúan con los cuerpos y las experiencias humanas, particularmente aquellas de grupos marginalizados, y cómo la traducción de esos datos corporales a sistemas digitales puede ser transformada para subvertir estructuras de poder.

      Las tecnodiversidades y en especial la Inteligencia Artificial, tiene el poder de traducir las experiencias humanas en datos cuantificables. No obstante, esta traducción está mediada por estructuras de poder que asignan mayor valor a ciertas corporalidades y vivencias mientras invisibilizan otras.

      La forma en que los datos relacionados con la salud o el trabajo de las mujeres suelen quedar subrepresentados o malinterpretados en los sistemas de Inteligencia Artificial debido a sesgos en las fuentes de datos desde las agendas del Norte Global.

      Estos sesgos son reflejo de desigualdades estructurales arraigadas en el patriarcado, el racismo y el capitalismo.

      Desde una posibilidad feminista, es importante aplicar principios como la reflexividad, la participación y la interseccionalidad al proceso de traducción de corporalidades a sistemas digitales.

      La reflexividad cuestiona cómo las relaciones de poder moldean tanto los datos recolectados como las decisiones tomadas durante el diseño de Inteligencia Artificial. Esto invita a pensar en cómo el diseño técnico puede reconocer y rediseñar las jerarquías sociales que privilegian ciertas experiencias corporales sobre otras.

      La participación asegura que las corporalidades más afectadas por los sistemas de Inteligencia Artificial tengan voz en su diseño y gobernanza. En el ámbito de la salud, esto podría significar incluir a pacientes, trabajadoras comunitarias y activistas en el diseño de sistemas de diagnóstico que reflejen sus experiencias vividas. Esta traducción participativa de las necesidades humanas a sistemas digitales puede mejorar la adopción de tecnodiversidades, y redistribuir el poder hacia las comunidades.

      La interseccionalidad destaca cómo las experiencias corporales son multidimensionales, determinadas por factores como género, raza, clase y condición de discapacidad.

      Si bien las tecnologías de Inteligencia Artificial tienden a homogeneizar y simplificar estas diferencias, la interseccionalidad exige diseñar sistemas que reconozcan y respeten estas complejidades. A modo de ejemplo, los sistemas que clasifiquen imágenes corporales deben evitar perpetuar estándares corporales eurocéntricos o normas de género binarias, asegurando que los datos reflejen la diversidad de experiencias humanas.

      Cuando la Inteligencia Artificial se apropia desde principios feministas, se convierte en una herramienta para cuestionar y reconfigurar la traducción de cuerpos humanos a sistemas algorítmicos. Esto implica resistir los usos autoritarios de la Inteligencia Artificial como la vigilancia y la exclusión y crear sistemas alternativos que desafíen la desigualdad y promuevan una práctica tecnológica inclusiva y transformadora. Por ejemplo, proyectos que buscan erradicar el discurso de odio en línea pueden considerarse feministas en tanto protegen a grupos históricamente marginados, aunque no aborden explícitamente la violencia de género.

      Incorporar principios feministas en la Inteligencia Artificial significa diseñar tecnodiversidades que no solo traduzcan datos corporales con precisión, sino que también reconozcan y valoren las relaciones sociales que los producen. A través de sistemas inclusivos, participativos y reflexivos, se puede trabajar hacia una tecnología que desafíe las estructuras de dominación, promoviendo corporalidades libres, dignas y diversas.

    1. AI as a Software

      Las corporalidades, la traducción y la inteligencia artificial son creados para interpretar y operar, amplifican y perpetúan los sesgos sociales que definen tanto la representación como la interacción de los cuerpos en el ámbito tecnológico. Se entretejen las nociones de traducción como la adaptación o interpretación de las corporalidades humanas al lenguaje de los datos, y la ética de la Inteligencia Artificial, en la que se abordan los sesgos en la sociedad.

      La traducción con Inteligencia Artificial “traduce” las corporalidades humanas a datos estructurados mediante procesos de entrenamiento que dependen de patrones en los datasets. Sin embargo, esta traducción es imperfecta y limitada.

      Las corporalidades humanas, con sus matices de diversidad cultural, étnica, de género y funcionalidad, son codificadas en un espacio de datos reducido, lo que deja fuera muchas experiencias humanas.

      La Inteligencia Artificial no sólo traduce, sino que también amplifica los sesgos presentes en los datos. Un sistema entrenado con imágenes que asocian género con profesiones perpetuará estos estereotipos, traduciéndolos como “verdades” tecnológicas.

      La Inteligencia Artificial, al comportarse como un software “inteligente”, plantea desafíos únicos que afectan cómo las corporalidades son representadas, a diferencia de un software tradicional, los resultados de la Inteligencia Artificial cambian con el tiempo y el contexto, lo que dificulta crear métricas fijas para medir su sesgo. Esto afecta directamente cómo los cuerpos son clasificados o reconocidos.

      En lugar de reconocer la fluidez de las identidades humanas, los sistemas de Inteligencia Artificial suelen fijar a las corporalidades en etiquetas binarias (“hombre” o “mujer”), dejando fuera identidades LGBTQ+.

      La comprensión y mitigación de sesgos en la Inteligencia Artificial requiere un enfoque interdisciplinario que reconozca las complejidades sociales y culturales de las corporalidades.

      Las ciencias sociales pueden aportar conceptos de sesgo y equidad que guíen la creación de métricas en la Inteligencia Artificial. Redefinir cómo los sistemas interpretan y categorizan las corporalidades más allá de los parámetros normativos.

      La introducción de herramientas como REVISE y datasets como el Pilot Parliament Benchmark marcan un paso hacia la evaluación de sesgos, pero aún no abordan la diversidad completa de las corporalidades.

      La Inteligencia Artificial puede entenderse como una traducción cultural que convierte dinámicas humanas en procesos computacionales, la traducción de las corporalidades al ámbito de la Inteligencia Artificial no es neutral, ya que refleja los valores y prejuicios de quienes crean los sistemas y los datasets. Este proceso requiere una revisión ética que considere cómo las decisiones de diseño afectan a las poblaciones marginalizadas.

      Resolver estos desafíos exige la colaboración entre disciplinas (ciencias sociales, legales, matemáticas, etc.) y geografías como las cartografías, reconociendo que las corporalidades humanas son interpretadas de maneras distintas según el contexto cultural.

      La interacción entre la Inteligencia Artificial y las corporalidades tiene consecuencias profundas que van más allá de los sesgos técnicos, si los sesgos en la Inteligencia Artificial no se mitigan, las tecnodiversidades podrían institucionalizar discriminaciones sociales, afectando cómo ciertos cuerpos son vistos, valorados o incluso controlados.

      En un mundo donde la Inteligencia Artificial tiene un impacto cada vez mayor, es esencial que todos los sectores de la sociedad trabajen juntos para garantizar que las tecnologías no perpetúen ni amplifiquen las desigualdades existentes.

    2. we shall see how AI algorithms, when trained on these datasets, pick up these biases and amplify them, leading to biased AI systems.

      La Inteligencia Artificial y las corporalidades no solo tiene implicaciones técnicas, sino que también expone dinámicas culturales y sociales que determinan cómo los cuerpos son interpretados y clasificados.

      El predominio de rostros blancos en datasets como Rostros Etiquetados en la Naturaleza (LFW por su sigla en inglés) crea modelos que reconocen con precisión a personas blancas, pero fallan al identificar a personas de otras razas. Esto marginaliza a cuerpos no blancos, reduciendo su visibilidad tecnológica y reproduciendo jerarquías raciales.

      La tendencia de los modelos a asociar características específicas con ciertos grupos (como mujeres en la cocina u hombres en el garaje) refleja cómo las corporalidades son codificadas de manera sesgada en los datos y amplificadas por la Inteligencia Artificial.

      El proceso de entrenamiento de la Inteligencia Artificial puede considerarse una forma de traducción algorítmica, donde las corporalidades son reducidas a patrones y etiquetas.

      Los modelos tienden a generalizar patrones, lo que significa que las corporalidades que no se ajustan a los estándares dominantes (por ejemplo, caras racializadas o cuerpos fuera de las normas hegemónicas) son malinterpretadas o invisibilizadas.

      Durante el entrenamiento, los modelos reciben “recompensas” por predecir correctamente según el dataset. Si el dataset es sesgado, las predicciones correctas refuerzan esas generalizaciones erróneas, consolidando una visión limitada y parcial de las corporalidades.

      El uso de métricas como la precisión para evaluar modelos sesgados resalta una desconexión entre la eficiencia técnica y la justicia social, un modelo que alcanza un 85% de precisión al reconocer rostros blancos en un dataset dominado por estas imágenes no es verdaderamente eficiente; simplemente está optimizado para perpetuar el sesgo del dataset.

      La creación de datasets verdaderamente diversos y la reformulación de cómo los modelos interactúan con las corporalidades son pasos esenciales para evitar la amplificación de sesgos.

      Un dataset diverso no solo debe incluir representaciones equilibradas de diferentes razas y géneros, sino también considerar otras dimensiones de la identidad, como la edad, si tiene alguna condición de discapacidad y los culturemas.

      La Inteligencia Artificial debe integrar mecanismos que detecten y mitiguen sesgos inherentes, evitando la reproducción de inequidades.

      Incorporar perspectivas interseccionales permite a la Inteligencia Artificial considerar cómo múltiples formas de identidad se cruzan y afectan la representación de las corporalidades.

    3. Deep learning models require huge amounts of data for training

      Las corporalidades, la traducción y la Inteligencia Artificial se encuentra en el análisis de cómo los datos utilizados para entrenar modelos de aprendizaje profundo reproducen y amplifican las construcciones sociales y culturales relacionadas con los cuerpos humanos.

      Los datasets visuales como ImageNet o OpenImages, usados para entrenar modelos de visión por computadora, refuerzan nociones específicas de las corporalidades.

      La mayoría de las imágenes están sesgadas hacia cuerpos blancos, lo que genera problemas de reconocimiento en cuerpos racializados. Los sistemas de reconocimiento facial identifican incorrectamente rostros negros cinco veces más que blancos, lo que evidencia una invisibilización sistémica de las corporalidades no occidentales.

      Las imágenes etiquetadas tienden a asociar ciertos objetos o contextos con corporalidades específicas. Los cosméticos o las flores están sobrerrepresentados con mujeres, mientras que herramientas e instrumentos suelen estar vinculados con hombres. Esto reproduce constructos culturales que refuerzan la pasividad femenina y la agencia masculina.

      La traducción, como intermediación cultural, es fundamental en la creación de datasets. Sin embargo, este proceso está mediado por quienes etiquetan los datos.

      La mayoría de los etiquetadores (Amazon Mechanical Turk) provienen de países occidentales, lo que lleva a una interpretación culturalmente limitada de las imágenes. Esto impacta cómo se codifican corporalidades de otras culturas, generando traducciones parciales o erróneas.

      La falta de diversidad en los datasets traduce las experiencias corporales en un marco único, al homogeneizar las diferencias culturales, raciales y de género. Esto no solo afecta la precisión técnica de la traducción, sino que también tiene consecuencias éticas y sociales.

      La Inteligencia Artificial traduce las corporalidades en patrones que pueden perpetuar desigualdades como en el caso de las imágenes etiquetadas, las mujeres son frecuentemente observadoras pasivas, mientras que los hombres interactúan con objetos o son asociados con roles de liderazgo. Esto reproduce construcciones culturales que vinculan el poder con la masculinidad.

      Los intentos de capturar la diversidad en datasets como Pilot Parliament Benchmark o Fair Face son limitados porque intentan traducir muchas experiencias corporales a un marco normativo preexistente.

      Incluir comunidades subrepresentadas en el diseño, etiquetado y curación de los datos.

      Adoptar herramientas para detectar y corregir sesgos en las etiquetas, asegurando que las corporalidades no sean traducidas desde marcos reductivos.

      Incorporar múltiples dimensiones de identidad (género, raza, clase, etc.) para evitar simplificaciones excesivas.

      La relación entre las corporalidades, la IA y la traducción no solo implica reconocer los sesgos inherentes a los datos, sino también repensar cómo las tecnologías representan y traducen las experiencias humanas.

    4. The Origin of Bias: Our Society

      Las Redes Neuronales Artificiales (ANNs por su sigla en inglés) y su entrenamiento en datos provenientes de internet refleja cómo las corporalidades, la traducción y la inteligencia artificial se entrelazan. Esta intersección permite explorar cómo los sesgos sociales presentes en la sociedad son perpetuados y amplificados en las tecnodiversidades.

      Las corporalidades, entendidas como la representación de cuerpos y sus atributos asociados (género, raza, clase, etc.), tienen distorsiones significativas cuando se integran en la Inteligencia Artificial entrenados en datos sesgados.

      Las búsquedas de imágenes para “CEO” o “soldado” versus “enfermera” o “maestra” refuerzan narrativas limitadas sobre quiénes ocupan determinados roles en la sociedad.

      Las Redes Neuronales Artificiales (ANNs por su sigla en inglés) no sólo reproducen, sino que expanden la invisibilidad o la hipervisibilidad de ciertos cuerpos, como mujeres reducidas a estereotipos de sexualidad y familia, o personas racializadas asociadas a profesiones de bajo estatus. Esto crea un “ecosistema algorítmico” que define qué cuerpos son considerados valiosos o normativos en función de los datos disponibles.

      La traducción, bien sea literal, técnica, especializada o metafórica, juega un papel clave en cómo la Inteligencia Artificial procesan el lenguaje y las imágenes.

      La prevalencia de términos como “bello” o “romántico” para mujeres y “ofensivo” o “diplomático” para hombres en análisis basados en Wikipedia ilustra cómo las construcciones culturales de género se filtran en sistemas de Procesamiento del Lenguaje Natural (NLP por su sigla en inglés).

      Tecnodiversidades de reconocimiento de imágenes etiquetan a hombres como “hombres de negocios” y a mujeres con términos relacionados con características físicas (“sonrisa”, “peinado”), evidenciando un filtro cultural que traduce cuerpos femeninos en bases de datos terminológicas relacionadas con la apariencia y cuerpos masculinos en en bases de datos terminológicas relacionadas con el poder.

      Las Inteligencias Artificiales al ser entrenadas con datos masivos provenientes de fuentes como Reddit, Wikipedia y Google, inevitablemente reflejan los prejuicios sociales de origen.

      Los textos generados por GPT-2, los patrones de lenguaje recogidos de Reddit, como la asociación de mujeres con la prostitución y hombres con posiciones de poder, refuerzan un ciclo de perpetuación de sesgos, donde los estereotipos sociales se convierten en reglas operativas dentro de los sistemas.

      Etiquetado de imágenes, los sesgos de género y raza en los conjuntos de datos visuales llevan a etiquetados que marginan a ciertas identidades y privilegian otras, al reproducir jerarquías sociales en los sistemas de IA.

      La masificación de estos sesgos tiene implicaciones críticas para las corporalidades. Si el sesgo en los datos ya marginaliza ciertas identidades, la integración de estos sesgos en sistemas que toman decisiones, como asistentes virtuales, sistemas de reconocimiento facial y plataformas de contratación, amplifica estas exclusiones.

      Las desigualdades algorítmicas por la forma en que la Inteligencia Artificial aprende, refuerza no solo estereotipos individuales, sino sistemas de poder más amplios, donde ciertos cuerpos (blancos, masculinos, etc.) tienen mayores probabilidades de ser asociados con profesionalismo, éxito y capacidad de liderazgo.

      Para interrumpir estos ciclos de sesgo y redefinir el rol de las corporalidades en la Inteligencia Artificial, es crucial adoptar un enfoque transformador.

      Los conjuntos de datos deben ser diseñados deliberadamente para incluir la diversidad de cuerpos, culturas y experiencias humanas, al evitar la reproducción de sesgos sistémicos.

      Incorporar Inteligencia Artificial feminista y crítica que analice cómo las categorías sociales interactúan en la creación de desigualdades.

      Evaluar los tecnodiversidades en todas las etapas, desde la selección de datos hasta su despliegue, para identificar y corregir sesgos antes de que se amplifiquen.

      Reconocer que los datos y la tecnología no son neutrales, sino productos sociales, y promover un diseño ético que valore la equidad y la justicia.

      La Inteligencia Artificial tiene el potencial de ser una herramienta emancipadora si se diseñan sistemas que respeten y celebren la diversidad de las corporalidades humanas. Al abordar los sesgos en los datos y los algoritmos, se podrían construir tecnologías que no solo reflejen el mundo tal como es, sino que muestren y materialicen un futuro más justo, inclusivo y equitativo.

    5. Why is AI biased?

      Las corporalidades, traducción e Inteligencia Artificial sus sesgos y su propagación en las tecnodiversidades revela cómo estos procesos son inseparables de las estructuras sociales que les dan origen.

      Las representaciones corporales, la intermediación lingüística y los algoritmos interactúan para reproducir o desafiar desigualdades.

      La Inteligencia Artificial, como los redes neuronales profundas (DNNs por su sigla en inglés), reflejan las estructuras sociales porque su entrenamiento depende de datos generados en contextos históricamente sesgados.

      Los datos utilizados para entrenar sistemas de visión computacional reproducen la representación desigual de las corporalidades. Esto ocurre cuando términos como “enfermera” producen mayoritariamente imágenes de mujeres, mientras que “CEO” genera imágenes de hombres. Estas representaciones no son neutrales; perpetúan narrativas que asignan roles específicos a cuerpos según género, raza o clase.

      Grupos marginalizados (personas trans, no binarias o en condición de discapacidad) suelen quedar fuera de los conjuntos de datos, lo que los hace prácticamente inexistentes en las tecnodiversidades. Esto crea una brecha de representación y un ciclo de exclusión en un contexto digital.

      El vínculo entre traducción e Inteligencia Artificial pone en evidencia cómo las tecnodiversidades lingüísticas integran y amplifican sesgos de género, raza y clase.

      Cuando se traducen textos de idiomas sin marcadores de género como el turco al inglés, los algoritmos asignan géneros basados en sesgos estadísticos. Por ejemplo, “él es ingeniero” frente a “ella es enfermera”. Este proceso refuerza roles sociales tradicionales y limita las posibilidades de imaginar corporalidades fuera de esos moldes.

      Las traducciones tienden a priorizar lenguajes dominantes, al relegar las lenguas indígenas y locales, lo que invisibiliza culturas y corporalidades. Esto perpetúa un sistema global jerárquico donde ciertos cuerpos y lenguajes son más “validados” que otros.

      La metáfora del “niño recién nacido” aplicado a una red neuronal resalta cómo los sesgos en los datos impactan el comportamiento de la Inteligencia Artificial.

      Las Inteligencias Artificiales que reconocen rostros, suelen tener tasas de error más altas con personas racializadas debido a conjuntos de datos predominantemente blancos. Esto refuerza una noción algorítmica de corporalidades normativas, donde los cuerpos fuera de ese estándar son tratados como “otros”.

      Cada etapa del desarrollo de la Inteligencia Artificial, desde la recopilación de datos hasta el despliegue, permite la acumulación de prejuicios, reproduciendo estructuras de poder. Esta acumulación se traduce en decisiones algorítmicas que afectan directamente la vida de las personas, desde la contratación laboral hasta la vigilancia policial.

      Es necesario recopilar y usar datos que reflejen la diversidad humana en todas sus dimensiones (género, raza, orientación sexual, capacidad, etc.), al reconocer y visibilizar las corporalidades marginadas.

      Incorporar la Inteligencia Artificial feminista y crítica desde la selección de datos hasta la validación de modelos que sirvan en el Sur Global.

      Crear mecanismos transparentes para auditar los sistemas de Inteligencia Artificial, al identificar y corregir sesgos antes de que estos se amplifiquen en el mundo real.

      Los sesgos no son inevitables, pero corregirlos requiere un cambio radical en cómo diseñamos y pensamos estas tecnodiversidades. Reconocer el impacto en los cuerpos reales y su capacidad para amplificar desigualdades es el primer paso hacia la transformación. Al situar las corporalidades en el centro del diseño, podemos construir sistemas que no solo reflejen, sino que desafíen las estructuras opresivas, avanzando hacia un futuro más equitativo y justo.

    1. In 2017 a group of researchers found that two prominent research-image collections, including one supported by Microsoft and Facebook, display a predictable gender bias in their depiction of activities such as cooking and sports. For example, images of shopping and washing are linked to women, while coaching and shooting are linked to men. Similarly, kitchen objects such as spoons and forks are strongly associated with women, while outdoor sporting equipment such as snowboards and tennis rackets are strongly associated with men.

      Frente a este tema, Kraft-Buchman (2021) afirma que "en 2017, un grupo de investigadores descubrió que dos importantes colecciones de imágenes de investigación, incluida una respaldada por Microsoft y Facebook, muestran un sesgo de género predecible en su representación de actividades como cocinar y deportes. Por ejemplo, las imágenes de compras y lavado están vinculadas a las mujeres, mientras que las de entrenamiento y tiro están vinculadas a los hombres. De manera similar, los objetos de cocina, como cucharas y tenedores, están fuertemente asociados con las mujeres, mientras que el equipo deportivo para exteriores, como tablas de snowboard y raquetas de tenis, están fuertemente asociados con los hombres" (párr. 16).

    2. women and girls can and do serve as a proxy

      Las mujeres y las niñas funcionan como símbolos o proxies de grupos históricamente invisibilizados y marginados por los sistemas sociales, lo que tiene una relación directa con el concepto de corporalidades.

      Las corporalidades hacen referencia a las maneras en que son construidos, percibidos y tratados socialmente. Este enfoque explica sobre cómo los cuerpos, particularmente aquellos que son racializados, feminizados o clasificados por categorías de género, clase y otras identidades interseccionales, experimentan las desigualdades estructurales de manera material y simbólica.

      La Inteligencia Artificial feminista, se entrelaza con la interseccionalidad para abordar sistemas de opresión interdependientes. Implica directamente las corporalidades porque estas categorías de opresión no existen en abstracto, sino que están encarnadas: los cuerpos de mujeres, personas racializadas o de clases marginadas son el terreno donde se manifiestan estas discriminaciones.

      Es en estos cuerpos donde se cruza el peso de los sistemas de exclusión, como el patriarcado, el racismo o el clasismo.

      El acceso desigual a la tecnología, los sesgos en los sistemas de reconocimiento facial o los algoritmos que reproducen estereotipos son evidencias de cómo las corporalidades son mediadas y discriminadas a través de estas categorías sociales.

      Al plantear que el feminismo y la interseccionalidad son inseparables, se reafirma la necesidad de comprender que las discriminaciones no son simplemente abstractas, sino vividas, percibidas y sufridas por cuerpos específicos.

      En este sentido, cualquier esfuerzo hacia una Inteligencia Artificial feminista no solo debería desafiar los sistemas de discriminación, sino también ser profundamente consciente de cómo sus prácticas afectan las corporalidades concretas, considerando sus múltiples capas de significado e intersección.

    3. Machine learning

      Los cuerpos de mujeres, niñas y otros grupos marginalizados son borrados o distorsionados dentro de los sistemas de aprendizaje automático (machine learning).

      Estos sistemas reproducen y amplifican desigualdades al hacer explícita, a través del código, la invisibilidad y los sesgos presentes en los datos de origen.

      La corporalidad es fundamental porque los sesgos en los datos no solo afectan a las identidades, sino que tienen consecuencias concretas en las vidas corporales y materiales de las personas, tales como:

      La ausencia de datos sobre cuerpos femeninos en estudios médicos y algoritmos puede llevar a diagnósticos imprecisos o tratamientos menos efectivos.

      Los sesgos en sistemas de vigilancia o justicia criminal pueden reforzar estereotipos raciales y de género, poniendo en mayor riesgo a los cuerpos ya vulnerabilizados.

      Las decisiones algorítmicas que excluyen o marginan refuerzan la idea de que ciertos cuerpos son menos importantes o incluso inexistentes, al perpetuar dinámicas excluyentes.

      Cuando estas dinámicas se codifican en sistemas de inteligencia artificial, los estereotipos y normas patriarcales, raciales y de clase que ya afectan a los cuerpos en el mundo analógico se transforman en reglas explícitas que refuerzan estas jerarquías.

      La corporalidad podría ser el terreno donde estas desigualdades se viven de manera tangible: desde quién es vigilado y criminalizado hasta quién es ignorado en los espacios laborales o en las decisiones de políticas públicas.

      La “Patriarquía 2.0” radica en su capacidad de solidificar desigualdades de manera más eficiente y difícil de desmantelar.

      Las relaciones entre género, raza y clase ya no serían solo normas sociales implícitas, sino códigos que regulan y automatizan exclusiones, al afectar directamente cómo los cuerpos se posicionan y sobreviven en el mundo.

      Sería importante repensar la creación de datos, asegurando que incluyan las experiencias y necesidades de cuerpos históricamente marginados para evitar que el futuro tecnológico perpetúe desigualdades del pasado.

    1. AI systems reflect those biases which can influence who gets access to finance, services or opportunities, and risk amplifying social inequalities related to gender, ethnicity, income level in ways we may not be able to change in the future.

      Los sesgos que se perciben de manera intrínseca en la IA de acuerdo a las necesidades de sus creadores, influencia en la decisión de aquellos usuarios para manipular la información teniendo un impacto en la desigualdad social (género, etnia, capacidad económica)