- Jan 2025
-
feministai.pubpub.org feministai.pubpub.org
-
groups are emerging
Estudio de Caso en Colombia
La digitalización de territorios en proyectos de conservación en Colombia puede tener implicaciones graves si no se respetan los derechos indígenas. Por ejemplo:
Proyectos de conservación basados en Inteligencia Artificial que clasifican áreas protegidas sin considerar que estos territorios son habitados y administrados por comunidades indígenas pueden generar conflictos y despojo.
La ausencia de perspectivas colectivas en los algoritmos de Inteligencia Artificial refuerza narrativas individualistas que no reflejan la cosmovisión indígena sobre la naturaleza como un ente vivo y compartido.
La posición ética planteada por Indigenous AI resalta la necesidad de redefinir cómo se colectivizan el conocimiento y la identidad digital, respetando los valores comunitarios y evitando procesos extractivos.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Bias exists in current data collection practices, leaving women and girls invisible in the data.
Los sesgos en la recopilación de datos y la invisibilización de mujeres y niñas puede relacionarse profundamente con corporalidades, traducción e Inteligencia Artificial.
Corporalidades y recopilación de datos
La invisibilidad de corporalidades diversas en los métodos tradicionales de recopilación de datos tienden a generalizar los cuerpos de las mujeres y niñas, omitiendo diferencias significativas como raza, etnicidad, identidad de género, condición de discapacidad o edad. Un enfoque feminista desvirtuaría estos datos para representar estas corporalidades y sus experiencias específicas.
Los sesgos en tecnologías biométricas y sensores en la Inteligencia Artificial analizan datos corporales, como reconocimiento facial o monitoreo de salud, a menudo fallan en captar la diversidad de cuerpos femeninos o marginados, reforzando estereotipos y exclusión.
Traducción como puente inclusivo
El lenguaje inclusivo en la recopilación de datos, al traducir encuestas, análisis o resultados, se corre el riesgo de eliminar términos culturalmente específicos como los culturemas que reflejan la diversidad de corporalidades y experiencias. Por ejemplo, conceptos relacionados con género o identidad corporal en un idioma pueden no tener equivalentes exactos en otro, lo que invisibiliza problemáticas clave.
La interpretación del significado en la traducción de datos requiere una sensibilidad cultural y feminista que respete las diferencias lingüísticas y semánticas de cómo las corporalidades y el género son comprendidos en distintos contextos. Sin esta sensibilidad, la traducción puede reforzar las inequidades en lugar de corregirlas.
Inteligencia Artificial (IA) y recopilación feminista de datos
Las oportunidades en la Inteligencia Artificial tiene un enorme potencial para analizar grandes volúmenes de datos de manera desagregada, identificar patrones de exclusión y ampliar el uso de fuentes no tradicionales (como redes sociales, sensores, y datos de dispositivos móviles). Esto podría visibilizar experiencias de mujeres y niñas que antes eran ignoradas.
Los riesgos de sesgos algorítmicos sucederían si los algoritmos de Inteligencia Artificial son entrenados con datos históricos sesgados, replicarán esas inequidades. Esto incluye subrepresentar corporalidades no normativas o ignorar contextos culturales específicos al interpretar datos traducidos.
El diseño interseccional sirve para superar estas limitaciones, los algoritmos deben diseñarse con principios feministas que incluyan parámetros explícitos para identificar y corregir sesgos relacionados con género y corporalidades diversas.
- Preguntas críticas para la recopilación inclusiva de datos
Las preguntas pueden adaptarse para incluir corporalidades, traducción e IA:
• ¿Quién define qué corporalidades son relevantes y cómo se representan en los datos? • ¿Quién traduce y cómo garantiza que las voces de las mujeres y niñas sean fielmente representadas? • ¿Cómo asegura la IA que los datos desagregados reflejen experiencias interseccionales y no perpetúen exclusión? • ¿Quién decide qué fuentes de datos se utilizan y con qué criterios éticos?
Hacia una Inteligencia Artificial inclusiva
Una Inteligencia Artificial de recopilación de datos verdaderamente inclusiva debe:
1. Diseñar encuestas y procesos de recopilación que reconozcan la diversidad de corporalidades y vivencias. 2. Incorporar traducciones que respeten el contexto cultural y lingüístico, permitiendo que los datos capturen las realidades de mujeres y niñas en distintos entornos. 3. Utilizar IA para integrar fuentes de datos no tradicionales, asegurando que los modelos sean revisados constantemente para mitigar sesgos algorítmicos. 4. Basarse en principios feministas que guíen cada etapa del proceso, desde la definición del problema hasta el uso de los datos.
-
-
feministai.pubpub.org feministai.pubpub.org
-
The seven principles of data feminism are as follows:
El feminismo de datos, tal como se describe, ofrece una oportunidad para interconectar conceptos de corporalidades, traducción e inteligencia artificial, ya que estas tres áreas se entrelazan en las dinámicas de poder, representación y conocimiento. Esto se puede apreciar en tres dimensiones:
Corporalidades y Feminismo de Datos
Elevar la emoción y la corporalidad:
Este principio resalta la importancia de reconocer a las personas como cuerpos vivos y sensibles. En el contexto de la Inteligencia Artificial, esto desafía la tendencia a despersonalizar los datos y tratar a los sujetos como abstracciones numéricas. Por ejemplo, al diseñar sistemas de reconocimiento facial, los cuerpos no normativos (como aquellos racializados o con diversidad funcional) son a menudo mal representados. Incorporar una perspectiva feminista exige cuestionar estas omisiones y visibilizar la experiencia corporal diversa.
Repensar los binarismos y las jerarquías:
El binarismo de género frecuentemente excluye corporalidades no conformes, tanto en los datos como en los algoritmos que los procesan. Esto tiene implicaciones tangibles, desde la falta de representación de personas no binarias en formularios digitales hasta los sesgos en modelos predictivos que perpetúan desigualdades. Integrar las corporalidades en la Inteligencia Artificial significa desestabilizar estas jerarquías y crear tecnologías más inclusivas.
Traducción y Feminismo de Datos
Adoptar el pluralismo:
La traducción aquí no solo se refiere a lenguas, sino a la intermediación entre perspectivas diversas, como los saberes indígenas y los sistemas de datos occidentales. Por ejemplo, la traducción de indicadores de género en datos cuantitativos puede borrar o simplificar las experiencias locales si no se contextualiza adecuadamente. Un feminismo de datos traducido con cuidado prioriza estos conocimientos y los integra en el análisis tecnológico.
Considerar el contexto:
La traducción de datos a diferentes idiomas y culturas requiere sensibilidad para no neutralizar las relaciones de poder que los generan. Por ejemplo, una Inteligencia Artificial que analiza patrones de violencia de género debe ser consciente de cómo se interpreta este fenómeno en diferentes contextos culturales, lo que implica una traducción crítica de términos y categorías.
Hacer visible el trabajo:
La traducción es una labor colectiva que a menudo queda invisibilizada en los procesos de desarrollo tecnológico. Desde los equipos de localización hasta los traductores de interfaces, el feminismo de datos puede destacar estas contribuciones como parte esencial de la ciencia de datos.
IA y Feminismo de Datos
Examinar el poder y desafiarlo:
La Inteligencia Artificial refleja las estructuras de poder subyacentes en los datos que utiliza. Por ejemplo, los algoritmos entrenados con datos sesgados perpetúan desigualdades sistémicas. Un enfoque feminista en la Inteligencia Artificial busca desmantelar estos sistemas cuestionando las fuentes de los datos, las metodologías empleadas y los objetivos finales de la tecnología.
Repensar binarismos y jerarquías:
En el diseño de la Inteligencia Artificial, los sistemas categóricos rígidos (hombre/mujer, blanco/no blanco) limitan la representación de la diversidad humana. El feminismo de datos propone un rediseño de los sistemas de clasificación, favoreciendo representaciones fluidas y menos jerárquicas que reconozcan las identidades interseccionales.
Elevar la emoción y la corporalidad:
La Inteligencia Artificial suele ignorar las dimensiones emocionales y corporales del conocimiento humano. Por ejemplo, las Inteligencias Artificiales están diseñadas para imitar respuestas humanas, pero carecen de la sensibilidad para responder adecuadamente a experiencias humanas complejas, como el dolor o el trauma. Incorporar un enfoque feminista podría llevar a tecnologías que reflejen estas realidades de manera más ética.
Adoptar el pluralismo:
La diversidad en el desarrollo de la Inteligencia Artificial, incluyendo voces marginadas y saberes locales, no solo enriquece la tecnología, sino que la hace más ética y eficaz. El feminismo de datos puede guiar estos procesos, garantizando que la Inteligencia Artificial no sea solo un reflejo de las agendas del Norte Global.
-
-
feministai.pubpub.org feministai.pubpub.org
-
strong critiques of AI from a feminist standpoint
Las corporalidades y feminismos en la Inteligencia Artificial se podría ver reflejada en la invisibilidad del cuerpo en la tecnología.
La Inteligencia Artificial, frecuentemente percibida como desprovista de corporalidad aunque goza de ensamblajes ya que son organizaciones de personas las que operan sobre datos que representan cuerpos humanos en la Inteligencia Artificial. Sin embargo, las brechas de datos de género reflejan cómo ciertas corporalidades (como las de mujeres, personas racializadas o no conformes con el género) son ignoradas o mal representadas. Esto afecta directamente la producción de sistemas de IA que perpetúan desigualdades corporales y sociales.
La materialidad de los datos es la falta de datos sobre cuidados no remunerados o violencia de género que invisibiliza las experiencias corporales. Estos datos “faltantes” no solo son números, son ausencias que impactan cuerpos reales, reproduciendo desigualdades en políticas y decisiones tecnológicas.
Las estrategias normativas y la performatividad del cambio se centran en las estrategias educativas para la transformación de normas (como entrenamientos en género y diversidad) que pueden incluir perspectivas corporales para abordar las maneras en que las tecnologías moldean las experiencias físicas, desde interfaces hasta el impacto del reconocimiento facial en personas racializadas.
La traducción como herramienta feminista aplicaría a la traducción de conceptos complejos como “feminismo de datos” o “IA feminista” que requiere una mediación cultural y lingüística que haga accesibles estos temas en contextos diversos. Las herramientas normativas, como las guías educativas sobre Inteligencia Artificial, pueden ser traducidas y adaptadas para comunidades no angloparlantes, fomentando un cambio inclusivo.
Los sesgos lingüísticos en la Inteligencia Artificial se manifiestan porque los algoritmos de procesamiento de lenguaje natural incorporan sesgos culturales que pueden reforzar estereotipos de género. Por ejemplo, traductores automáticos que perpetúan roles de género (“doctor” vs. “enfermera”) necesitan intervenciones basadas en datos de género de alta calidad para minimizar estas desigualdades.
La traducción como puente disciplinar e intermediación lingüística. Dado que las estrategias para la IA feminista requieren la colaboración entre tecnólogos, activistas y teóricos, la traducción también puede entenderse como una práctica de mediación entre disciplinas, ayudando a alinear epistemologías divergentes.
La IA feminista y el potencial transformador en los datos para cuerpos diversos se puede percibir para crear y usar datos sobre experiencias corporales diversas, como el impacto del diseño de ciudades en mujeres, personas en condición de discapacidad, o personas trans, es crucial para una IA feminista que considere a todas las corporalidades.
La educación para la inclusión abarcaría las normativas que fomenten el uso de herramientas educativas, como guías sobre los riesgos de la Inteligencia Artificial, ya que son vitales para garantizar que las tecnodiversidades no reproduzcan exclusiones históricas.
El diálogo interdisciplinar de la traducción entre datos (cuantitativos y cualitativos) y las narrativas sobre género puede ser el punto de partida para superar las barreras de autoridad que limitan los cambios en la Inteligencia Artificial. Esto incluye no solo traducir términos técnicos, sino también experiencias humanas.
-
feminist AI should
Las tecnologías de Inteligencia Artificial están mediada por las estructuras de poder que moldean qué datos se recopilan, cómo se interpretan y qué usos se les da. Esto es especialmente evidente en las brechas de datos de género, donde las experiencias y necesidades de ciertos cuerpos, particularmente los de mujeres, personas no binarias y otras corporalidades marginalizadas, son omitidas, invisibilizadas o mal representadas.
Los ecosistemas diversos y el rol de los actores sociales consiste en que la producción de datos es un proceso profundamente social, influido por las decisiones de múltiples agendas del Norte Global. Para abordar las brechas de género en los datos, es esencial reconocer este ecosistema diverso (gobiernos, empresas tecnológicas, organizaciones de la sociedad civil, activistas y comunidades de base).
Las corporalidades invisibilizadas en los datos pueden emerger a través de esfuerzos colaborativos entre sociedad civil y ministerios gubernamentales. Por ejemplo, iniciativas donde organizaciones feministas trabajan con gobiernos para construir políticas de datos con perspectiva de género.
Estas colaboraciones no solo reducen las brechas de datos, sino que también desvirtúan estructuras de poder tradicionales al movilizar a las comunidades hacia el cambio.
Las dinámicas de coerción interna y externa en la transformación tecnológica.
Para construir una Inteligencia Artificial feminista, es necesario emplear estrategias que combinen herramientas internas (cambios dentro de las instituciones) y externas (presión desde movimientos sociales).
Las estrategias internas incluyen la integración de equipos interdisciplinarios que combinen conocimientos técnicos y teóricos, como data scientists, activistas y académicas feministas, para diseñar sistemas que reflejen la diversidad de experiencias corporales.
Las estrategias externas implican la presión de movimientos feministas para exigir transparencia y responsabilidad a las grandes empresas tecnológicas y gobiernos, promoviendo cambios en las políticas y normativas que rigen la tecnología.
Investigación sobre ejemplos exitosos (“bright spots”): Para avanzar hacia una Inteligencia Artificial más inclusiva, es vital identificar casos donde actuantes feministas hayan logrado cerrar brechas de género o implementar sistemas tecnológicos más equitativos. Por ejemplo, proyectos que han utilizado datos de género para visibilizar el trabajo de cuidado no remunerado o reducir las desigualdades en salud materna pueden servir como modelos para futuras iniciativas.
Estas experiencias también resaltan el papel de las comunidades locales en traducir las necesidades corporales específicas en soluciones tecnológicas efectivas y contextualizadas.
la investigación interdisciplinaria y colaborativa podría abrir las brechas en los datos de género y el diseño de una IA feminista con enfoques que integren disciplinas que tradicionalmente no dialogan entre sí.
La traducción de corporalidades a datos digitales puede ser abordada por equipos que combinen desarrolladores tecnológicos, expertas en teoría de género y organizadoras comunitarias, generando sistemas que reflejen tanto las dinámicas sociales como los contextos técnicos.
Este enfoque también fomenta sistemas de Inteligencia Artificial que sean culturalmente sensibles y diseñados para promover equidad.
La construcción de plataformas y prácticas feministas de Inteligencia Artificial requiere plataformas políticas y prácticas informales que incluyan múltiples niveles de acción, desde cambios individuales hasta transformaciones sistémicas.
A nivel individual, esto incluye sensibilización sobre cómo las tecnologías reproducen desigualdades de género y su impacto en los cuerpos marginalizados.
A nivel sistémico, implica movilizar políticas que aseguren la representatividad y la inclusión en la gobernanza de la tecnología, así como fomentar prácticas que desmantelen las jerarquías opresivas incrustadas en los sistemas algorítmicos.
Utilizar herramientas interdisciplinarias, movilizar a diversos actuantes sociales y articular estrategias internas y externas que impulsen el cambio. De este modo, la Inteligencia Artificial feminista no sólo traduce las experiencias humanas a datos, sino que lo hace desde un lugar de justicia social, visibilizando y empoderando a las corporalidades históricamente excluidas.
-