- Jan 2025
-
feministai.pubpub.org feministai.pubpub.org
-
Summary of feminist principles' framework for AI
La Inteligencia Artificial puede ser una herramienta clave para abordar la VGD en Colombia mediante el desarrollo de chatbots o agentes conversacionales:
Asesorar y guiar para proveer información sobre derechos, rutas de denuncia y acceso a apoyo legal, psicológico y emocional.
Prevenir y detectar patrones de riesgo al analizar palabras clave, emojis o interacciones para identificar posibles crisis de violencia y generar alertas.
Empoderar comunidades para permitir que las víctimas accedan a redes de apoyo y recursos de manera anónima y segura, respetando principios de privacidad y datos.
Principios clave para el desarrollo de IA feminista
De acuerdo con los principios propuestos por Juliana Guerra (2022) y basados en experiencias previas con chatbots en otros países, las soluciones de IA deben:
Ser colaborativas y participativas para co-diseñarse con comunidades, activistas y expertas/os para reflejar las necesidades específicas del contexto colombiano.
Incorporar conocimientos situados para reconocer las particularidades socioculturales y las corporalidades diversas de las personas usuarias.
Garantizar privacidad y consentimiento al usar datos de manera transparente y proteger la identidad de las víctimas.
Fomentar la autonomía para crear herramientas de código abierto y accesibles, evitando la dependencia exclusiva de instituciones públicas.
Un chatbot inspirado en iniciativas como Maruchatbot o Soy Violetta podría ser diseñado en Colombia para:
Brindar orientación en español y lenguas indígenas.
Incorporar enfoques interseccionales que reconozcan las realidades de mujeres rurales, afrodescendientes y LGBTIQ+.
Detectar riesgos mediante Inteligencia Artificial, pero sin almacenar información sensible innecesaria.
Crear alianzas con organizaciones locales y académicas para garantizar sostenibilidad y contextualización.
-
Summary of Gender Digital Violence
En Colombia, la violencia de género digital (VGD) no solo afecta a mujeres por su mera presencia en plataformas digitales, sino que se agrava cuando participan activamente en debates, liderazgos políticos o en la defensa de derechos humanos y la igualdad de género. Esta violencia, una extensión de la violencia de género offline, tiene profundas consecuencias en la vida personal, emocional y pública de las mujeres, afectando su identidad, dignidad, integridad física y psicológica, y su derecho a la libertad de expresión.
La violencia política contra las mujeres, definida por la Organización de los Estados Americanos (OEA) como cualquier acción basada en el género que busca limitar o anular el ejercicio de sus derechos políticos, se manifiesta de forma recurrente en redes sociales. Estos espacios digitales, estratégicos para comunicadoras, activistas y lideresas, son utilizados para acoso, discursos de odio, ataques simbólicos y amenazas, con el objetivo de silenciar sus voces o inhibir su participación pública.
El impacto de la VGD y la violencia política digital se evidencia en la autocensura, la eliminación de perfiles en redes sociales y el retiro del debate público, perpetuando las barreras de género existentes. Esto afecta especialmente a mujeres indígenas, afrodescendientes, rurales y LGBTQ+, cuyas corporalidades y experiencias de violencia están atravesadas por múltiples formas de discriminación.
En Colombia, donde las desigualdades sociales y la violencia de género convergen con altos índices de violencia política, la Inteligencia Artificial podría desempeñar un papel esencial.
Monitoreo de violencia digital
Uso de Inteligencia Artificial para detectar patrones de discurso de odio, acoso y amenazas dirigidas a mujeres en redes sociales.
Mapeo de las dinámicas de violencia en diferentes regiones y plataformas.
Orientación personalizada
Creación de chatbots que brinden apoyo inmediato a víctimas de VGD, incluyendo traducción automática a lenguas indígenas y regionales, adaptándose a las realidades pluriculturales del país.
Provisión de información sobre recursos legales y psicológicos específicos para mujeres en riesgo.
Prevención y sensibilización
Implementación de campañas automatizadas y personalizadas para educar sobre la violencia de género digital y sus consecuencias, utilizando redes sociales para contrarrestar narrativas de odio.
Ética e inclusión
Cualquier solución tecnológica debe integrar un enfoque interseccional que considere las corporalidades y contextos diversos de las mujeres en Colombia, al respetar la privacidad y evitar prácticas extractivistas de datos. Además, es crucial incluir la participación activa de las mujeres afectadas en el diseño e implementación de estas herramientas, para garantizar su relevancia y efectividad.
La traducción, las corporalidades y la Inteligencia Artificial, puede transformar el abordaje de la VGD en Colombia, fortaleciendo la resiliencia de las mujeres y garantizando espacios digitales más seguros. Sin embargo, para que estas soluciones sean sostenibles, deben estar acompañadas de políticas públicas, colaboración interinstitucional y compromiso social para erradicar las raíces estructurales de la violencia de género.
-
-
feministai.pubpub.org feministai.pubpub.org
-
We are essentially digitizing trees, animals, and plants and rivers, and boundaries, defining those using satellite imagery.
En Colombia, las corporalidades están profundamente vinculadas a la identidad cultural, territorial y espiritual. Para muchas comunidades indígenas, afrodescendientes y campesinas, el cuerpo no solo es físico, sino también un puente con la tierra y la naturaleza.
Estas comunidades entienden el territorio como un elemento vital de su existencia colectiva, lo que contrasta con las visiones occidentales que separan al individuo del entorno natural.
La digitalización de territorios, como se plantea en el uso de la Inteligencia Artificial para conservación, presenta desafíos éticos importantes. Clasificar y definir tierras y recursos naturales a través de imágenes satelitales y algoritmos puede despojar a estas comunidades de su conexión simbólica y material con el territorio, perpetuando desigualdades históricas y vulnerando sus derechos culturales y corporales.
La traducción en Colombia podría desempeñar un papel clave al mediar entre las perspectivas indígenas y las prácticas occidentales de conservación y digitalización de territorios.
Traducir no solo lenguas, sino también conceptos culturales como la relacionalidad con la naturaleza y el conocimiento colectivo, es esencial para evitar malentendidos y garantizar que las voces de las comunidades sean escuchadas.
Por ejemplo, cuando se desarrollan proyectos de conservación basados en la Inteligencia Artificial, la traducción puede ayudar a garantizar que los principios, usos y riesgos de estas tecnologías sean entendidos desde las cosmovisiones indígenas, en lugar de imponer terminologías y enfoques que no respeten sus prácticas y saberes.
La implementación de Inteligencia Artificial en conservación y digitalización de tierras en Colombia debería centrarse en que:
Las comunidades indígenas deban ser incluidas como actores principales en el diseño de tecnologías que afectan sus territorios. Esto requiere procesos de consulta previos, libres e informados, en línea con los estándares internacionales de derechos humanos.
En lugar de imponer un modelo de digitalización basado en la separación tierra-persona, la Inteligencia Artificial deba reflejar cómo estas comunidades perciben su conexión espiritual, cultural y económica con la naturaleza.
La Inteligencia Artificial deba reconocer y respetar el conocimiento colectivo de las comunidades. Esto incluye evitar la apropiación de datos que no consideren el carácter comunal de la identidad y el saber indígena, promoviendo en su lugar principios éticos como los planteados en la posición de Indigenous AI.
-
-
feministai.pubpub.org feministai.pubpub.org
-
What is fairness?
Los cuerpos, la traducción y la Inteligencia Artificial vistos desde una posibilidad ética en la equidad revela tensiones profundas entre lo cuantificable y lo ético, especialmente cuando consideramos cómo la Inteligencia Artificial impacta los cuerpos. En el centro de estas tensiones yace un desafío, traducir conceptos éticos complejos, como la equidad, en métricas operativas que puedan implementarse en modelos matemáticos. Sin embargo, esta traducción no es neutral ni perfecta, es un acto cargado de decisiones políticas, éticas y culturales que afectan directamente a las corporalidades.
Primero que todo, el cuerpo en el centro del problema refleja que los cuerpos son los sujetos finales de las decisiones algorítmicas. Por ejemplo, en el caso de las métricas de paridad demográfica y de igualdad de oportunidades, los cuerpos se convierten en estadísticas como los números de aceptación o rechazo y probabilidades calculadas. Esto despersonaliza a los individuos y reduce sus complejas experiencias a puntos de datos que se integran en sistemas automatizados.
Además, el impacto sobre los cuerpos marginados no puede desvincularse de sus contextos culturales y sociales. Por ejemplo, la paridad demográfica puede corregir desigualdades numéricas, pero si la Inteligencia Artificial perpetúa estereotipos o malinterpreta características culturales en sus métricas de similitud, los cuerpos aún enfrentan injusticias.
segundo, la traducción vista desde las posibilidades éticas hasta la matemática implica que la traducción de conceptos éticos en modelos matemáticos, como los índices de entropía generalizada o las métricas de equidad grupal, enfrenta una paradoja fundamental ya que la ética es intrínsecamente contextual y fluida, mientras que las matemáticas buscan exactitud, consistencia y universalidad. Esto da lugar a dilemas como el teorema de imposibilidad, donde no es posible satisfacer simultáneamente múltiples métricas de equidad.
Este proceso de traducción puede ocultar o amplificar sesgos, dependiendo de cómo se define y mide la similitud entre individuos. Por ejemplo, al intentar medir similitud entre postulantes a un empleo, ¿cómo se traduce la experiencia laboral de una mujer en un contexto cultural donde históricamente se han excluido sus contribuciones? Traducir esta experiencia en un valor numérico puede distorsionar las realidades de los cuerpos que pretende representar.
Tercero, la Inteligencia Artificial como cuerpo traductor indica que no solo traduce datos, sino también cuerpos y experiencias, reduciéndolos a representaciones que interactúan con sistemas automatizados. Por lo tanto, la Inteligencia Artificial actúa como un “cuerpo traductor” que interpreta y reconfigura las relaciones de poder existentes. Un ejemplo es la dificultad de aplicar métricas de equidad grupal en contextos donde las desigualdades históricas han creado disparidades profundas en las oportunidades educativas y económicas.
Por último, el problema surge cuando la Inteligencia Artificial perpetúa, en lugar de mitigar, estas desigualdades. Por ejemplo, si una métrica de igualdad de oportunidades selecciona predominantemente a individuos del grupo mayoritario debido a sus mayores tasas de calificación previa, las dinámicas de poder se refuerzan, y los cuerpos del grupo minoritario quedan relegados.
Para lograr unas posibilidades éticas dentro de las cartografías de tecnodiversidades es necesario que:
Las métricas de equidad deben reevaluarse constantemente en función de los contextos sociales, políticos y culturales en los que se aplican. Esto implica un enfoque repetitivo y dinámico en la toma de decisiones algorítmicas.
Los cuerpos no pueden reducirse a datos estadísticos. Es necesario desarrollar métodos participativos que integren las experiencias vividas de los afectados por las decisiones algorítmicas en el diseño y evaluación de la Inteligencia Artificial.
En lugar de intentar traducir la ética directamente a matemática, podemos fomentar una interacción entre disciplinas, incluyendo la filosofía, las ciencias sociales y la ingeniería, para que la traducción sea más inclusiva y representativa.
Las métricas de similitud deben ser auditadas desde perspectivas interdisciplinarias para garantizar que no perpetúen sesgos ni deshumanicen a los sujetos.
-
-
feministai.pubpub.org feministai.pubpub.org
-
AI as a Software
Las corporalidades, la traducción y la inteligencia artificial son creados para interpretar y operar, amplifican y perpetúan los sesgos sociales que definen tanto la representación como la interacción de los cuerpos en el ámbito tecnológico. Se entretejen las nociones de traducción como la adaptación o interpretación de las corporalidades humanas al lenguaje de los datos, y la ética de la Inteligencia Artificial, en la que se abordan los sesgos en la sociedad.
La traducción con Inteligencia Artificial “traduce” las corporalidades humanas a datos estructurados mediante procesos de entrenamiento que dependen de patrones en los datasets. Sin embargo, esta traducción es imperfecta y limitada.
Las corporalidades humanas, con sus matices de diversidad cultural, étnica, de género y funcionalidad, son codificadas en un espacio de datos reducido, lo que deja fuera muchas experiencias humanas.
La Inteligencia Artificial no sólo traduce, sino que también amplifica los sesgos presentes en los datos. Un sistema entrenado con imágenes que asocian género con profesiones perpetuará estos estereotipos, traduciéndolos como “verdades” tecnológicas.
La Inteligencia Artificial, al comportarse como un software “inteligente”, plantea desafíos únicos que afectan cómo las corporalidades son representadas, a diferencia de un software tradicional, los resultados de la Inteligencia Artificial cambian con el tiempo y el contexto, lo que dificulta crear métricas fijas para medir su sesgo. Esto afecta directamente cómo los cuerpos son clasificados o reconocidos.
En lugar de reconocer la fluidez de las identidades humanas, los sistemas de Inteligencia Artificial suelen fijar a las corporalidades en etiquetas binarias (“hombre” o “mujer”), dejando fuera identidades LGBTQ+.
La comprensión y mitigación de sesgos en la Inteligencia Artificial requiere un enfoque interdisciplinario que reconozca las complejidades sociales y culturales de las corporalidades.
Las ciencias sociales pueden aportar conceptos de sesgo y equidad que guíen la creación de métricas en la Inteligencia Artificial. Redefinir cómo los sistemas interpretan y categorizan las corporalidades más allá de los parámetros normativos.
La introducción de herramientas como REVISE y datasets como el Pilot Parliament Benchmark marcan un paso hacia la evaluación de sesgos, pero aún no abordan la diversidad completa de las corporalidades.
La Inteligencia Artificial puede entenderse como una traducción cultural que convierte dinámicas humanas en procesos computacionales, la traducción de las corporalidades al ámbito de la Inteligencia Artificial no es neutral, ya que refleja los valores y prejuicios de quienes crean los sistemas y los datasets. Este proceso requiere una revisión ética que considere cómo las decisiones de diseño afectan a las poblaciones marginalizadas.
Resolver estos desafíos exige la colaboración entre disciplinas (ciencias sociales, legales, matemáticas, etc.) y geografías como las cartografías, reconociendo que las corporalidades humanas son interpretadas de maneras distintas según el contexto cultural.
La interacción entre la Inteligencia Artificial y las corporalidades tiene consecuencias profundas que van más allá de los sesgos técnicos, si los sesgos en la Inteligencia Artificial no se mitigan, las tecnodiversidades podrían institucionalizar discriminaciones sociales, afectando cómo ciertos cuerpos son vistos, valorados o incluso controlados.
En un mundo donde la Inteligencia Artificial tiene un impacto cada vez mayor, es esencial que todos los sectores de la sociedad trabajen juntos para garantizar que las tecnologías no perpetúen ni amplifiquen las desigualdades existentes.
-