78 Matching Annotations
  1. Jan 2025
    1. Important Skills to improve

      Temas importantes para el desarrollo de la herramienta propuesta

      Contexto comunitario: El 55% no ha establecido relaciones con otros trabajadores, y el 68% desearía tener una forma de hacerlo.

      Habilidades importantes a mejorar

      Marketing en línea Programación, TI, desarrollo web Inglés Interpretación de textos, redacción, comprensión lectora, transcripción, Excel Inteligencia Artificial y herramientas tecnológicas avanzadas Finanzas Habilidades blandas, liderazgo Hábitos de perseverancia y concentración para realizar trabajo en línea Comunicación efectiva, gestión de proyectos Trabajo en equipo

      Temas de mayor importancia para los trabajadores colaborativos en Toloka en el desarrollo de una herramienta

      Compartir experiencias y consejos para mejorar la rentabilidad Realizar más tareas y aumentar la productividad Capacitación para el desarrollo profesional y de habilidades Encontrar las mejores tareas Clarificación de instrucciones, ambigüedades y posibles errores Cuestiones financieras; mejores pagos por las tareas

    2. Women respondents

      Temas recurrentes e importantes

      Cuidado personal: Equilibrio entre el trabajo y las responsabilidades de cuidado. Pueden ser solteras y tener un nivel económico más alto que los hombres encuestados.

      Capital educativo: Uso de YouTube como herramienta para buscar tutoriales sobre cómo realizar las tareas. Uso de herramientas para traducir inglés y desarrollar competencias en este idioma.

      Independencia: El trabajo colaborativo se percibe como un ingreso complementario que puede promover la independencia financiera.

      Alienación: No tienen contacto con otras mujeres trabajadoras colaborativas. Podrían valorar el contacto con otros trabajadores colaborativos. Percepción de que el género no afecta el trabajo colaborativo. Respeto o neutralidad hacia el trabajo colaborativo.

    3. Men respondents

      Temas recurrentes e importantes

      Cuidado personal: No tienen suficiente tiempo para el autocuidado.

      Ingresos familiares: Todo el ingreso obtenido en Toloka se destinó, en cierta medida, a sus familias; los hombres gastaron la mayor parte de estos ingresos en sus familias.

      Trabajo de cuidado: Otras personas cercanas asumieron el trabajo de cuidado para permitirles tiempo para realizar trabajo colaborativo.

      Motivaciones: Valoraron otros beneficios, como la adquisición de nuevas habilidades.

      Alienación: Valoran conocer a otros trabajadores colaborativos. Percepción de que el género no afecta el trabajo colaborativo. Neutralidad respecto al trabajo colaborativo.

    4. Data labeling is the product of AI models and the manual work of people who monitor, correct and augment the predictions of the former, thus improving their accuracy. This form of labor is known as crowd work.

      La producción de datos etiquetados es fundamental para el desarrollo y entrenamiento de sistemas de IA, una tecnología que depende del trabajo manual de personas (crowd workers) que supervisan y mejoran la precisión de los algoritmos.

      En Colombia, este tipo de trabajo podría crecer como fuente de ingresos, especialmente para mujeres que enfrentan desafíos sociales como la desigualdad de género y la carga de responsabilidades familiares.

      En el caso de las mujeres indígenas colombianas, el trabajo colaborativo en plataformas como Toloka podría ofrecer oportunidades económicas, pero también plantea desafíos particulares.

      Estas comunidades suelen combinar el sustento económico con fuertes roles familiares y culturales, lo que limita su acceso a herramientas y formación técnica por localizarse en sitios rurales. Además, muchas mujeres buscan espacios seguros para compartir experiencias, aprender nuevas habilidades y organizarse frente a problemas laborales como la falta de transparencia y el pago justo.

      Un diseño de sistema adaptado a estas necesidades podría integrar un chatbot inteligente inspirado en figuras femeninas latinoamericanas, facilitando la comunicación y el acceso a recursos.

      Esta posibilidad, centrada en sus valores culturales y sociales, podría fomentar el empoderamiento, la creación de redes de apoyo y la mejora de sus condiciones laborales. Iniciativas como esta no solo beneficiarían a las mujeres indígenas colombianas, sino que también fortalecerían el impacto de la Inteligencia Artificial en contextos locales, promoviendo justicia y equidad en el desarrollo tecnológico.

    1. Prototype for E.D.I.A

      El proyecto E.D.I.A (Estereotipos y Discriminación en Inteligencia Artificial) desarrolló una herramienta accesible para evaluar sesgos en procesamiento de lenguaje natural (PLN), específicamente en word embeddings y modelos de lenguaje de gran escala. Este prototipo, alojado en Huggingface, permite que expertos en discriminación, sin habilidades técnicas avanzadas, participen en la detección de sesgos desde las etapas iniciales del desarrollo de tecnologías lingüísticas, evitando daños sociales posteriores.

      El proyecto busca empoderar a especialistas en discriminación para auditar sesgos en herramientas de PLN que moldean aplicaciones cotidianas. Estas tecnologías suelen replicar y perpetuar los sesgos presentes en los datos de los que aprenden. Sin embargo, las evaluaciones tradicionales dependen de habilidades técnicas avanzadas en programación y estadística, excluyendo a los expertos en discriminación del núcleo del proceso.

      Innovaciones del Prototipo

      Visualizaciones Intuitivas: Sustituyen métricas técnicas con representaciones gráficas, permitiendo un análisis más accesible y comunicable.

      Conceptos Simplificados: Evitan terminología matemática y estadística compleja, priorizando conceptos intuitivos.

      Relaciones Contextuales: Representan gráficamente interacciones entre palabras, contextos de uso y expresiones multi-palabra, enriqueciendo el análisis.

      Implementación y Pruebas

      El prototipo fue evaluado en talleres interdisciplinarios en Argentina, con 100 asistentes de sectores como la academia, la industria, instituciones públicas y sociedad civil. Estas sesiones confirmaron la utilidad de la herramienta para:

      Validar intuiciones sobre discriminación.

      Planificar acciones correctivas.

      Facilitar debates fundamentados con actores diversos.

      Impacto y posible aplicación en Colombia

      En Colombia, donde convergen diversas corporalidades y realidades lingüísticas, esta herramienta podría abordar desafíos específicos, como:

      Sesgos relacionados con género, raza y clase en aplicaciones de inteligencia artificial.

      Exclusión de lenguas indígenas y afrodescendientes en modelos lingüísticos.

      Representaciones perjudiciales en medios digitales y plataformas sociales.

      El prototipo y su metodología podrían tener potencial para integrarse en prácticas de investigación, políticas públicas y desarrollo tecnológico en Colombia. Además, sus características inclusivas podrían fomentar una mayor participación de comunidades diversas en la creación de tecnologías éticas y culturalmente relevantes.

      Recursos Disponibles

      Prototipo interactivo: Huggingface.

      Código fuente y documentación: Repositorio en GitHub.

      Video introductorio: E.D.I.A: Estereotipos y Discriminación en Inteligencia Artificial.

      Con este enfoque, E.D.I.A demuestra que reducir barreras técnicas es esencial para construir inteligencia artificial inclusiva y culturalmente sensible, destacando el potencial de metodologías colaborativas en Colombia junto con el Sur Global.

    1. Technical, Social and Ethical Considerations of the Workflow of the system

      El perfil arquetípico para este sistema es una mujer activa en redes sociales que sufre violencia digital, siendo un referente de opinión o activista. Este enfoque tiene en cuenta que muchas de las mujeres víctimas son líderes de opinión, comunicadoras, académicas o activistas con influencia política, social y de derechos humanos. Por ello, el diseño de la interacción con el chatbot debe ser empático, inclusivo y sensible a las corporalidades de las mujeres en Colombia.

      Inteligencia Artificial en el Sistema

      La Inteligencia Artificial será clave para el procesamiento y análisis de los casos reportados. El sistema automatizado clasificará la información obtenida, identificando los siguientes elementos:

      Tipos de ataque: tipologías de violencia digital.

      Palabras clave asociadas al acoso: para identificar patrones recurrentes.

      Perfiles de los agresores: para identificar posibles perfiles de acosadores.

      Frecuencia y recurrencia: para rastrear la aparición de ataques en contextos específicos (por ejemplo, durante crisis sociopolíticas).

      El sistema permitirá, además, generar alertas automáticas cuando se identifiquen patrones de ataque coordinado o perfiles de agresores recurrentes. Esta información será almacenada en una base de datos, que alimentará visualizaciones de datos accesibles al público, lo cual puede ser utilizado por investigadores, periodistas y otras partes interesadas para desarrollar políticas públicas o acciones de defensa.

      Protección de Datos y Privacidad

      Los datos solicitados al momento del reporte de violencia digital serán limitados y confidenciales. Se pedirá a las víctimas que proporcionen:

      Fecha aproximada del ataque.

      Plataforma de redes sociales donde ocurrió el ataque.

      Evidencia del ataque (captura de pantalla, vínculo, detalles del perfil del agresor).

      Datos opcionales como nombre (no necesariamente real), correo electrónico, edad, ocupación y ciudad.

      El sistema incluirá una política de privacidad clara y accesible, explicando cómo se utilizarán los datos para el seguimiento y la elaboración de informes. Esto garantizará que el proceso sea transparente y respetuoso con la privacidad de las usuarias.

      Impacto y Alcance

      La implementación de este sistema en Colombia buscará generar un impacto social a través de una campaña de divulgación que informe a las mujeres sobre la disponibilidad de esta plataforma para reportar casos de DGV y recibir orientación. El sistema tiene como objetivo:

      Desarrollar un modelo de base de datos que categorice y cuantifique los casos de violencia digital en Colombia.

      Generar visualizaciones de datos que sean descargables y útiles para diversas partes interesadas.

      Crear informes que sirvan como herramientas para la toma de decisiones en políticas públicas y apoyo de organizaciones feministas y de derechos humanos.

      Desarrollo Futuro

      El desarrollo del prototipo del chatbot se apoyaría en principios feministas, y se utilizarían guías de Inteligencia Artificial feminista para asegurar que el diseño del sistema no solo sea funcional, sino también ético y respetuoso con las mujeres. Este chatbot no será una solución única, sino parte de un sistema de soporte integral que incluye recursos y apoyo emocional, legal y digital. Además, se buscarán colaboraciones con organizaciones feministas en Colombia y el sector público para fortalecer el impacto y la implementación del sistema.

      Búsqueda de financiamiento para la fase de desarrollo y prueba del prototipo.

      Desarrollo y ajuste del chatbot con la inclusión de un equipo de programadores especializados.

      Establecimiento de alianzas con organizaciones y organismos nacionales e internacionales para apoyo en la fase de implementación.

      Publicación del informe final y la documentación técnica para su difusión académica y en medios abiertos.

    2. Presentation of the proposal: towards a feminist chatbot prototype

      El diseño podría incorporar posibilidades sensibles a las corporalidades, la traducción y la Inteligencia Artificial para adaptarlo a las necesidades de las mujeres en Colombia.

      Etapas del Proceso de Interacción

      Reporte Inicial (Paso 1)

      La mujer afectada conecta con el chatbot y se le invita a relatar su experiencia, utilizando un lenguaje empático que no victimiza ni culpa. Se le preguntan detalles sobre el ataque (plataforma, tipo de violencia, momento, posibilidad de subir evidencia, etc.).

      La Inteligencia Artificial se emplea para clasificar los casos con base en palabras clave y patrones de violencia digital, generando una base de datos para un análisis más profundo.

      Orientación para Reportar en Plataformas Sociales (Paso 2)

      El chatbot guía a la víctima sobre cómo denunciar en la plataforma donde ocurrió el ataque, proporcionando enlaces directos a formularios y tutoriales.

      Orientación para Reportar a la Policía (Paso 3)

      Se ofrecería información sobre cómo denunciar el caso a la policía colombiana, proporcionando enlaces y números de contacto relevantes.

      Apoyo Legal (Paso 4)

      El chatbot proporciona orientación sobre el marco legal colombiano, aunque la violencia digital aún puede no estar completamente tipificada como delito, y ofrece enlaces a organizaciones que brindan asesoría legal.

      Apoyo Emocional (Paso 5)

      El chatbot ofrece acceso a información sobre apoyo emocional y psicológico, al incluir organizaciones que trabajan en salud mental y acompañamiento para mujeres víctimas de violencia.

      Seguridad Digital (Paso 6)

      Se ofrece orientación sobre cómo mejorar la seguridad digital, al proporcionar guías descargables y recomendaciones sobre plataformas especializadas en ciberseguridad, adaptadas al contexto colombiano.

      Monitoreo del Caso (Paso 7)

      El chatbot hace seguimiento al caso, pregunta si la violencia persiste y ofrece la opción de recibir información sobre talleres relacionados con la violencia digital y la protección en línea.

      Conexión con una Comunidad (Paso 8)

      Se ofrece la posibilidad de unirse a una comunidad de mujeres que han experimentado situaciones similares, creando un espacio seguro para el apoyo mutuo.

      Cierre del Diálogo (Paso 9)

      El chatbot cierra la conversación con un mensaje de apoyo y proporciona acceso continuo a los recursos y servicios disponibles.

      Corporialidades

      El chatbot debe comprender las diversas formas en que las mujeres experimentan la violencia digital, al considerar no solo las consecuencias emocionales y psicológicas, sino también cómo estos ataques pueden afectar su cuerpo, su bienestar y su seguridad. El chatbot debe ofrecer una interacción sensible a estos aspectos, al asegurar que la víctima se sienta comprendida y no juzgada.

      Traducción

      Se debe adaptar el lenguaje y los recursos disponibles al contexto colombiano, al tener en cuenta las diversas realidades socioculturales del país, como las diferencias en dialectos, clases sociales y la especificidad de las plataformas de comunicación más usadas por las mujeres colombianas. El chatbot puede ofrecer versiones en español con terminología regional para asegurar una mejor comprensión.

      Inteligencia Artificial

      La Inteligencia Artificial juega un papel fundamental al analizar los datos recopilados, luego de identificar patrones de abuso y ayudar a clasificar los tipos de violencia digital. Además, la Inteligencia Artificial puede optimizar el sistema para ofrecer respuestas más rápidas y personalizadas, al aprender de cada interacción para mejorar la asistencia en tiempo real.

    3. Methodology : Applying feminist principles in the research with women who have experienced DGV situations

      La creación de un sistema de respuesta para mujeres que han sufrido violencia de género digital desde una perspectiva feminista implica desarrollar todo el proceso de diseño y creación basado en principios feministas. Este enfoque, fundamentado en la co-creación participativa, el pluralismo, la agencia de las usuarias y la incorporación de corporalidades, busca soluciones tecnológicas que respeten y amplifiquen las experiencias y necesidades de las mujeres afectadas.

      Principios Clave para el Diseño Feminista

      Pluralismo y Participación

      Involucrar activamente a las mujeres afectadas y a organizaciones feministas durante el proceso de diseño para garantizar que las soluciones reflejen sus vivencias y necesidades específicas.

      Conocimiento Situado

      Reconocer las dinámicas de poder y evitar reproducir desigualdades estructurales. La metodología debe ser inclusiva y ética, dando espacio a voces históricamente marginadas.

      Embodiment (Corporalidad)

      Incorporar la dimensión emocional y corporal en la investigación, entendiendo cómo las mujeres viven y procesan los episodios de violencia digital.

      Agencia de las Usuarias

      Diseñar sistemas donde las mujeres sean protagonistas y agentes de su propio proceso, en lugar de delegar el poder únicamente a los diseñadores o instituciones.

      Metodología de Investigación

      El diseño del sistema se estructuró en dos fases principales:

      Co-creación con Mujeres Afectadas y Organizaciones Feministas

      A través de entrevistas profundas y dinámicas participativas (como mapas de viaje emocional), se exploraron las experiencias, necesidades y deseos de las mujeres afectadas.

      Hallazgos Clave

      Sensación de soledad y desorientación al enfrentar la violencia digital.

      Restricciones autoimpuestas en redes sociales, como privatización de cuentas y limitación de publicaciones.

      Necesidad de comunidades de apoyo para compartir experiencias y evitar revictimización.

      Deseo de sistemas tecnológicos que ofrezcan orientación clara y rápida.

      Entrevistas con Instituciones y Expertos

      Se consultaron actores estratégicos, como instituciones públicas y organizaciones especializadas, para validar y complementar las necesidades identificadas.

      Propuesta Tecnológica: Incorporación de Inteligencia Artificial y Traducción

      Uso de IA para la Detección y Análisis

      Patrones de Violencia: Identificar tendencias en el uso de palabras clave, emojis o comportamientos recurrentes.

      Alertas Preventivas: Implementar sistemas que indiquen niveles de riesgo y sugieran acciones inmediatas.

      Apoyo Multilingüe

      Implementar traducción automática para garantizar accesibilidad a mujeres de diferentes regiones y contextos lingüísticos en Colombia.

      Enfoque Comunitario y de Cuidado

      Crear redes de apoyo virtual donde las mujeres puedan compartir experiencias y recibir orientación en tiempo real.

      Recomendaciones Específicas para aplicarlo en Colombia

      Contexto y Localización

      Adaptar el sistema a las necesidades específicas de mujeres colombianas, considerando las barreras de acceso tecnológico y el limitado apoyo institucional en ciertos casos de VGD.

      Protocolo de Orientación

      Diseñar un protocolo que permita a las usuarias entender qué es la violencia digital, cómo proceder y con quién contactar para recibir apoyo.

      Confidencialidad y Privacidad

      Garantizar que el sistema no requiera información personal innecesaria y respete la privacidad de las usuarias, especialmente en contextos de violencia.

      Colaboración y Sostenibilidad

      Fomentar alianzas entre organizaciones feministas, instituciones locales y expertos en Inteligencia Artificial para asegurar la sostenibilidad del proyecto.

    4. Summary of feminist principles' framework for AI

      La Inteligencia Artificial puede ser una herramienta clave para abordar la VGD en Colombia mediante el desarrollo de chatbots o agentes conversacionales:

      Asesorar y guiar para proveer información sobre derechos, rutas de denuncia y acceso a apoyo legal, psicológico y emocional.

      Prevenir y detectar patrones de riesgo al analizar palabras clave, emojis o interacciones para identificar posibles crisis de violencia y generar alertas.

      Empoderar comunidades para permitir que las víctimas accedan a redes de apoyo y recursos de manera anónima y segura, respetando principios de privacidad y datos.

      Principios clave para el desarrollo de IA feminista

      De acuerdo con los principios propuestos por Juliana Guerra (2022) y basados en experiencias previas con chatbots en otros países, las soluciones de IA deben:

      Ser colaborativas y participativas para co-diseñarse con comunidades, activistas y expertas/os para reflejar las necesidades específicas del contexto colombiano.

      Incorporar conocimientos situados para reconocer las particularidades socioculturales y las corporalidades diversas de las personas usuarias.

      Garantizar privacidad y consentimiento al usar datos de manera transparente y proteger la identidad de las víctimas.

      Fomentar la autonomía para crear herramientas de código abierto y accesibles, evitando la dependencia exclusiva de instituciones públicas.

      Un chatbot inspirado en iniciativas como Maruchatbot o Soy Violetta podría ser diseñado en Colombia para:

      Brindar orientación en español y lenguas indígenas.

      Incorporar enfoques interseccionales que reconozcan las realidades de mujeres rurales, afrodescendientes y LGBTIQ+.

      Detectar riesgos mediante Inteligencia Artificial, pero sin almacenar información sensible innecesaria.

      Crear alianzas con organizaciones locales y académicas para garantizar sostenibilidad y contextualización.

    5. Chilean context

      En Colombia, la ausencia de datos sistematizados, políticas públicas específicas y mecanismos de apoyo institucional, al igual que en Chile, las mujeres enfrentan esta violencia de forma individualizada, sin acceso consistente a redes de apoyo o recursos adecuados. La situación se complica al considerar las diversas corporalidades y contextos sociales, como el de las mujeres rurales, afrodescendientes, indígenas y LGBTQ+, quienes enfrentan formas de violencia exacerbadas por su interseccionalidad.

      El país carece de un marco normativo sólido para enfrentar la VGD, a pesar de iniciativas legislativas recientes que abordan parcialmente el problema. Las denuncias en redes sociales, principal mecanismo utilizado por las víctimas, presentan limitaciones como la falta de seguimiento, la continuidad de los ataques y la opacidad de los procedimientos de las plataformas.

      La incorporación de Inteligencia Artificial puede transformar el abordaje de la VGD en Colombia con:

      Creación de sistemas de datos sistematizados

      Bases de datos integradas y centralizadas que permitan identificar patrones, tendencias y perfiles de agresores.

      Análisis predictivo para anticipar riesgos y mejorar los mecanismos de protección para las mujeres.

      Desarrollo de chatbots con enfoque feminista

      Prototipos como asistentes conversacionales que proporcionen orientación legal, psicológica y emocional, adaptados a los contextos regionales y culturales del país.

      Incorporación de traducción automática para lenguas indígenas y dialectos, garantizando accesibilidad en comunidades diversas.

      Fortalecimiento de redes de apoyo virtuales

      Promoción de iniciativas lideradas por colectivas feministas y activistas tecnológicas para diseñar herramientas que amplíen las capacidades de respuesta comunitaria.

      Creación de espacios seguros para compartir experiencias y buscar ayuda sin temor a represalias.

      Prevención mediante Inteligencia Artificial

      Campañas educativas automatizadas para informar sobre la VGD y empoderar a las mujeres en el uso seguro de tecnologías digitales.

      Principios feministas para el diseño de IA

      El diseño de estas herramientas debe incorporar principios feministas que cuestionen el extractivismo de datos y prioricen la privacidad y la seguridad de las usuarias. Además, deben considerar las corporalidades y experiencias diversas de las mujeres en Colombia, garantizando que las soluciones no perpetúen desigualdades estructurales.

      El desarrollo de soluciones basadas en Inteligencia Artificial, junto con políticas públicas adecuadas y la participación activa de mujeres en su diseño, puede ser un paso crucial para abordar la violencia de género digital en Colombia. Esto no solo contribuiría a la prevención y atención de casos, sino también a la creación de un entorno digital más seguro e inclusivo para todas las mujeres.

    6. Summary of Gender Digital Violence

      En Colombia, la violencia de género digital (VGD) no solo afecta a mujeres por su mera presencia en plataformas digitales, sino que se agrava cuando participan activamente en debates, liderazgos políticos o en la defensa de derechos humanos y la igualdad de género. Esta violencia, una extensión de la violencia de género offline, tiene profundas consecuencias en la vida personal, emocional y pública de las mujeres, afectando su identidad, dignidad, integridad física y psicológica, y su derecho a la libertad de expresión.

      La violencia política contra las mujeres, definida por la Organización de los Estados Americanos (OEA) como cualquier acción basada en el género que busca limitar o anular el ejercicio de sus derechos políticos, se manifiesta de forma recurrente en redes sociales. Estos espacios digitales, estratégicos para comunicadoras, activistas y lideresas, son utilizados para acoso, discursos de odio, ataques simbólicos y amenazas, con el objetivo de silenciar sus voces o inhibir su participación pública.

      El impacto de la VGD y la violencia política digital se evidencia en la autocensura, la eliminación de perfiles en redes sociales y el retiro del debate público, perpetuando las barreras de género existentes. Esto afecta especialmente a mujeres indígenas, afrodescendientes, rurales y LGBTQ+, cuyas corporalidades y experiencias de violencia están atravesadas por múltiples formas de discriminación.

      En Colombia, donde las desigualdades sociales y la violencia de género convergen con altos índices de violencia política, la Inteligencia Artificial podría desempeñar un papel esencial.

      Monitoreo de violencia digital

      Uso de Inteligencia Artificial para detectar patrones de discurso de odio, acoso y amenazas dirigidas a mujeres en redes sociales.

      Mapeo de las dinámicas de violencia en diferentes regiones y plataformas.

      Orientación personalizada

      Creación de chatbots que brinden apoyo inmediato a víctimas de VGD, incluyendo traducción automática a lenguas indígenas y regionales, adaptándose a las realidades pluriculturales del país.

      Provisión de información sobre recursos legales y psicológicos específicos para mujeres en riesgo.

      Prevención y sensibilización

      Implementación de campañas automatizadas y personalizadas para educar sobre la violencia de género digital y sus consecuencias, utilizando redes sociales para contrarrestar narrativas de odio.

      Ética e inclusión

      Cualquier solución tecnológica debe integrar un enfoque interseccional que considere las corporalidades y contextos diversos de las mujeres en Colombia, al respetar la privacidad y evitar prácticas extractivistas de datos. Además, es crucial incluir la participación activa de las mujeres afectadas en el diseño e implementación de estas herramientas, para garantizar su relevancia y efectividad.

      La traducción, las corporalidades y la Inteligencia Artificial, puede transformar el abordaje de la VGD en Colombia, fortaleciendo la resiliencia de las mujeres y garantizando espacios digitales más seguros. Sin embargo, para que estas soluciones sean sostenibles, deben estar acompañadas de políticas públicas, colaboración interinstitucional y compromiso social para erradicar las raíces estructurales de la violencia de género.

    7. La red Red de Investigación Feminista en Inteligencia artificial, f<a+i>r

      La violencia de género digital (VGD) en Colombia refleja las desigualdades y dinámicas de poder presentes en la sociedad, adaptadas al ámbito tecnológico. Este fenómeno no es estático, ha evolucionado junto con el desarrollo de las tecnologías y su uso social, al transformarse desde los inicios del Internet en 1990 hasta el contexto actual de redes sociales, dispositivos móviles e interconectividad masiva. La VGD engloba cualquier conducta, acción o comportamiento que implique agresiones contra mujeres, niñas y adolescentes, con una fuerte dimensión de género que perpetúa las desigualdades.

      La VGD ha sido reconocida por organismos internacionales como las Naciones Unidas y la Iniciativa Spotlight, que destacan el uso de tecnologías de la información y comunicación (TIC) como un medio que facilita, agrava o amplifica actos de violencia de género.

      Se identifica como cualquier acción basada en el género que cause daño físico, psicológico, económico o simbólico, instigada o asistida por tecnologías como celulares, Internet y redes sociales.

      En Colombia, como en otros países de América Latina, se han identificado entre 10 y 12 tipos de VGD, que incluye:

      Acceso no autorizado: Intervención o control de cuentas personales o dispositivos.

      Manipulación de información: Alteración o difusión de datos personales.

      Acoso y vigilancia: Seguimiento constante en línea.

      Divulgación de contenido íntimo sin consentimiento: Publicación de imágenes o información personal.

      Estas formas de violencia afectan de manera desproporcionada a las mujeres debido a los roles de género y las dinámicas de poder que se trasladan al espacio digital.

      La Inteligencia Artificial puede ser una herramienta crucial para abordar la VGD, especialmente en un país como Colombia, donde las desigualdades tecnológicas y sociales complican la identificación y respuesta a estos casos. Desde una posibilidad feminista e inclusiva, las siguientes aplicaciones son relevantes:

      Detección y prevención

      Uso de procesamiento de lenguaje natural (NLP) para identificar discursos de odio y amenazas en redes sociales.

      Análisis de patrones en datos para prevenir casos recurrentes y mapear perfiles de agresores.

      Orientación y apoyo a víctimas

      Creación de un chatbot diseñado para brindar atención inicial a mujeres víctimas de VGD, ofreciendo información sobre recursos legales, psicológicos y de seguridad.

      Traducción automática y adaptada para alcanzar a mujeres de diferentes regiones lingüísticas y culturales del país.

      Sistematización de casos

      Generación de bases de datos seguras para documentar incidentes y proponer políticas públicas basadas en evidencia.

      Posibilidades éticas y sociales

      Es fundamental que el uso de Inteligencia Artificial respete la privacidad y autonomía de las mujeres, evitando el extractivismo de datos y la revictimización. Además, su implementación debe ser sensible a las corporalidades, entendiendo que las experiencias de violencia están mediadas por factores como género, raza, clase y ubicación geográfica.

      La combinación del desarrollo tecnológico con una posibilidad feminista puede transformar la forma en que Colombia enfrenta la VGD. Esto requiere no solo innovación en Inteligencia Artificial, sino también colaboración entre el gobierno, la sociedad civil y organismos internacionales para garantizar que las soluciones sean inclusivas, éticas y efectivas.

    8. Digital Gender-Based Violence (DGV)

      En Colombia, como en otros contextos, la violencia de género contra las mujeres se extiende a los espacios digitales, siendo una expresión del continuo de dominación patriarcal. La violencia de género digital (VGD) constituye un problema creciente en una sociedad cada vez más digitalizada, donde los entornos virtuales son una extensión de la realidad física. Esta violencia se manifiesta en acoso, discurso de odio, amenazas y otras formas de agresión hacia las mujeres a través de medios tecnológicos.

      Colombia enfrenta retos similares a los de países como Chile: falta de datos sistematizados sobre casos de VGD y ausencia de políticas públicas que midan, prevengan y respondan a estas situaciones. Las iniciativas que existen suelen ser impulsadas por colectivos feministas y organizaciones civiles, pero estas no son suficientes para abordar la magnitud del problema.

      La Inteligencia Artificial puede jugar un papel clave en la lucha contra la VGD, especialmente a través del procesamiento del lenguaje natural (NLP). Estas tecnologías pueden analizar grandes cantidades de datos no estructurados, sistematizar denuncias y brindar orientación inicial a las víctimas. Por ejemplo, un chatbot diseñado con principios feministas podría:

      Recopilar y organizar denuncias de manera segura.

      Ofrecer una orientación inicial sobre recursos legales y psicológicos disponibles.

      Generar bases de datos para identificar patrones, características de los agresores y tendencias de violencia en redes sociales.

      Sin embargo, el uso de la Inteligencia Artificial plantea desafíos éticos y sociales relacionados con la privacidad, el extractivismo de datos y la delegación de decisiones críticas a las máquinas. Por ello, cualquier desarrollo en este ámbito debe integrar principios feministas y un enfoque ético que priorice el bienestar y la seguridad de las mujeres afectadas.

      Contexto colombiano

      Dado el contexto de Colombia, donde las desigualdades de género se intersectan con problemáticas como la violencia armada, el acceso desigual a la tecnología y las brechas educativas, un proyecto de esta naturaleza debería adaptarse a las necesidades específicas del país. Algunas acciones clave serían:

      Identificación de prácticas locales e internacionales para analizar experiencias de otros países y adaptarlas a las realidades culturales, sociales y legales de Colombia.

      Diseño inclusivo para incorporar las voces de mujeres colombianas que han sufrido VGD y de organizaciones locales para garantizar un enfoque representativo.

      Enfoque territorial para reconocer las diferencias en el acceso y uso de la tecnología entre áreas urbanas y rurales, así como las dinámicas específicas de violencia en cada contexto.

      Colaboración interinstitucional para integrar el desarrollo del chatbot con esfuerzos de la sociedad civil, entidades estatales y organismos internacionales que trabajan en la atención a víctimas.

      Esto no solo permitiría responder a la violencia de género digital, sino que también podría contribuir a visibilizar y combatir las desigualdades estructurales que perpetúan esta problemática en Colombia.

    1. Risks, Limitations and Opportunities

      Corporalidades y Perspectiva Feminista

      El proyecto AymurAI aborda la justicia con un enfoque feminista, reconociendo las corporalidades de las víctimas de violencia de género (VBG por su sigla en inglés) y la necesidad de anonimizar datos sensibles para protegerlas. En Colombia, donde las desigualdades socioeconómicas y regionales afectan el acceso a la justicia, esta herramienta podría garantizar que los datos judiciales reflejen estas realidades y promuevan soluciones inclusivas y éticas.

      Traducción

      Dada la diversidad lingüística y cultural en Colombia, AymurAI podría incluir capacidades de traducción y procesamiento de datos multilingües. Esto sería clave para trabajar con lenguas indígenas, dialectos locales (culturemas) y documentos en formatos mixtos (digital y analógico), permitiendo que las decisiones judiciales sean analizadas y publicadas en contextos específicos de cada región.

      Inteligencia Artificial para Mitigar Sesgos

      Uno de los riesgos identificados es el sesgo en los datos judiciales. En Colombia, donde las jurisdicciones judiciales y los sistemas híbridos (analógico y digital) presentan variabilidad, AymurAI debería adaptarse para identificar y señalar estos sesgos, proporcionando contexto sobre las limitaciones de los datos. Por ejemplo, en zonas rurales con poca densidad poblacional, la anonimización adicional sería crucial para proteger la identidad de las personas.

      Estrategias de Implementación

      El proyecto plantea un enfoque gradual y adaptativo, priorizando casos piloto en tribunales específicos, con miras a extenderse a otras jurisdicciones. En Colombia, esto podría significar iniciar con tribunales especializados en violencia de género y, progresivamente, incorporar otras ramas judiciales. Las herramientas desarrolladas deben ser maleables para adaptarse a diversas necesidades locales, manteniendo una base tecnológica abierta y colaborativa.

      Innovación Social

      Transformar prácticas judiciales al crear oficinas especializadas en tribunales para gestionar datos legales con Inteligencia Artificial, al valorar la experiencia humana y utilizando la Inteligencia Artificial como una herramienta complementaria.

      Fomentar la justicia abierta para facilitar bases de datos públicas accesibles y contextualizadas, útiles para la elaboración de políticas públicas, activismo y generación de conciencia ciudadana.

      Mejorar la experiencia del usuario al incorporar visualizaciones interactivas para comunicar datos de forma comprensible y centrarse en aspectos menos visibles de la justicia.

      Retos en Colombia

      Infraestructura desigual y limitada en zonas rurales.

      Resistencia al cambio en sistemas judiciales tradicionales.

      Necesidad de entrenamiento para operadores judiciales en el uso de tecnodiversidades como la Inteligencia Artificial.

      Oportunidades

      Construcción de una justicia más inclusiva y centrada en las personas.

      Desarrollo de tecnología que respete las diversidades culturales y lingüísticas del país.

      Promoción de la transparencia y la participación ciudadana en los sistemas de justicia.

      AymurAI podría ser un catalizador para modernizar y feminizar la justicia en Colombia, integrando traducción, corporalidades y enfoques de Inteligencia Artificial éticos.

      Su implementación fortalecería la protección de las víctimas, mejoraría la calidad de los datos judiciales y abriría nuevas oportunidades para construir una justicia más accesible, equitativa y adaptada a las necesidades locales.

    2. Method and Plan

      El proyecto AymurAI se basa en principios de ciencia de datos feminista, integrando teorías como Data Feminism (D’Ignazio y Klein, 2020) y guías sobre aprendizaje automático centrado en las personas (Chancellor, 2018). Su enfoque se orienta al usuario y prioriza la colaboración con personal judicial y organizaciones feministas locales, con una constante evaluación ética durante el diseño y desarrollo. Estas características hacen que AymurAI sea adaptable al contexto colombiano, donde la justicia enfrenta desafíos en violencia de género (VBG por su sigla en inglés), desigualdades tecnológicas y diversidad cultural.

      Corporalidades

      En Colombia, las corporalidades de las víctimas de violencia de género requieren protección especial dentro de procesos judiciales. AymurAI puede garantizar la anonimización de datos sensibles, permitiendo analizar patrones sin comprometer identidades. Esto fortalecería sistemas judiciales como las comisarías de familia y las fiscalías, promoviendo un tratamiento ético y equitativo de las víctimas.

      Traducción

      El enfoque del proyecto es altamente adaptable al multilingüismo colombiano, considerando lenguas indígenas y variaciones dialectales en diferentes regiones. La herramienta necesitaría incorporar modelos que respeten y trabajen con la diversidad cultural, facilitando la traducción y análisis de documentos en diferentes idiomas locales.

      Inteligencia Artificial Centrada en las Personas

      AymurAI combina técnicas de expresiones regulares y aprendizaje automático (NLP) para extraer información estructurada de documentos legales. En el contexto colombiano, esto podría aplicarse para construir bases de datos abiertas que detallen los casos de violencia de género, al ayudar a generar políticas públicas informadas. La colaboración con expertos locales y organizaciones feministas garantizaría que los resultados reflejen las necesidades y realidades específicas del país.

      Cronograma y Viabilidad

      Un cronograma exploratorio, iterativo y de seis meses permitiría:

      Primera fase: Definición de requisitos, etiquetado manual de datos judiciales y desarrollo inicial de modelos basados en expresiones regulares y aprendizaje automático.

      Segunda fase: Evaluación de métricas (como precisión y sesgo) y construcción del prototipo.

      Tercera fase: Pruebas de usabilidad, refinamientos y pilotaje en un tribunal (equivalente a la implementación inicial en el Tribunal Penal 10 de CABA).

      Ventajas y Retos en Colombia

      Ventajas:

      Protección y anonimización de datos sensibles.

      Automatización de tareas administrativas judiciales.

      Creación de bases de datos accesibles y abiertas, fomentando la transparencia.

      Retos:

      Infraestructura desigual, especialmente en regiones rurales.

      Capacitación en tecnología para operadores judiciales.

      Manejo de sesgos y diversidad cultural en los modelos de Inteligencia Artificial.

      AymurAI tiene un alto potencial para contribuir a una justicia más ética, transparente y centrada en las personas en Colombia.

      La adaptación al contexto local, mediante la inclusión de traducción, protección de corporalidades y enfoque en Inteligencia Artificial ética, puede transformar significativamente la gestión de datos en casos de violencia de género.

    3. Proposed prototype

      El prototipo AymurAI, se inspira en el término quechua aymuray (tiempos de cosecha), propone un prototipo de Inteligencia Artificial para automatizar parcialmente la publicación y mantenimiento de datos abiertos en casos de violencia de género (VBG por su sigla en inglés). Aunque originalmente diseñado para los tribunales penales de CABA y México, su enfoque podría adaptarse al contexto colombiano, considerando los desafíos específicos de la justicia en este país, como las disparidades en infraestructura tecnológica, la necesidad de enfoque sensible al género y las dinámicas socioculturales complejas.

      Contexto Colombiano

      Corporalidades

      La justicia colombiana enfrenta retos particulares en la protección de las corporalidades de las víctimas de VBG. AymurAI podría ser una herramienta clave para garantizar que los datos sensibles sean anonimizados, protegiendo la identidad y contexto de las víctimas, mientras se recopilan datos estructurados sobre los casos para análisis y políticas públicas. Este enfoque fortalecería iniciativas locales como las comisarías de familia, las fiscalías y las líneas de atención a víctimas.

      Traducción y Localización Cultural

      Dado el multilingüismo y las diferencias culturales en Colombia con las lenguas indígenas y contextos rurales, sería crucial adaptar AymurAI para interpretar documentos en diversos idiomas locales, manteniendo su sensibilidad hacia las especificidades culturales. Además, los formatos comunes en los procesos judiciales colombianos (e.g., actas en Word o PDF) deberían integrarse al sistema para asegurar compatibilidad.

      Inteligencia Artificial y Justicia

      AymurAI aprovecharía técnicas como el reconocimiento de entidades nombradas (NER) y expresiones regulares para automatizar la extracción de datos relevantes de documentos legales. Este modelo puede capacitarse con datos de fallos judiciales colombianos, como los producidos por los juzgados especializados en VBG, para identificar patrones específicos en contextos nacionales.

      Análisis y transparencia de datos: El sistema podría ayudar a construir una base de datos abierta sobre casos de VBG en Colombia, promoviendo transparencia y permitiendo el análisis de tendencias que fortalezcan políticas públicas.

      Reducción de carga administrativa: AymurAI permitiría a los funcionarios judiciales automatizar tareas repetitivas como la anonimización de datos, mejorando la eficiencia del sistema judicial.

      Accesibilidad y equidad: Una interfaz sencilla aseguraría que incluso empleados judiciales sin conocimientos técnicos puedan operar el sistema, mejorando la inclusión en diferentes regiones del país.

      Retos en el Contexto Colombiano

      Infraestructura desigual: La conectividad limitada en áreas rurales podría ser un obstáculo; por ello, un sistema que funcione offline sería esencial.

      Protección de datos: Garantizar la seguridad y confidencialidad de la información judicial es crítico, especialmente en casos sensibles de VBG.

      Capacitación: Involucrar a los operadores judiciales en el uso de AymurAI, con énfasis en justicia de género y herramientas tecnológicas, será fundamental para su adopción efectiva.

      AymurAI podría ser una herramienta transformadora para el sistema judicial colombiano, combinando Inteligencia Artificial, sensibilidad cultural y un enfoque en la protección de las víctimas para avanzar hacia una justicia más eficiente, inclusiva y transparente.

    4. the current situation of justice data on GBV in Argentina and Mexico

      Frente al tema de corporalidades, en ambos países, los datos judiciales reflejan cómo las violencias de género afectan los cuerpos y vidas de las personas involucradas, especialmente mujeres y poblaciones vulnerabilizadas. Sin embargo, la falta de estandarización y transparencia limita la capacidad de analizar estas experiencias de manera integral. Los casos incluyen detalles sensibles como el tipo de violencia sufrida y los contextos socioeconómicos, enfatizando la importancia de las corporalidades en el diseño de políticas públicas basadas en evidencia.

      En cuanto a traducción, el proceso de convertir sentencias legales en datos estructurados involucra traducciones significativas, tanto desde el lenguaje natural de los documentos hacia categorías estandarizadas, como desde los sistemas judiciales hacia bases de datos públicas. Herramientas como “IA2” en Argentina y “Mis Aplicaciones” en México permiten anonimizar y adaptar sentencias para su publicación, aunque la traducción de estos datos al dominio público sigue siendo manual y limitada por los criterios subjetivos de los operadores judiciales.

      La Inteligencia Artificial juega un papel clave en la anonimización y estructuración de datos judiciales, pero enfrenta limitaciones. En Argentina, herramientas como IA2 automatizan parte del proceso, pero el trabajo manual sigue siendo necesario para agregar contexto y garantizar precisión. En México, el uso de Inteligencia Artificial está restringido a eliminar datos personales y depende de las decisiones de los jueces sobre qué información es de interés público. Estas implementaciones reflejan un potencial subutilizado de la Inteligencia Artificial para apoyar un análisis más amplio y sistemático de los casos de violencia de género (GBV por su sigla en inglés).

    5. Faced with the lack of official statistics in Latin America, individual women and women organisations made the decision, in recent years, to keep a record of feminicides published in digital and printed media, with the goals of giving visibility to the problem of GBV in their country and of sensitising society and public officials about these occurences.

      La ausencia de estadísticas oficiales sobre violencia de género (GBV por su sigla en inglés) en América Latina ha llevado a mujeres y organizaciones a registrar feminicidios mediante el análisis de medios impresos y digitales. Estos esfuerzos, como los informes de “La Casa del Encuentro” en Argentina y el mapa interactivo de feminicidios de María Salguero en México, no solo dan visibilidad a las víctimas, sino que también sensibilizan a la sociedad y a las autoridades públicas sobre la gravedad del problema.

      Desde el punto de vista de las corporalidades, los registros de feminicidios resaltan las historias individuales de las víctimas, mostrando su identidad, contexto y las circunstancias específicas de su muerte. Esto humaniza las estadísticas y visibiliza cómo las violencias machistas afectan de manera particular a los cuerpos de mujeres y personas diversas en diferentes esferas, incluyendo lo doméstico, laboral e institucional.

      En cuanto a traducción, la incorporación de herramientas tecnológicas, como los plugins de navegador y sistemas de alerta por correo, automatiza la recopilación de datos a partir de fuentes mediáticas. Estas herramientas permiten capturar y traducir información de textos periodísticos a bases de datos estructuradas, facilitando el análisis y la comunicación de los casos a nivel local e internacional.

      En cuanto a Inteligencia Artificial, iniciativas como “Datos contra el feminicidio” integran aprendizaje automático (machine learning) para identificar y procesar información relevante sobre feminicidios. Estas tecnologías contribuyen a la sistematización de datos. Es esencial ampliar el enfoque para capturar todas las formas y modalidades de violencia de género. Esto permitirá diseñar políticas públicas más efectivas que aborden la prevención, sanción y erradicación de estas violencias, destacando la necesidad de un enfoque integral y situado en el contexto latinoamericano.

    6. Our project seeks to effect change in the problem of GBV from a feminist, anti-technosolutionist perspective, which we expect to be transformative.

      Los riesgos de sesgos, falta de transparencia y consecuencias perjudiciales en la Inteligencia Artificial han sido ampliamente documentados. Frente a esto, el proyecto propone un enfoque feminista y colaborativo, usando la Inteligencia Artificial como herramienta de apoyo, no como sustituto del conocimiento humano, para abordar la violencia de género (GBV por su sigla en inglés) y fomentar la justicia social.

      Dentro de las corporalidades, se destaca la importancia de la participación humana, especialmente de expertos con conocimientos sobre desigualdades estructurales, para garantizar un diseño inclusivo y contextualizado. Esto se alinea con principios feministas que priorizan las intersecciones de género, raza y clase, y evita el uso de Inteligencia Artificial para vigilancia o control, optando por enfoques que respeten las diferencias corporales y contextos sociales.

      En cuanto al tema de la traducción, el proyecto utiliza modelos de procesamiento de lenguaje natural (NLP) adaptados a contextos hispanohablantes, como BETO, un modelo BERT entrenado en español. Este enfoque permite estructurar información de documentos legales, asegurando que los datos se procesen en su idioma y contexto originales, evitando sesgos asociados con modelos entrenados en inglés.

      La Inteligencia Artificial consiste en no automatizar decisiones judiciales ni predecir comportamientos, sino colaborar con expertos para estructurar datos legales y fomentar transparencia. Se inspira en enfoques feministas que abordan dinámicas de poder en sistemas sociotécnicos, subrayando la importancia de datos de alta calidad para informar políticas públicas basadas en evidencia y justicia abierta.

    7. The authors of this paper are four Latin American women that self-identify as intersectional feminists, based in the Global South (Argentina and Mexico) and in the Global North (Sweden), performing work and volunteer tasks in a variety of contexts (education, research, and NGOs — mostly DataGénero5).

      Las autoras, feministas de América Latina y Suecia, hablan sobre las desigualdades sociales desde una óptica que combina raza, clase social y género, inspirándose en diversas corrientes del feminismo, incluyendo el transfeminismo, el feminismo negro, indígena y el feminismo contra el capacitismo.

      En cuanto a las corporalidades sobre la base de una experiencia situada, las autoras subrayan que ninguna experiencia vital tiene mayor peso que otra, integrando las voces de mujeres y personas LGBTIQ+ desde diversas realidades. Reconocen la pluralidad del feminismo y buscan visibilizar las múltiples luchas dentro de los movimientos feministas, destacando el impacto del género en la vida cotidiana y los sistemas de poder.

      Por el lado de la traducción de datos y la justicia abierta, las autoras se inspiran en el feminismo de datos, y proponen el uso de herramientas de Inteligencia Artificial para traducir datos judiciales relacionados con violencia de género en formatos abiertos y contextuales. Esto busca hacer visibles las resoluciones legales sin descontextualizarlas ni comprometer datos sensibles, contribuyendo a la formulación de políticas públicas basadas en evidencia.

      La Inteligencia Artificial y el anti-soluccionismo, adoptan una postura crítica hacia la idea de que la Inteligencia Artificial puede “resolver” problemas sociales complejos como la violencia de género. En cambio, argumentan que la Inteligencia Artificial puede ser una herramienta para colaborar con actores humanos expertos en estos temas, ayudando a sistematizar datos de calidad. Rechazan la noción de que la Inteligencia Artificial pueda ser feminista por sí misma, pero promueven su uso por parte de feministas para avanzar en causas sociales.

      La propuesta, que se desarrolla con organizaciones como DataGénero y el Criminal Court 10 de Buenos Aires, incluye el diseño y prueba de una Inteligencia Artificial en contextos judiciales. Este enfoque colaborativo, nutrido por alianzas con colectivos de desarrollo de software y procesamiento de lenguaje natural, busca integrar perspectivas interseccionales del Sur Global en la creación de tecnologías justas y éticas.

      El prototipo propuesto se alinea con la Agenda 2030 de las Naciones Unidas para el Desarrollo Sostenible, especialmente con el ODS 16 (Paz, Justicia e Instituciones Sólidas), promoviendo sociedades justas, pacíficas e inclusivas. El principio de justicia abierta impulsa instituciones transparentes y responsables, garantiza el acceso a la información y protege las libertades fundamentales.

      Dos metas clave del ODS 16 son especialmente relevantes: la Meta 3, que fomenta el acceso equitativo a la justicia y el Estado de derecho, y la Meta 7, que promueve la toma de decisiones inclusivas, participativas y representativas. La judicatura es esencial para cumplir estas metas, contribuyendo además a los ODS 5 (Igualdad de género y empoderamiento de las mujeres) y 10 (Reducción de desigualdades dentro y entre países).

    8. harmful acts towards a person or a group of people based on their gender

      La intersección entre las corporalidades, la traducción de datos judiciales y el uso de Inteligencia Artificial en casos de violencia de género en América Latina. Muestra la falta de transparencia y datos accesibles sobre violencia de género contra mujeres y personas LGBTIQ+, lo que dificulta el acceso a la justicia y refuerza la desconfianza en los sistemas judiciales, especialmente en Argentina y México.

      Los autores proponen el desarrollo de AymurAI, un prototipo semi-automatizado que colabora con funcionarios judiciales para estructurar y anonimizar datos judiciales relacionados con la violencia de género antes de que escalen a feminicidios. Este proyecto, desde una perspectiva feminista interseccional y anti-soluccionista, busca diseñar tecnologías de Inteligencia Artificial que no sustituyan decisiones humanas, sino que apoyen la comprensión y visibilización de los diferentes tipos de violencia de género, incluyendo formas menos visibles como la violencia psicológica o económica.

      En cuanto a las corporalidades en el contexto social, la violencia de género afecta a mujeres, personas trans, no binarias y otras identidades de género, al manifestarse en dimensiones físicas, psicológicas, sexuales, económicas y políticas. La recopilación y apertura de datos judiciales sensibles permitiría identificar patrones de violencia, comprender las dinámicas de los sistemas judiciales y fomentar políticas públicas basadas en evidencia.

      Con respecto a la Inteligencia Artificial y la traducción de datos, la propuesta de AymurAI incluye el uso de Inteligencia Artificial para automatizar parcialmente el procesamiento de grandes volúmenes de datos judiciales. Lo que facilitaría la generación de conjuntos de datos anonimizados que, al ser revisados por expertos, contribuirían a la transparencia judicial, la colaboración intersectorial y el diseño de intervenciones más efectivas.

      El proyecto busca desafiar la instrumentalización de la Inteligencia Artificial como solución única, centrándose en garantizar la seguridad de los datos sensibles y en crear herramientas éticas que empoderen a los movimientos feministas del Sur Global.

    1. International cooperation and an approach to ADM and machine learning grounded in human rights.
      1.  Revisión de derechos humanos en la tecnología:
      

      Las agencias de la ONU deben revisar cómo se aplican las leyes y estándares internacionales de derechos humanos en la gestión de datos automatizados, el aprendizaje automático y su impacto en el género. Esto ayudaría a crear enfoques más creativos y adecuados para proteger derechos en esta era digital que avanza rápidamente. 2. Métricas para la inclusión digital: Es urgente crear y medir indicadores globales de inclusión digital, desglosados por género. Estos datos deben incluirse en los informes anuales de instituciones como la ONU, el FMI, la Unión Internacional de Telecomunicaciones, el Banco Mundial y otros organismos internacionales, para promover igualdad en el acceso y uso de la tecnología.

    2. Advocate for and adopt guidelines that establish accountability and transparency for algorithmic decision making (ADM) in both the public and private sectors.

      Estas propuestas buscan garantizar que la Inteligencia Artificial no perpetúe sesgos sistémicos y, en cambio, promueva un acceso equitativo a derechos y oportunidades

      Recomendaciones clave:

      Transparencia y responsabilidad en la toma de decisiones algorítmicas (ADM por su sigla en inglés):

      Instituir lineamientos para garantizar que los sistemas ADM sean responsables y transparentes, tanto en el sector público como privado.

      Realizar pruebas rigurosas durante todo el ciclo de vida de los sistemas de IA para identificar y mitigar sesgos y daños potenciales, asegurando que mejoren la calidad de vida y no controlen la experiencia humana.

      Crear marcos legales sólidos que supervisen y regulen la Inteligencia Artificial, al promover la rendición de cuentas.

      Participación activa y diversa:

      Garantizar la inclusión de mujeres y niñas, especialmente desde comunidades marginadas, en el diseño, creación y evaluación de ADM. Esto reconoce su experiencia y creatividad como una herramienta crucial para imaginar estructuras más inclusivas.

      Fomentar el equilibrio de género en equipos de diseño y toma de decisiones, e incentivar la diversidad interdisciplinaria y feminista para detectar y corregir sesgos en los sistemas.

      Datos inclusivos y desagregados:

      Desarrollar y abrir conjuntos de datos desagregados por género, clase y raza que permitan comprender y corregir fuentes de sesgo en la Inteligencia Artificial.

      Supervisar los procesos de recolección de datos con controles que garanticen que estos no sean obtenidos a expensas de las mujeres y otros grupos tradicionalmente excluidos.

      Cooperación internacional y enfoque en derechos humanos:

      Revisar las leyes internacionales de derechos humanos aplicadas a ADM para asegurar que sean adecuadas en la era digital y fomenten un enfoque inclusivo.

      Establecer métricas globales de inclusión digital, informadas por datos desagregados por sexo, para medir avances en equidad tecnológica.

      Impacto en Colombia

      Estas acciones permiten que las corporalidades diversas participen activamente en la transformación tecnológica del país. Promueven no solo la igualdad de género, sino también la creación de Inteligencias Artificiales que reflejen las realidades locales y respeten las particularidades de cada comunidad, abriendo camino hacia un futuro inclusivo y sostenible.

    1. Deploying Feminist AI

      La Inteligencia Artificial tiene el potencial de ser una herramienta transformadora para abordar problemas globales como la desigualdad de género, la crisis climática y las injusticias económicas. Sin embargo, las narrativas actuales sobre la Inteligencia Artificial tienden a centrarse en los riesgos y exclusiones, lo que puede desalentar su uso como herramienta positiva para el cambio social.

      Para el gremio de la traducción en Colombia, esta posibilidad presenta una oportunidad única, como intermediación lingüística clave en la transferencia cultural, la traducción puede desempeñar un papel fundamental en la democratización del acceso a la tecnología.

      Es crucial promover la idea de que las tecnodiversidades, incluida la Inteligencia Artificial, deben ser inclusivas por diseño y capaces de abordar desigualdades de género y sociales.

      El prototipado de Inteligencias Artificiales feministas en el sector público es clave para transformar estas narrativas. Este proceso requiere ideas locales, investigación interdisciplinaria y participación activa de diversos actores, incluidas las mujeres y niñas.

      En Colombia, el gremio de traducción puede contribuir traduciendo y adaptando contenidos relacionados con tecnologías inclusivas, así como ayudando a desarrollar Inteligencias Artificiales que respeten la diversidad cultural y lingüística.

      La construcción de una Inteligencia Artificial más inclusiva y feminista exige pensar en la tecnología como un bien público y colectivo.

      El gremio de traducción puede aportar al diseño de políticas y productos tecnológicos que reflejen las realidades locales, ayudando a codificar la igualdad de género y raza en los sistemas. Este enfoque permitirá no solo superar barreras históricas, sino también empoderar a las mujeres en el diseño y uso de tecnologías transformadoras.

      Al abrir espacios para que las mujeres participen en el diseño de Inteligencias Artificiales, se fomenta un futuro en el que las tecnologías de interés público tengan un impacto social positivo y sostenible, contribuyendo al avance de una sociedad más equitativa, tanto en Colombia como a nivel global.

    1. Who is the AI innovation economy for?

      La implementación de la Inteligencia Artificial en procesos públicos y privados tiene el potencial de amplificar o mitigar estas desigualdades:

      Inclusión en el diseño de Inteligencia Artificial ya que las comunidades marginadas deben participar activamente en la creación de datasets y sistemas de IA que respeten su identidad, necesidades y derechos.

      Fomento de la equidad porque la contratación pública puede usarse como herramienta para corregir desigualdades estructurales, exigiendo la participación de empresas que prioricen la diversidad y la justicia social en sus procesos tecnológicos.

      La riqueza lingüística de Colombia, que incluye lenguas indígenas y criollas, es un recurso invaluable que debe ser integrado en el desarrollo de IA:

      Crear bases de datos que incluyan lenguas como el wayuunaiki o nasa yuwe puede garantizar que las tecnologías no excluyan a comunidades no hispanohablantes.

      La traducción y localización de los procesos de contratación y regulación de Inteligencia Artificial permitirán a más sectores de la población comprender y participar en estos procesos.

      La contratación pública es una herramienta poderosa para modelar la economía de la innovación y promover la responsabilidad en el desarrollo de Inteligencia Artificial.

      Transparencia y rendición de cuentas

      La falta de transparencia en la contratación de la Inteligencia Artificial puede perpetuar desigualdades. Colombia puede adoptar medidas como:

      Creación de registros algorítmicos: Similar a las iniciativas de Ámsterdam y Helsinki, registrar y publicar información sobre los algoritmos usados en servicios públicos.

      Publicación de contratos de la Inteligencia Artificial: Hacer accesibles al público detalles clave de los contratos gubernamentales, como los estándares éticos que las empresas deben cumplir.

      Auditorías independientes: Garantizar que las tecnologías contratadas respeten los derechos humanos y eviten impactos negativos en poblaciones vulnerables.

      Inclusión y diversidad en la contratación pública

      Requisitos de diversidad: Exigir que las empresas contratadas para desarrollar una Inteligencia Artificial demuestren compromiso con principios de equidad, diversidad e inclusión.

      Incentivos a comunidades subrepresentadas: Promover la participación de pequeñas empresas lideradas por mujeres, indígenas o afrodescendientes en licitaciones tecnológicas.

      Regulación ética en el desarrollo de IA

      Estándares obligatorios de ética: Implementar marcos legales para regular las prácticas éticas de las empresas proveedoras de IA, como un estándar colombiano de impacto algorítmico (similar al AIA en Canadá).

      Cooperación internacional: Participar en iniciativas globales como GPAI para fomentar la responsabilidad en el desarrollo y despliegue de IA, asegurando que las empresas cumplan estándares internacionales.

      Principios feministas y justicia social en la Inteligencia Artificial colombiana

      La integración de principios feministas en la contratación y desarrollo de la Inteligencia Artificial puede garantizar que las tecnologías beneficien a todos los sectores de la población:

      Contratación equitativa: Diseñar sistemas de e-procurement que prioricen la contratación de empresas lideradas por mujeres y otras minorías históricamente excluidas.

      Reparación histórica: Usar la contratación pública para corregir desigualdades estructurales, asignando recursos a proyectos que beneficien a comunidades marginadas.

    1. three essential recommendations for building equality from scratch when designing e-procurement systems: civic participation, automation of reparation rules, and the constant improvement of the e-procurement platforms:

      En Colombia, las comunidades indígenas, afrodescendientes y campesinas enfrentan barreras estructurales que limitan su acceso a la participación económica y política, agravadas por la desigualdad en la distribución de recursos tecnológicos.

      La implementación de sistemas de contratación pública automatizados (e-procurement) en Colombia podría:

      Promover la participación activa de mujeres, personas con discapacidades y grupos étnicos en la lista de proveedores.

      Compensar desigualdades históricas al aplicar reglas de reparación que prioricen a las comunidades marginalizadas en la asignación de contratos.

      Por ejemplo, podrían diseñarse mecanismos para priorizar la contratación de mujeres rurales y pequeñas cooperativas lideradas por minorías en sectores como la agricultura o la tecnología.

      Colombia tiene una rica diversidad lingüística con lenguas indígenas, criollas y el español. Para que la Inteligencia Artificial sea verdaderamente inclusiva, es crucial desarrollar datasets localizados y traducir contenidos a lenguas como el wayuunaiki, emberá o nasa yuwe.

      Garantizar que las comunidades no hispanohablantes puedan participar en procesos de contratación pública.

      Reducir el sesgo en la Inteligencia Artificial al incorporar datos lingüísticos y culturales diversos en el entrenamiento de algoritmos.

      Tal como se observa en iniciativas como la plataforma Common Voice en África, Colombia podría promover proyectos similares para recopilar y digitalizar lenguas locales, fortaleciendo la inclusión en sistemas automatizados de gobernanza.

      Inspirándose en el enfoque presentado, Colombia puede utilizar Inteligencia Artificial y e-procurement para mejorar los procesos de contratación pública con énfasis en equidad e inclusión:

      1. Participación cívica

      Crear plataformas abiertas donde las comunidades puedan participar activamente en el diseño y mejora de los sistemas.

      Incluir mecanismos de retroalimentación para que las decisiones sean transparentes y respondan a las necesidades locales.

      1. Reglas de reparación automatizadas:

      Implementar medidas temporales que prioricen a mujeres, minorías étnicas y personas con discapacidad en los procesos de contratación.

      Diseñar incentivos económicos para cooperativas lideradas por mujeres y comunidades indígenas, promoviendo la redistribución equitativa de recursos públicos.

      1. Mejora constante de los sistemas:

      Garantizar que las plataformas sean de código abierto para permitir auditorías y mejoras colaborativas.

      Documentar públicamente los cambios realizados en los sistemas, asegurando que respondan a las demandas ciudadanas.

      Principios feministas en la tecnología gubernamental

      Adoptar un enfoque feminista en la implementación de tecnologías emergentes en Colombia puede:

      Promover la igualdad de género al incorporar principios de equidad desde el diseño de Inteligencia Artificial.

      Aumentar la transparencia diseñar sistemas que prioricen los derechos humanos y eviten prácticas discriminatorias.

      Fortalecer la gobernanza democrática al integrar la perspectiva de género en las políticas públicas de contratación.

      Por ejemplo, los sistemas de contratación pública podrían evaluar automáticamente la representación de género entre los proveedores, asegurando una distribución justa de oportunidades.

    1. AI models in Africa

      Estudio Comparativo: África y Colombia

      África y Colombia comparten desafíos similares en cuanto a la desigualdad, el acceso limitado a servicios básicos y la diversidad cultural. Las lecciones del Makerere AI Lab pueden inspirar soluciones en Colombia, como:

      Usar Inteligencia Artificial para la detección temprana de enfermedades en humanos y cultivos, combinando tecnologías móviles y datos localizados.

      Generar datasets diversos para sistemas de reconocimiento de voz en lenguas minoritarias.

      Promover un enfoque “de abajo hacia arriba” en la creación de datos, garantizando la participación activa de las comunidades en la recolección y uso de información.

    2. the most critical issues to harness innovation within the AI ecosystem

      La diversidad corporal en Colombia abarca una amplia gama de experiencias, marcadas por la riqueza multicultural y la interacción de comunidades indígenas, afrodescendientes, campesinas y urbanas. Esta diversidad también está entrelazada con el acceso desigual a la tecnología, la salud y la educación, especialmente en áreas rurales.

      El uso de la Inteligencia Artificial para abordar problemas sociales, como se ha hecho en África, puede inspirar iniciativas en Colombia. Por ejemplo:

      La Inteligencia Artificial para diagnósticos tempranos de enfermedades como el cáncer de mama o la tuberculosis, adaptados a los contextos rurales colombianos, donde los servicios médicos son limitados.

      Modelos de Inteligencia Artificial para identificar plagas y enfermedades en cultivos de importancia para las comunidades rurales, como el café, el plátano o el maíz.

      Considerar las diversidades corporales al diseñar soluciones que sean accesibles para todas las personas, independientemente de sus capacidades físicas o contexto social.

      La traducción en Colombia puede desempeñar un papel fundamental en la creación y el uso de datos localizados para entrenar a la Inteligencia Artificial. Similar a la inclusión de Luganda en el proyecto Common Voice en África, se pueden desarrollar iniciativas para recopilar y traducir datos en lenguas indígenas colombianas, como el wayuunaiki, nasa yuwe o emberá.

      Ampliar la representación de las lenguas indígenas en aplicaciones de la Inteligencia Artificial, como asistentes virtuales o sistemas de reconocimiento de voz.

      Ayudar a preservar y revitalizar estas lenguas al integrarlas en tecnologías modernas.

      Generar datasets lingüísticos diversos que fomenten el desarrollo de Inteligencia Artificial inclusivas, contextualizadas y éticamente responsables.

      La Inteligencia Artificial para el bien social descrito en África puede adaptarse al contexto colombiano, aprovechando la “tubería de datos a impacto” para resolver problemas reales.

      La identificación de problemas debe ser participativa, integrando a las comunidades afectadas.

      Soluciones para mejorar la logística de distribución de alimentos en regiones apartadas.

      Inteligencia Artificial para identificar y mitigar riesgos ambientales en zonas afectadas por la minería ilegal o la deforestación.

      Es crucial desarrollar datasets localizados y representativos para evitar sesgos en los modelos de Inteligencia Artificial.

      Bases de datos agrícolas que reflejen las particularidades de los ecosistemas colombianos.

      Datos de salud adaptados a las diversidades genéticas y culturales del país.

      El diseño de IA debe basarse en el entendimiento del contexto local y cultural.

      Adaptar modelos a las necesidades específicas de comunidades indígenas y afrodescendientes.

      Integrar saberes tradicionales en soluciones tecnológicas, reconociendo el conocimiento colectivo y las prácticas ancestrales.

      La educación en ética de la Inteligencia Artificial es esencial para formar profesionales conscientes de los impactos sociales y culturales de sus creaciones. Además, deben establecerse directrices claras para implementar principios éticos en el desarrollo de tecnologías, fomentando prácticas inclusivas y no extractivas.

    1. groups are emerging

      Estudio de Caso en Colombia

      La digitalización de territorios en proyectos de conservación en Colombia puede tener implicaciones graves si no se respetan los derechos indígenas. Por ejemplo:

      Proyectos de conservación basados en Inteligencia Artificial que clasifican áreas protegidas sin considerar que estos territorios son habitados y administrados por comunidades indígenas pueden generar conflictos y despojo.

      La ausencia de perspectivas colectivas en los algoritmos de Inteligencia Artificial refuerza narrativas individualistas que no reflejan la cosmovisión indígena sobre la naturaleza como un ente vivo y compartido.

      La posición ética planteada por Indigenous AI resalta la necesidad de redefinir cómo se colectivizan el conocimiento y la identidad digital, respetando los valores comunitarios y evitando procesos extractivos.

    2. We are essentially digitizing trees, animals, and plants and rivers, and boundaries, defining those using satellite imagery.

      En Colombia, las corporalidades están profundamente vinculadas a la identidad cultural, territorial y espiritual. Para muchas comunidades indígenas, afrodescendientes y campesinas, el cuerpo no solo es físico, sino también un puente con la tierra y la naturaleza.

      Estas comunidades entienden el territorio como un elemento vital de su existencia colectiva, lo que contrasta con las visiones occidentales que separan al individuo del entorno natural.

      La digitalización de territorios, como se plantea en el uso de la Inteligencia Artificial para conservación, presenta desafíos éticos importantes. Clasificar y definir tierras y recursos naturales a través de imágenes satelitales y algoritmos puede despojar a estas comunidades de su conexión simbólica y material con el territorio, perpetuando desigualdades históricas y vulnerando sus derechos culturales y corporales.

      La traducción en Colombia podría desempeñar un papel clave al mediar entre las perspectivas indígenas y las prácticas occidentales de conservación y digitalización de territorios.

      Traducir no solo lenguas, sino también conceptos culturales como la relacionalidad con la naturaleza y el conocimiento colectivo, es esencial para evitar malentendidos y garantizar que las voces de las comunidades sean escuchadas.

      Por ejemplo, cuando se desarrollan proyectos de conservación basados en la Inteligencia Artificial, la traducción puede ayudar a garantizar que los principios, usos y riesgos de estas tecnologías sean entendidos desde las cosmovisiones indígenas, en lugar de imponer terminologías y enfoques que no respeten sus prácticas y saberes.

      La implementación de Inteligencia Artificial en conservación y digitalización de tierras en Colombia debería centrarse en que:

      Las comunidades indígenas deban ser incluidas como actores principales en el diseño de tecnologías que afectan sus territorios. Esto requiere procesos de consulta previos, libres e informados, en línea con los estándares internacionales de derechos humanos.

      En lugar de imponer un modelo de digitalización basado en la separación tierra-persona, la Inteligencia Artificial deba reflejar cómo estas comunidades perciben su conexión espiritual, cultural y económica con la naturaleza.

      La Inteligencia Artificial deba reconocer y respetar el conocimiento colectivo de las comunidades. Esto incluye evitar la apropiación de datos que no consideren el carácter comunal de la identidad y el saber indígena, promoviendo en su lugar principios éticos como los planteados en la posición de Indigenous AI.

    1. The Oracle for Transfeminist Technologies

      Las herramientas especulativas como The Oracle for Transfeminist Technologies podrían inspirar prácticas y tecnologías que respeten y celebren la pluralidad de cuerpos y subjetividades.

      En un país con desigualdades, las tecnologías transfeministas podrían abordar temas como el acceso a la salud, la educación y la representación, diseñando soluciones inclusivas que desafíen la discriminación estructural basada en el cuerpo, el género o la sexualidad.

      La traducción en Colombia desempeñaría un papel crucial en la preservación y promoción de lenguas indígenas, afrodescendientes y criollas.

      Desde una posibilidad transfeminista, la traducción podría ir más allá del lenguaje, integrando valores de justicia social y respeto por las diversidades. Por ejemplo, el acto de traducir no solo debería ser lingüístico, sino también cultural, incorporando sensibilidades hacia las experiencias de género y sexualidad que desafían las normas hegemónicas.

      The Oracle for Transfeminist Technologies puede inspirar la creación de herramientas y metodologías que permitan a las comunidades marginadas de Colombia expresar sus narrativas y cosmovisiones de manera auténtica, respetando su diversidad cultural y corporal.

      En Colombia, la Inteligencia Artificial podría tener el potencial de ser una herramienta transformadora, pero debe ser desarrollada con un enfoque ético y transfeminista para evitar reproducir dinámicas de exclusión.

      El uso de valores transfeministas en el diseño de tecnologías podría guiar el desarrollo de sistemas que promuevan:

      Garantizar que la la Inteligencia Artificial no excluya a personas trans, no binarias o pertenecientes a comunidades indígenas y afrodescendientes.

      Co-crear tecnodiversidades con las comunidades, adaptando los valores y necesidades locales, al igual que lo hace The Oracle for Transfeminist Technologies en sus talleres participativos.

      Reconocer que los datos no son neutrales, y fomentar prácticas de recolección y uso de datos que respeten la autonomía y dignidad de las personas y comunidades.

      The Oracle for Transfeminist Technologies, demuestra cómo las tecnodiversidades pueden diseñarse desde valores transfeministas. En el contexto colombiano, estas metodologías podrían adaptarse para abordar problemáticas locales, como:

      La visibilización de experiencias trans y no binarias en el acceso a derechos.

      El diseño de plataformas que amplifiquen voces diversas, en especial las de personas marginadas por su género, raza o etnicidad.

      La creación de tecnologías que fomenten redes de apoyo y solidaridad entre comunidades diversas.

    1. Case study: Papa Reo

      Estudios de Caso: Papa Reo y Colombia

      Papa Reo, una iniciativa de innovación indígena, muestra cómo las cosmovisiones pueden moldear soluciones tecnológicas éticas y sostenibles. En Colombia, los pueblos indígenas y afrodescendientes podrían liderar proyectos tecnológicos basados en sus propias prácticas culturales, como el cuidado comunitario de datos y los principios de reciprocidad.

      Iniciativas de traducción y conservación de lenguas indígenas en Colombia, inspiradas en modelos como Papa Reo, podrían desarrollarse con el objetivo de preservar el patrimonio lingüístico y cultural, evitando enfoques extractivos y promoviendo la participación comunitaria.

      Los principios feministas de autonomía, consentimiento, conocimiento situado y conectividad sembrada, propuestos por comunidades tecnológicas en América Latina, también son aplicables a las diversidades en Colombia. Estos valores fomentan la creación de tecnologías que reflejan y respetan las experiencias de género, raza y clase, desmantelando sistemas opresivos.

    2. Non-Western ethics

      En Colombia, la diversidad corporal refleja no solo las características físicas y culturales de su población, sino también las dinámicas sociales, económicas y políticas que afectan la inclusión y la representación. Las comunidades indígenas, afrodescendientes y otras minorías han luchado por el reconocimiento de sus derechos y por la valorización de sus cosmovisiones, que incluyen principios similares a los de reciprocidad y relacionalidad descritos.

      En contextos comunitarios, prácticas como la minga son expresiones de esta reciprocidad, donde el trabajo colectivo no es una acción voluntaria aislada, sino una responsabilidad mutua.

      La traducción en Colombia como intermediación lingüística permite preservar y visibilizar las lenguas indígenas, afrodescendientes y criollas, al conectar estas comunidades con la nación y el mundo. Desde este enfoque, la traducción no sólo debe respetar el lenguaje, sino también los valores y cosmovisiones de las comunidades.

      Iniciativas como Papa Reo, promueve el desarrollo tecnológico y lingüístico cuya raíz está en los principios comunitarios, evitando la explotación cultural y fomentando una representación auténtica.

      La Inteligencia Artificial en Colombia podría aprender de iniciativas como Papa Reo, integrando principios de relacionalidad y reciprocidad en su diseño y uso. En lugar de imponer soluciones tecnológicas adaptadas a las comunidades, el desarrollo de la Inteligencia Artificial en el país debería partir de las necesidades, valores y principios de las mismas.

      Esto es crucial para evitar procesos extractivos en el manejo de datos, especialmente aquellos provenientes de comunidades indígenas y rurales. Por ejemplo, un sistema de Inteligencia Artificial que respete la autonomía de las comunidades podría implementar licencias similares a kaitiakitanga, donde los datos no son propiedad privada, sino bienes comunes protegidos.

    3. Gendered innovation

      En Colombia, las diversidades corporales, que incluyen la intersección de género, orientación sexual, raza, condición de discapacidad y condición socioeconómica, reflejan desigualdades históricas y estructurales. Las mujeres y niñas marginadas, así como otras comunidades vulnerables, enfrentan barreras para acceder y participar en el diseño y gobernanza de tecnologías como la Inteligencia Artificial. Sin embargo, estas personas son agentes de cambio y poseen conocimientos prácticos y resiliencia que pueden ser fundamentales para el desarrollo de tecnologías que respondan a sus realidades.

      Incorporar las experiencias y sensibilidades de las Inteligencia Artificial permitiría diseñar herramientas más inclusivas que contribuyan al crecimiento personal y comunitario. Estas posibilidades pueden abordar sesgos algorítmicos y fomentar aplicaciones tecnológicas que promuevan la justicia social y la dignidad.

      Colombia, con su rica diversidad lingüística que incluye 65 lenguas indígenas reconocidas, enfrenta desafíos similares a los descritos en el caso del proyecto Papa Reo para el maorí. Muchas comunidades indígenas y afrodescendientes en el país tienen lenguas propias que son esenciales para expresar sus identidades culturales, pero estas lenguas están subrepresentadas en las tecnodiversidades actuales.

      Las tecnologías de reconocimiento de voz y procesamiento de lenguaje natural no están suficientemente desarrolladas para lenguas indígenas.

      La falta de acceso a tecnologías en lenguas maternas perpetúa desigualdades en el acceso a la educación, la participación política y otros derechos.

      Proyectos como el Papa Reo podrían inspirar el desarrollo de herramientas similares en Colombia, promoviendo plataformas tecnológicas que incorporen lenguas indígenas para fortalecer la identidad cultural y la inclusión.

      La interseccionalidad y el ecofeminismo ofrecen herramientas valiosas para cuestionar las dinámicas de poder en la producción y uso de la Inteligencia Artificial en Colombia, por ejemplo:

      Interseccionalidad: Reconocer cómo las opresiones múltiples (género, etnia, clase) afectan el acceso y uso de tecnologías, y diseñar soluciones que atiendan estas necesidades interrelacionadas.

      Asimismo, incorporar cosmovisiones y saberes ancestrales en el diseño tecnológico para desafiar los paradigmas dominantes y construir modelos alternativos de innovación.

      Ecofeminismo: Abogar por tecnologías que no solo sean socialmente justas, sino también sostenibles y respetuosas con el medio ambiente.

      La creación de tecnologías que respeten las necesidades ecológicas y culturales de las comunidades locales, como herramientas para la gestión sostenible de recursos naturales o la preservación de lenguas y saberes indígenas.

      La Inteligencia Artificial en Colombia tiene el potencial de abordar las desigualdades locales si se desarrolla desde una lógica inclusiva y alternativa que:

      Promueva la participación de comunidades diversas, especialmente de mujeres y personas con discapacidades, en todas las etapas de desarrollo de la tecnología.

      Incorpore lenguas y perspectivas locales en las bases de datos y algoritmos.

      Garantice la transparencia, la gobernanza inclusiva y la responsabilidad en el uso de tecnologías.

      Para el futuro se podrían:

      Implementar políticas que financien proyectos de tecnología inclusiva y promuevan la participación comunitaria en su diseño.

      Crear espacios para que mujeres, comunidades indígenas y otros grupos marginados puedan aportar su experiencia y creatividad al desarrollo tecnológico.

      Crear proyectos piloto que estén inspirados en iniciativas como Papa Reo, desarrollar herramientas de IA para lenguas indígenas en Colombia que sirvan como modelo para otras regiones.

    4. According to Srinivasan (2019),1 the way people in the global South use and experience digital technologies could help bring a different understanding to tech innovation and its applications in the real world and the ways in which they are built for and by users.

      Las comunidades indígenas en Colombia representan un componente esencial de la diversidad cultural, étnica y epistemológica del país. Estas comunidades poseen conocimientos ancestrales que pueden aportar soluciones innovadoras frente a problemas complejos, como la sostenibilidad ambiental, la gestión de recursos y la convivencia en contextos de diversidad. Estos saberes, aunque históricamente marginados, tienen el potencial de enriquecer la forma en que se diseñan y utilizan las tecnodiversidades, incluida la Inteligencia Artificial, para que sean inclusivas y contextualizadas.

      La implementación de tecnologías que respeten y promuevan las lenguas indígenas puede contribuir a la preservación del patrimonio cultural y facilitar el acceso a derechos fundamentales para estas comunidades.

      Asimismo, la traducción en Colombia, particularmente en el contexto de lenguas indígenas, es una herramienta fundamental para la inclusión y la equidad. Dada la diversidad lingüística del país, la traducción puede actuar como intermediación multilíngue entre estas comunidades y el desarrollo tecnológico.

      La Inteligencia Artificial puede desempeñar un papel crucial en la traducción automática y el procesamiento del lenguaje natural para lenguas indígenas. Sin embargo, esto requiere una infraestructura adecuada y un enfoque ético para garantizar que estas tecnologías respeten las particularidades culturales como los culturemas y no refuercen asimetrías de poder.

      Colombia, desde el Sur Global, enfrenta desafíos significativos en términos de desigualdad y acceso a tecnología. Sin embargo, también tiene la oportunidad de liderar un modelo de innovación que sea sensible a las realidades locales y que priorice la justicia social y ambiental. La Inteligencia Artificial podría:

      Diseñar tecnologías accesibles que respondan a las necesidades específicas de comunidades en contextos de bajos recursos.

      Desarrollar algoritmos y bases de datos que incluyan y prioricen las lenguas y conocimientos indígenas.

      Abordar problemas ambientales de manera contextualizada y sostenible.

      Las políticas públicas deben promover la participación activa de las comunidades indígenas y otros actores marginados en la creación y uso de tecnologías. Esto incluye:

      Financiación para proyectos de traducción y preservación de lenguas indígenas utilizando la Inteligencia Artificial.

      Promoción de la participación comunitaria en el diseño de tecnologías.

      Regulaciones éticas para garantizar que las tecnologías no perpetúen formas de violencia estructural ni exclusión.

    1. transfeminist knowledge sharing

      El conocimiento situado, una noción central en los feminismos del sur global, nos recuerda que los cuerpos están profundamente arraigados en contextos históricos, políticos y sociales. En este sentido, el diseño de Inteligencias Artificiales debe alejarse de la abstracción universalista y abordar las necesidades de cuerpos específicos, respetando sus narrativas.

      El diseño colectivo implica la participación directa de comunidades que han sido excluidas de las discusiones sobre tecnología. Desde una posibilidad transfeminista, esto no solo incluye a mujeres cisgénero, sino también a personas no binarias, trans y de diversas experiencias de género. Esto asegura que la Inteligencias Artificiales refleje realidades múltiples y no refuerce estructuras de poder normativas.

      Las comunidades indígenas, con su profundo conocimiento de la conservación y la interacción armónica con el entorno, aportan principios esenciales para el diseño ético de la Inteligencia Artificial. Estas comunidades entienden la tecnología como una extensión del cuerpo colectivo, no como una herramienta separada. La Inteligencia Artificial, podría integrarse como una herramienta para el bienestar ecológico y cultural, en lugar de un instrumento extractivista.

    1. Imagine you are deaf and blind

      Imagínate vivir en condición de discapacidad visual y auditiva, dependiendo exclusivamente de otras personas para lograr una traducción del mundo que te rodea.

      Tu percepción está moldeada por la información que otros eligen compartir contigo y cómo la interpretan. Esta traducción no es neutral; está impregnada de sesgos, prioridades, y limitaciones.

      Los algoritmos de Inteligencia Artificial, actúan como traductores de datos a decisiones y también presentan sesgos. Pero, ¿qué sucede cuando esas traducciones fallan o privilegian ciertas perspectivas sobre otras?

      Los algoritmos, en su esencia, son cuerpos digitales que interpretan, procesan y deciden. Sin embargo, estos cuerpos no existen en el vacío. Son creados por humanos, influenciados por sus propias experiencias, limitaciones, y sesgos. En este sentido, la Inteligencia Artificial no solo traduce datos, sino también las prioridades y omisiones de quienes la diseñan.

      El sesgo algorítmico es un reflejo directo de cómo ciertos cuerpos son sistemáticamente silenciados o malinterpretados en los datos. Por ejemplo, los sistemas de reconocimiento facial han mostrado tasas significativamente más altas de error al identificar rostros de personas negras o mujeres, lo que deriva en daños irreversibles como acusaciones falsas o vigilancia excesiva. Estos errores no son solo técnicos; son éticos, porque los cuerpos afectados no solo son datos mal clasificados, sino personas que cargan con las consecuencias.

      Las decisiones de diseño, como qué categorías incluir o qué diferencias ignorar, traducen las vidas de las personas en formatos legibles para una máquina, pero a menudo lo hacen de forma reductiva. Por ejemplo, nombres o características culturales pueden ser transformados o eliminados debido a limitaciones en la estructura del sistema. Estas decisiones, aunque aparentemente técnicas, tienen implicaciones en la forma en que los cuerpos son reconocidos o desestimados en los espacios sociales y legales.

      La traducción sirve como intermediación no sólo lingüística sino como transformara de problemas complejos del mundo real en un modelo simplificado que una máquina pueda procesar. Sin embargo, esta traducción no es neutral ni universal. Es un proceso moldeado por el lenguaje, el contexto cultural, y las prioridades del equipo de desarrollo.

      Al igual que en la traducción entre idiomas, traducir problemas sociales en modelos de Inteligencia Artificial implica decisiones sobre qué preservar, qué transformar, y qué descartar. Un equipo de desarrollo que no comprende las complejidades culturales del contexto que está modelando puede introducir sesgos significativos.

      En muchas ocasiones, los sistemas de Inteligencia Artificial traducen las identidades humanas en categorías discretas, ignorando las complejas intersecciones de raza, género, clase y otras variables. Por ejemplo, una Inteligencia Artificial diseñada para ser justa con mujeres o con personas negras podría ignorar las experiencias específicas de las mujeres negras, perpetuando la exclusión de aquellos en las intersecciones de estas categorías.

      Los algoritmos tienen un impacto físico y tangible en los cuerpos humanos. Desde negaciones de crédito hasta vigilancia injusta, estos sistemas afectan de manera desproporcionada a los grupos marginados.

      La diversidad en los equipos de desarrollo debe ir más allá de una métrica. Es esencial incluir las voces y experiencias de aquellos más afectados por los sistemas algorítmicos.

      Las decisiones de diseño deben basarse en un profundo entendimiento cultural y social. Esto implica consultar a expertos locales y a las comunidades afectadas para garantizar que la Inteligencia Artificial refleje sus realidades, en lugar de distorsionarlas.

      Las instituciones que implementan IA deben abrir sus sistemas a auditorías públicas, permitiendo que las comunidades afectadas cuestionen y revisen los algoritmos que moldean sus vidas.

      Ninguna Inteligencia Artificial es neutral ni perfecta. Las empresas deben ser transparentes sobre las limitaciones de sus modelos y educar a los usuarios en la identificación y mitigación de sesgos.

    1. Groups Fairness vs Individual Fairness

      Las métricas de equidad en inteligencia artificial consiste en equilibrar las necesidades y derechos de los individuos con los de los grupos a los que pertenecen. En esta interacción, los cuerpos, como sujetos de políticas, datos y decisiones, son tanto el objeto de la equidad como el espacio donde se manifiestan sus fallas. Al mismo tiempo, traducir valores éticos en métricas matemáticas resalta los límites y riesgos de confiar únicamente en lo cuantitativo para resolver problemas profundamente humanos.

      Muchas métricas de equidad, como paridad demográfica o igualdad de oportunidades, priorizan problemas entre grupos tales como género o raza. No obstante, esta priorización puede generar nuevas desigualdades dentro de esos mismos grupos. Por ejemplo:

      Buscar igualdad en las tasas de aceptación entre grupos, sin necesariamente garantizar que los individuos más cualificados sean seleccionados. Esto puede incluir a personas menos capacitadas en un esfuerzo por equilibrar resultados entre géneros o razas.

      Dar prioridad a contratar a los individuos más cualificados, independientemente del grupo, lo que puede excluir a grupos marginados.

      Estas desigualdades generan costos. La primera puede aumentar la percepción de injusticia entre individuos del mismo grupo (un postulante cualificado rechazado mientras uno menos cualificado es aceptado). La segunda perpetúa desigualdades estructurales al priorizar una lógica de mérito que no considera las barreras históricas. Esta tensión refleja una realidad ineludible: no existe una solución técnica capaz de satisfacer simultáneamente todas las demandas de equidad.

      La interseccionalidad complica aún más estas dinámicas. Un algoritmo que parece justo en términos de género (hombres/mujeres) o raza (blancos/negros), puede ser injusto para subgrupos en las intersecciones de estas categorías, como mujeres afro, indígenas, etc. Estas identidades no son meras combinaciones de atributos; son experiencias vividas que reflejan múltiples niveles de opresión y privilegio.

      En un sistema de contratación, la representación equitativa de hombres y mujeres puede ocultar la exclusión sistemática de mujeres racializadas o indígenas. Esto subraya cómo la traducción de conceptos éticos en métricas matemáticas puede pasar por alto la complejidad de las experiencias humanas.

      En el diseño de la Inteligencia Artificial, la traducción no solo implica convertir datos en modelos, sino también transcribir principios éticos en reglas operativas. Esta traducción puede ser empoderadora o dañina para los cuerpos que impacta.

      Empoderadora en el sentido en que una Inteligencia Artificial que integra principios éticos mediante enfoques participativos y contextualizados puede visibilizar y mitigar desigualdades estructurales.

      Dañina en el sentido en que si las decisiones se limitan a métricas aisladas, como maximizar precisión, las Inteligencias Artificiales pueden reforzar jerarquías preexistentes, ignorando los cuerpos marginados que quedan fuera de su diseño.

      Priorizar lo mensurable sobre lo significativo en el sentido en que los cuerpos afectados por estas decisiones recuerdan que, detrás de cada dato, hay vidas humanas con historias complejas.

      Para lograr una ética corporal en la Inteligencia Artificial y para abordar estas tensiones, sería clave una ética que reconozca tanto los cuerpos como los cuerpos que usan ensamblajes para programar a la Inteligencia Artificial:

      Las métricas de equidad deben diseñarse de manera participativa, integrando las experiencias de los cuerpos afectados. Esto requiere un enfoque interdisciplinario que combine ética, ciencias sociales e ingeniería.

      La equidad debería ser un proceso continuo, lo que incluye auditorías regulares para identificar y mitigar sesgos que surgen en datos y modelos.

      Las métricas deben ir más allá de categorías rígidas y considerar las intersecciones complejas que definen las experiencias humanas.

      Replantear el objetivo técnico de los modelos, priorizando minimizar daños sobre maximizar precisión. Esto quiere decir que lo ideal sería reorientar la eficiencia hacia resultados que reflejen valores humanos.

    2. What is fairness?

      Los cuerpos, la traducción y la Inteligencia Artificial vistos desde una posibilidad ética en la equidad revela tensiones profundas entre lo cuantificable y lo ético, especialmente cuando consideramos cómo la Inteligencia Artificial impacta los cuerpos. En el centro de estas tensiones yace un desafío, traducir conceptos éticos complejos, como la equidad, en métricas operativas que puedan implementarse en modelos matemáticos. Sin embargo, esta traducción no es neutral ni perfecta, es un acto cargado de decisiones políticas, éticas y culturales que afectan directamente a las corporalidades.

      Primero que todo, el cuerpo en el centro del problema refleja que los cuerpos son los sujetos finales de las decisiones algorítmicas. Por ejemplo, en el caso de las métricas de paridad demográfica y de igualdad de oportunidades, los cuerpos se convierten en estadísticas como los números de aceptación o rechazo y probabilidades calculadas. Esto despersonaliza a los individuos y reduce sus complejas experiencias a puntos de datos que se integran en sistemas automatizados.

      Además, el impacto sobre los cuerpos marginados no puede desvincularse de sus contextos culturales y sociales. Por ejemplo, la paridad demográfica puede corregir desigualdades numéricas, pero si la Inteligencia Artificial perpetúa estereotipos o malinterpreta características culturales en sus métricas de similitud, los cuerpos aún enfrentan injusticias.

      segundo, la traducción vista desde las posibilidades éticas hasta la matemática implica que la traducción de conceptos éticos en modelos matemáticos, como los índices de entropía generalizada o las métricas de equidad grupal, enfrenta una paradoja fundamental ya que la ética es intrínsecamente contextual y fluida, mientras que las matemáticas buscan exactitud, consistencia y universalidad. Esto da lugar a dilemas como el teorema de imposibilidad, donde no es posible satisfacer simultáneamente múltiples métricas de equidad.

      Este proceso de traducción puede ocultar o amplificar sesgos, dependiendo de cómo se define y mide la similitud entre individuos. Por ejemplo, al intentar medir similitud entre postulantes a un empleo, ¿cómo se traduce la experiencia laboral de una mujer en un contexto cultural donde históricamente se han excluido sus contribuciones? Traducir esta experiencia en un valor numérico puede distorsionar las realidades de los cuerpos que pretende representar.

      Tercero, la Inteligencia Artificial como cuerpo traductor indica que no solo traduce datos, sino también cuerpos y experiencias, reduciéndolos a representaciones que interactúan con sistemas automatizados. Por lo tanto, la Inteligencia Artificial actúa como un “cuerpo traductor” que interpreta y reconfigura las relaciones de poder existentes. Un ejemplo es la dificultad de aplicar métricas de equidad grupal en contextos donde las desigualdades históricas han creado disparidades profundas en las oportunidades educativas y económicas.

      Por último, el problema surge cuando la Inteligencia Artificial perpetúa, en lugar de mitigar, estas desigualdades. Por ejemplo, si una métrica de igualdad de oportunidades selecciona predominantemente a individuos del grupo mayoritario debido a sus mayores tasas de calificación previa, las dinámicas de poder se refuerzan, y los cuerpos del grupo minoritario quedan relegados.

      Para lograr unas posibilidades éticas dentro de las cartografías de tecnodiversidades es necesario que:

      Las métricas de equidad deben reevaluarse constantemente en función de los contextos sociales, políticos y culturales en los que se aplican. Esto implica un enfoque repetitivo y dinámico en la toma de decisiones algorítmicas.

      Los cuerpos no pueden reducirse a datos estadísticos. Es necesario desarrollar métodos participativos que integren las experiencias vividas de los afectados por las decisiones algorítmicas en el diseño y evaluación de la Inteligencia Artificial.

      En lugar de intentar traducir la ética directamente a matemática, podemos fomentar una interacción entre disciplinas, incluyendo la filosofía, las ciencias sociales y la ingeniería, para que la traducción sea más inclusiva y representativa.

      Las métricas de similitud deben ser auditadas desde perspectivas interdisciplinarias para garantizar que no perpetúen sesgos ni deshumanicen a los sujetos.

    1. What are our values as a society? And which policies and regulations do we need in order to live up to them? What can we regulate, and in which ways can and should we regulate it?

      La regulación debe centrarse en proteger y representar a las corporalidades humanas en toda su diversidad. Esto implica diseñar políticas que aborden las necesidades y derechos de las personas afectadas por la Inteligencia Artificial. Para lograrlo, es crucial que los responsables de políticas comprendan las implicaciones tecnológicas y que los tecnólogos integren valores sociales y éticos en sus diseños. Por ejemplo, aunque se desaconseje el uso de características protegidas en predicciones de la Inteligencia Artificial, la recopilación de estos datos podría ser esencial para auditar impactos demográficos y garantizar que no se perpetúen inequidades.

      La traducción, como puente necesario entre disciplinas, abarca desde la tecnología hasta las políticas públicas. Se requiere un lenguaje común que permita a tecnólogos, legisladores y comunidades colaborar para crear soluciones responsables que sean aplicables en contextos específicos. Este proceso de traducción debe ser dinámico y reflexivo, adaptándose al impacto continuo de la tecnología en las personas.

      La Inteligencia Artificial y las sociedades son dinámicas, lo que implica que no basta con diseñar una tecnología y desplegarla. Es necesario un proceso de auditoría continua que evalúe cómo los sistemas afectan a las corporalidades y modifican los datos y comportamientos sociales con el tiempo. Esto subraya la necesidad de reguladores confiables y terceros independientes que garanticen que las tecnologías sigan siendo justas y responsables a medida que evolucionan.

    2. Additional Ethical Considerations

      Las corporalidades deben ser el centro en la creación de la Inteligencia Artificial, ya que los sistemas impactan directamente a las personas. Es crucial incluir las voces de poblaciones vulnerables, quienes suelen ser ignoradas en los procesos de diseño. Esto implica entender las expectativas de justicia y equidad de los diversos grupos sociales y cómo estas varían según factores como el estatus socioeconómico, la experiencia tecnológica y el nivel de impacto directo que puedan experimentar.

      La traducción con Inteligencia Artificial no solo implica convertir datos en decisiones, sino hacerlo de manera comprensible para todos. La interpretación va más allá de la simple explicación técnica, buscando que cualquier ciudadano pueda entender cómo opera un sistema y confiar en sus resultados. Este proceso de traducción también debe integrar valores éticos como la privacidad y la equidad, equilibrando estas metas para evitar comprometer una en favor de la otra.

      Las Inteligencias Artificiales no funcionan aisladas; interactúan con los humanos que las usan y son afectadas por ellos. Esto es evidente en escenarios como la revisión de libertad condicional, donde las decisiones finales las toman jueces basándose en las predicciones de la Inteligencia Artificial. La interacción entre sesgos humanos y algorítmicos puede amplificar injusticias si no se diseña cuidadosamente todo el sistema. Por ello, la colaboración entre humanos y máquinas debe ser auditada y diseñada para reducir los sesgos, no perpetuarlos.

    3. Classification Rebalancing Ranking Sampling

      Las corporalidades son esenciales en la Inteligencia Artificial, ya que los datos utilizados reflejan las experiencias vividas de las personas. Sin embargo, estas experiencias están mediadas por atributos protegidos como género, raza o condición de discapacidad, los cuales a menudo están ausentes o mal representados en los sistemas algorítmicos. Esto limita la capacidad de los algoritmos para abordar inequidades estructurales. Por ejemplo, si un proceso de selección de personal omite mujeres en etapas iniciales, el sistema no podrá generar una representación justa más adelante.

      Traducir conceptos como equidad o no discriminación en métricas procesables es un desafío. Los algoritmos deben manejar definiciones de justicia, pero no siempre pueden satisfacerlas simultáneamente. Esto requiere soluciones que minimicen las injusticias en distintos contextos. Además, los sistemas actuales comienzan a abordar problemas como la ausencia de atributos protegidos en los datos, utilizando técnicas que implican trabajar de forma implícita con la información demográfica.

      La Inteligencia Artificial no es monolítica; es un conjunto de algoritmos interconectados que toman decisiones en varias etapas. El sesgo puede introducirse en cualquier punto, desde la preselección de datos hasta la etapa final de decisión. Por ejemplo, en procesos como la búsqueda web o la contratación, los sesgos en etapas iniciales limitan la capacidad de los algoritmos posteriores para producir resultados diversos y justos. Por ello, es crucial considerar la equidad en todas las partes del sistema, no solo en su resultado final.

    4. The Research Landscape of Debiasing AI

      Las corporalidades que han sido marginadas por género, raza u otros atributos, son fundamentales en el diseño de la Inteligencia Artificial. La selección de atributos que se consideran en un algoritmo refleja decisiones humanas sobre qué corporalidades e identidades deben ser visibilizadas y cómo deben ser representadas en los datos. Por ejemplo, en un sistema de contratación, garantizar la representación equitativa de hombres y mujeres o de personas no binarias implica reconocer y traducir estas identidades en métricas que el algoritmo pueda procesar.

      Un desafío clave en el diseño de ls Inteligencia Artificial justa es traducir conceptos sociales como la equidad en definiciones matemáticas que los algoritmos puedan implementar. Definir métricas de justicia que sean contextualmente apropiadas. Por ejemplo, en un problema de clasificación de candidatos, podría requerirse que el algoritmo produzca una lista que refleje una distribución demográfica justa basada en género o raza. Este proceso de traducción no es neutral, ya que está influido por los valores y preferencias de los responsables del diseño.

      Se destacan avances recientes que han permitido agrupar métricas de equidad en familias de definiciones, facilitando el desarrollo de meta-algoritmos. Estos frameworks no requieren rediseñar un algoritmo desde cero para cada contexto; en su lugar, aceptan definiciones específicas de justicia y producen resultados ajustados a esos criterios. Por ejemplo, al definir qué atributos proteger como género o raza y qué métrica de equidad emplear como representación igualitaria o tasas de error similares, el framework genera una solución personalizada para un caso particular.

    5. if we can strategically intervene algorithmically, we have a powerful tool to help break the cycle of discrimination.

      Las corporalidades (entendidas como los cuerpos físicos y los ensamblajes que los habitan) son intrínsecas a los datos que alimentan los sistemas de Inteligencia Artificial. Aunque los sistemas se perciban como objetivos o neutrales, los datos que los entrenan están profundamente arraigados en contextos sociales y culturales provenientes del Norte Global. La decisión de qué datos recolectar y cómo procesarlos refleja juicios humanos, que a menudo priorizan ciertas corporalidades sobre otras. Esto explica por qué ciertas Inteligencias Artificiales pueden amplificar inequidades ya existentes, como en el ejemplo de los algoritmos que ofrecen empleo mejor remunerado principalmente a hombres o a personas blancas.

      El diseño de la Inteligencia Artificial que ignora las diversidades corporales e identitarias perpetúa su invisibilización y marginalización. Surge la necesidad de considerar cómo las corporalidades se registran, interpretan y representan en los datos.

      La traducción implica transformar las experiencias humanas, incluidas las vivencias de corporalidades diversas, en datos que la Inteligencia Artificial pueda procesar. Sin embargo, esta traducción no es neutral. La selección de métricas, variables y optimizaciones refleja decisiones humanas que pueden reforzar dinámicas de poder existentes.

      ¿Qué cuerpos se incluyen o excluyen?

      Si los datos no representan adecuadamente a personas no binarias, racializadas o en condición de discapacidad, la Inteligencia Artificial no podrá abordar sus necesidades ni reconocer sus realidades.

      ¿Cómo se procesan las diferencias?

      Las corporalidades no normativas suelen ser traducidas en categorías reduccionistas o ignoradas por completo en el diseño de algoritmos, lo que perpetúa su exclusión.

      La traducción entre corporalidades y modelos computacionales es un acto político, donde los sesgos y prioridades humanos moldean la representación de la realidad.

      La Inteligencia Artificial no sólo refleja, sino que también transforma la relación entre corporalidades y sociedades al influir en oportunidades, recursos y visibilidad. La Inteligencia Artificial puede crear bucles de retroalimentación negativos, donde los sesgos iniciales en los datos refuerzan y amplifican desigualdades existentes, afectando las decisiones futuras, entre estos:

      Algoritmos que perpetúan la discriminación laboral.

      Sistemas que limitan el acceso a recursos como vivienda, educación o servicios.

      Esta capacidad de influencia también abre una oportunidad para intervenir. Al desarrollar y aplicar estrategias de desviación algorítmica (debiasing), es posible diseñar sistemas que rompan estos ciclos de discriminación. Esto requiere integrar una conciencia crítica sobre las corporalidades y su representación en los datos.

      La percepción de que la Inteligencia Artificial es imparcial desvía la atención de las formas en que las corporalidades y las experiencias humanas son fundamentales para su diseño y funcionamiento. La Inteligencia Artificial no existe separada de las dinámicas humanas, por el contrario, actúa como un espejo que amplifica tanto nuestras virtudes como nuestros sesgos.

      La construcción de Inteligencia Artificial más justa requiere:

      Reconocer las corporalidades ausentes en los datos y priorizar su inclusión.

      Redefinir los procesos de traducción para capturar la complejidad de las realidades humanas en lugar de simplificarlas.

      Intervenir estratégicamente en la Inteligencia Artificial para mitigar su impacto negativo y transformar las dinámicas sociales hacia una mayor equidad.

    1. Data Feminism in Action

      Corporalidades y representación en los datos

      Las corporalidades están en el centro de los datos sobre feminicidio, ya que estos buscan visibilizar la violencia sistémica y letal dirigida a ciertos cuerpos, principalmente de mujeres y personas feminizadas. Sin embargo, los desafíos en la recopilación de estos datos revelan la complejidad de traducir las vivencias de estas corporalidades en registros sistemáticos. La falta de estandarización en las definiciones y categorías relacionadas con feminicidio no solo dificulta el análisis comparativo, sino que también invisibiliza ciertas experiencias de violencia que no encajan en definiciones tradicionales o normativas.

      El reconocimiento y representación precisa de estas corporalidades en los datos es un acto político: dar visibilidad a los cuerpos afectados significa reconocer su existencia y exigir justicia.

      Traducción de experiencias vividas a datos y narrativas

      La recopilación de datos sobre feminicidio no es solo un proceso técnico, es un acto de traducción entre las realidades vividas y las estructuras formales de datos. Este proceso requiere decisiones sobre qué contar, cómo clasificar, y qué significados se asignan a los datos recolectados. Las presentaciones sobre “marcos de datos del feminicidio” y “estandarización de datos” destacaron los retos asociados con la homogeneización de realidades diversas en un formato legible por sistemas globales.

      La traducción no solo ocurre a nivel técnico; también se refleja en la narrativa: los datos, cuando se presentan mediante visualizaciones o análisis espaciales, cuentan historias que humanizan las cifras y amplifican las voces de las víctimas.

      Inteligencia artificial como herramienta de intervención

      La Inteligencia Artificial desempeña un papel crucial en la recopilación, análisis y visibilización de datos sobre feminicidio. Por ejemplo, la presentación de Catherine D’Ignazio sobre un clasificador automatizado para detectar feminicidios subraya cómo los algoritmos pueden ayudar a procesar grandes volúmenes de información, como artículos de noticias. Sin embargo, el uso de IA plantea desafíos éticos y técnicos:

      Si los modelos están entrenados con datos incompletos o sesgados, pueden perpetuar exclusiones y desigualdades.

      Los algoritmos deben ser lo suficientemente flexibles para adaptarse a contextos regionales y culturales específicos sin forzar definiciones homogéneas.

      La Inteligencia Artificial también permite análisis avanzados, como el análisis espacial de feminicidios presentado en el evento, lo que abre nuevas posibilidades para comprender patrones geográficos y contextuales de violencia.

      Construcción de comunidad y visibilización

      El evento no sólo promovió el uso de datos y tecnologías, sino también la construcción de una comunidad interdisciplinaria de activistas, académicos, periodistas y funcionarios. Este enfoque reconoce que ni la tecnología ni los datos son suficientes por sí solos: el cambio requiere colaboración, solidaridad y una conciencia ética que priorice las experiencias humanas detrás de las cifras.

    2. When thinking about

      Corporalidades y su representación en los datos

      La importancia de las categorías utilizadas en los procesos de recolección de datos, ejemplifica cómo elegir el género en un formulario, puede excluir a millones de personas no binarias. Esta exclusión es un reflejo de cómo las corporalidades y las identidades son frecuentemente invisibilizadas en los sistemas normativos. Las corporalidades no normativas enfrentan barreras sistemáticas que las excluyen de ser reconocidas o contabilizadas, perpetuando la marginalización a nivel político y social.

      Los datos sobre feminicidio evidencian la importancia de considerar las particularidades de las corporalidades afectadas. Si no se registran las diversas circunstancias y contextos de los crímenes, se dejan fuera a víctimas y experiencias específicas, generando lo que se llama “datos ausentes”.

      Traducción de realidades en datos

      El proceso de traducir realidades sociales complejas, como el feminicidio, en categorías legibles para bases de datos o sistemas estadísticos, es un acto de traducción crítico. Este proceso no solo implica transferir información de un medio a otro, sino también decidir qué aspectos de esa realidad se consideran importantes, cómo se clasifican y qué se omite. Por ejemplo, en algunos casos, el acto de clasificar un asesinato como feminicidio puede depender de si se reconoce la motivación de género detrás del crimen, algo que no siempre está bien documentado o considerado por los sistemas legales.

      Esta traducción imperfecta entre la experiencia vivida y la representación numérica no solo afecta la visibilidad del problema, sino también la capacidad de diseñar políticas efectivas.

      Inteligencia Artificial como herramienta de intervención

      La inteligencia artificial tiene el potencial de transformar la manera en que estos problemas son analizados y abordados. Por un lado, puede ayudar a procesar grandes volúmenes de información, como los reportes de feminicidio generados por activistas y periodistas, detectando patrones y tendencias. Por otro lado, las Inteligencias Artificiales deben ser diseñadas con cuidado para no reproducir o amplificar sesgos existentes. Si los modelos de Inteligencia Artificial están entrenados en datos incompletos o sesgados, corren el riesgo de reforzar las mismas dinámicas de exclusión que pretenden combatir.

    1. Bias in the data and algorithms

      En el contexto de la recolección de datos inclusivos, se puede analizar desde tres perspectivas como puente para comprender realidades diversas, y el uso ético de la Inteligencia Artificial para promover la inclusión.

      Corporalidades y sesgos en los datos y algoritmos

      Las metodologías de recolección de datos tradicionales han invisibilizado a muchas corporalidades, como los cuerpos de mujeres embarazadas, personas trans y no binarias. Por ejemplo, el diseño de cinturones de seguridad que ignora diferencias corporales aumenta el riesgo de lesiones graves para mujeres. La Inteligencia Artificial, si se basa en datos sesgados, amplifica estas desigualdades, perpetuando narrativas dominadas por parámetros masculinos y blancos.

      Los sistemas de clasificación basados en el binario hombre/mujer deben ser replanteados. Incorporar categorías inclusivas en los algoritmos y diseños de recolección de datos es crucial para capturar experiencias interseccionales relacionadas con género, etnia, discapacidad y otras identidades.

      Traducción como herramienta de inclusión

      Traducir no solo significa adaptar el lenguaje, sino también interpretar las realidades vividas por diferentes corporalidades en contextos sociales y culturales específicos. Por ejemplo, las respuestas de mujeres en redes sociales pueden estar condicionadas por el miedo a amenazas digitales, lo que requiere traducir estas limitaciones en análisis más sensibles.

      La traducción de los riesgos y beneficios de la recolección de datos a las comunidades involucradas es esencial para garantizar un consentimiento informado. Esto es especialmente relevante para grupos vulnerables que pueden no comprender completamente cómo se utilizarán sus datos.

      Inteligencia Artificial como aliada para la inclusión y la ética

      La Inteligencia Artificial puede combinar datos tradicionales y no tradicionales para ofrecer información y corregir desigualdades. Sin embargo, el diseño de algoritmos debe incluir parámetros que reflejen normas sociales y realidades políticas, considerando los desafíos específicos de las mujeres y niñas.

      La intersección de big data y la Inteligencia Artificial plantea desafíos éticos en términos de privacidad. Las tecnologías deben garantizar la anonimización de datos y prevenir su mal uso para dañar a comunidades vulnerables. Iniciativas como las directrices del UNDG enfatizan la necesidad de marcos normativos que protejan la privacidad y promuevan el consentimiento informado.

      Para lograr una verdadera transformación, los gobiernos y organizaciones deben invertir en personal técnico capacitado y promover colaboraciones público-privadas que aprovechen el big data para el bien común. Esto incluye proyectos de recopilación de datos enfocados en feminismos interseccionales y en visibilizar a las corporalidades históricamente excluidas.

    2. Collecting the right data with methods that ensure the right disaggregation is an important first step, but to create a more inclusive data system, these data must also be analyzed and interpreted using appropriate and efficient methods.

      Corporalidades y fuentes de datos no tradicionales

      Las fuentes no tradicionales, como registros administrativos y datos generados por la ciudadanía, pueden proporcionar información más granular sobre las corporalidades. Esto incluye indicadores relacionados con salud, género, y desigualdades espaciales o demográficas, como se observó en el caso de Nepal, donde datos geoetiquetados revelaron variaciones espaciales de desigualdades de género.

      Incorporar datos de poblaciones marginadas, como personas trans, no binarias o mujeres en comunidades rurales, puede visibilizar experiencias y desigualdades que los métodos tradicionales ignoran. Por ejemplo, análisis de violencia sexual en El Salvador demuestran cómo el análisis de registros administrativos puede desglosar patrones que afectan a grupos específicos.

      Traducción de datos y la alteración de dinámicas de poder

      La recopilación de datos generados por la ciudadanía permite reflejar mejor las realidades vividas por distintas corporalidades, particularmente en regiones o contextos donde los métodos tradicionales no capturan su complejidad. Por ejemplo, la traducción de experiencias reportadas a través de encuestas SMS debe respetar las diferencias culturales y lingüísticas de los encuestados.

      Al permitir que las comunidades participen directamente en la generación de datos, como en el proyecto de Ghana para reportar resultados en salud materno-infantil, se altera la dinámica de poder en la recopilación de datos. Este enfoque feminista reconoce las experiencias vividas y las traduce en evidencia cuantificable.

      IA como herramienta para la equidad de datos

      La Inteligencia Artificial puede detectar patrones en fuentes de datos no tradicionales, como redes sociales, imágenes satelitales y registros móviles. Estos patrones pueden revelar desigualdades relacionadas con género, ubicación o acceso a servicios, permitiendo intervenciones informadas.

      Las tecnologías de Inteligencia Artificial permiten analizar múltiples capas de desigualdad simultáneamente. Por ejemplo, combinando datos satelitales, móviles y encuestas demográficas, se pueden mapear variaciones interseccionales como la brecha de alfabetización por género y región.

      La Inteligencia Artificial puede crear datos sintéticos para suplir vacíos en áreas donde las corporalidades y sus experiencias no están representadas, siempre con atención ética para evitar reforzar sesgos.

      Desafíos éticos y metodológicos

      La recopilación de datos mediante métodos no tradicionales y herramientas de Inteligencia Artificial plantea preocupaciones sobre la privacidad, especialmente para las corporalidades en situaciones vulnerables.

      La interpretación y traducción de datos implica que el análisis automatizado puede no captar matices culturales (culturemas) o de género si no se diseñan algoritmos sensibles e inclusivos.

      Muchos gobiernos y comunidades carecen de los recursos técnicos y financieros necesarios para implementar sistemas avanzados de análisis de datos, limitando su capacidad para traducir datos en políticas inclusivas.

      Un enfoque transformador para la recopilación de datos

      Usar fuentes no tradicionales para incluir experiencias invisibilizadas, como mujeres en zonas rurales o personas no binarias.

      Garantizar que los datos recojan las perspectivas locales con sensibilidad cultural y lingüística.

      Diseñar algoritmos que no solo procesen datos, sino que también prioricen la equidad y representen realidades interseccionales.

      Implementar regulaciones claras para proteger la privacidad y asegurar que las tecnologías beneficien a las poblaciones marginadas.

    3. Addressing problems of traditional data collection

      Superar las limitaciones de los métodos tradicionales de recopilación de datos mediante enfoques inclusivos y feministas incluye la consideración de cuerpos diversos, la sensibilidad cultural y lingüística en la traducción de datos, y el uso de Inteligencia Artificial para identificar y corregir sesgos inherentes.

      Corporalidades y sesgos en la recopilación de datos

      Los métodos tradicionales tienden a homogeneizar las experiencias corporales, ignorando diferencias relacionadas con género, identidad no binaria, edad, condición de discapacidad, o situación socioeconómica. Esto invisibiliza las realidades de las mujeres y otros grupos marginados.

      Los datos recopilados a nivel de hogar ignoran desigualdades dentro del mismo, lo que perpetúa la invisibilización de corporalidades y experiencias individuales. Por ejemplo, las contribuciones económicas de mujeres y niñas suelen ser subestimadas o ignoradas.

      Las corporalidades en situaciones de vulnerabilidad extrema, como mujeres refugiadas, personas trans y no binarias, enfrentan mayores riesgos de ser omitidas. Estas exclusiones limitan la capacidad de crear políticas que respondan a sus necesidades.

      Traducción como mediadora inclusiva

      El diseño de preguntas en las encuestas refleja sesgos culturales y de género, lo que perpetúa desigualdades. Por ejemplo, las preguntas que asumen roles tradicionales, como identificar a una mujer como “ama de casa” sin considerar su trabajo remunerado, invisibilizan sus contribuciones económicas. Traducir estos términos con sensibilidad feminista puede ayudar a visibilizar estas realidades.

      La traducción debe permitir incorporar categorías de género inclusivas, como “no binario” o “otra”, asegurando que los datos reflejen corporalidades no normativas y realidades locales.

      Inteligencia artificial como herramienta inclusiva

      La Inteligencia Artificial puede identificar y mitigar sesgos en el diseño de encuestas y en la recopilación de datos al analizar patrones de exclusión. Por ejemplo, puede destacar cómo ciertas preguntas excluyen a las mujeres trans o no binarias al imponer categorías binarias de género.

      Los algoritmos pueden descomponer datos por variables interseccionales, como género, edad, ingresos y etnicidad, para revelar desigualdades invisibles en los métodos tradicionales. Esto incluye medir desigualdades dentro de los hogares y entre grupos marginados.

      La Inteligencia Artificial puede utilizar fuentes de datos no tradicionales, como redes sociales o sensores, para captar experiencias de corporalidades excluidas en contextos conflictivos o difíciles de alcanzar con métodos estándar.

    4. Bias exists in current data collection practices, leaving women and girls invisible in the data.

      Los sesgos en la recopilación de datos y la invisibilización de mujeres y niñas puede relacionarse profundamente con corporalidades, traducción e Inteligencia Artificial.

      Corporalidades y recopilación de datos

      La invisibilidad de corporalidades diversas en los métodos tradicionales de recopilación de datos tienden a generalizar los cuerpos de las mujeres y niñas, omitiendo diferencias significativas como raza, etnicidad, identidad de género, condición de discapacidad o edad. Un enfoque feminista desvirtuaría estos datos para representar estas corporalidades y sus experiencias específicas.

      Los sesgos en tecnologías biométricas y sensores en la Inteligencia Artificial analizan datos corporales, como reconocimiento facial o monitoreo de salud, a menudo fallan en captar la diversidad de cuerpos femeninos o marginados, reforzando estereotipos y exclusión.

      Traducción como puente inclusivo

      El lenguaje inclusivo en la recopilación de datos, al traducir encuestas, análisis o resultados, se corre el riesgo de eliminar términos culturalmente específicos como los culturemas que reflejan la diversidad de corporalidades y experiencias. Por ejemplo, conceptos relacionados con género o identidad corporal en un idioma pueden no tener equivalentes exactos en otro, lo que invisibiliza problemáticas clave.

      La interpretación del significado en la traducción de datos requiere una sensibilidad cultural y feminista que respete las diferencias lingüísticas y semánticas de cómo las corporalidades y el género son comprendidos en distintos contextos. Sin esta sensibilidad, la traducción puede reforzar las inequidades en lugar de corregirlas.

      Inteligencia Artificial (IA) y recopilación feminista de datos

      Las oportunidades en la Inteligencia Artificial tiene un enorme potencial para analizar grandes volúmenes de datos de manera desagregada, identificar patrones de exclusión y ampliar el uso de fuentes no tradicionales (como redes sociales, sensores, y datos de dispositivos móviles). Esto podría visibilizar experiencias de mujeres y niñas que antes eran ignoradas.

      Los riesgos de sesgos algorítmicos sucederían si los algoritmos de Inteligencia Artificial son entrenados con datos históricos sesgados, replicarán esas inequidades. Esto incluye subrepresentar corporalidades no normativas o ignorar contextos culturales específicos al interpretar datos traducidos.

      El diseño interseccional sirve para superar estas limitaciones, los algoritmos deben diseñarse con principios feministas que incluyan parámetros explícitos para identificar y corregir sesgos relacionados con género y corporalidades diversas.

      1. Preguntas críticas para la recopilación inclusiva de datos

      Las preguntas pueden adaptarse para incluir corporalidades, traducción e IA:

      •   ¿Quién define qué corporalidades son relevantes y cómo se representan en los datos?
      •   ¿Quién traduce y cómo garantiza que las voces de las mujeres y niñas sean fielmente representadas?
      •   ¿Cómo asegura la IA que los datos desagregados reflejen experiencias interseccionales y no perpetúen exclusión?
      •   ¿Quién decide qué fuentes de datos se utilizan y con qué criterios éticos?
      

      Hacia una Inteligencia Artificial inclusiva

      Una Inteligencia Artificial de recopilación de datos verdaderamente inclusiva debe:

      1.  Diseñar encuestas y procesos de recopilación que reconozcan la diversidad de corporalidades y vivencias.
      2.  Incorporar traducciones que respeten el contexto cultural y lingüístico, permitiendo que los datos capturen las realidades de mujeres y niñas en distintos entornos.
      3.  Utilizar IA para integrar fuentes de datos no tradicionales, asegurando que los modelos sean revisados constantemente para mitigar sesgos algorítmicos.
      4.  Basarse en principios feministas que guíen cada etapa del proceso, desde la definición del problema hasta el uso de los datos.
      
    1. The seven principles of data feminism are as follows:

      El feminismo de datos, tal como se describe, ofrece una oportunidad para interconectar conceptos de corporalidades, traducción e inteligencia artificial, ya que estas tres áreas se entrelazan en las dinámicas de poder, representación y conocimiento. Esto se puede apreciar en tres dimensiones:

      Corporalidades y Feminismo de Datos

      Elevar la emoción y la corporalidad:

      Este principio resalta la importancia de reconocer a las personas como cuerpos vivos y sensibles. En el contexto de la Inteligencia Artificial, esto desafía la tendencia a despersonalizar los datos y tratar a los sujetos como abstracciones numéricas. Por ejemplo, al diseñar sistemas de reconocimiento facial, los cuerpos no normativos (como aquellos racializados o con diversidad funcional) son a menudo mal representados. Incorporar una perspectiva feminista exige cuestionar estas omisiones y visibilizar la experiencia corporal diversa.

      Repensar los binarismos y las jerarquías:

      El binarismo de género frecuentemente excluye corporalidades no conformes, tanto en los datos como en los algoritmos que los procesan. Esto tiene implicaciones tangibles, desde la falta de representación de personas no binarias en formularios digitales hasta los sesgos en modelos predictivos que perpetúan desigualdades. Integrar las corporalidades en la Inteligencia Artificial significa desestabilizar estas jerarquías y crear tecnologías más inclusivas.

      Traducción y Feminismo de Datos

      Adoptar el pluralismo:

      La traducción aquí no solo se refiere a lenguas, sino a la intermediación entre perspectivas diversas, como los saberes indígenas y los sistemas de datos occidentales. Por ejemplo, la traducción de indicadores de género en datos cuantitativos puede borrar o simplificar las experiencias locales si no se contextualiza adecuadamente. Un feminismo de datos traducido con cuidado prioriza estos conocimientos y los integra en el análisis tecnológico.

      Considerar el contexto:

      La traducción de datos a diferentes idiomas y culturas requiere sensibilidad para no neutralizar las relaciones de poder que los generan. Por ejemplo, una Inteligencia Artificial que analiza patrones de violencia de género debe ser consciente de cómo se interpreta este fenómeno en diferentes contextos culturales, lo que implica una traducción crítica de términos y categorías.

      Hacer visible el trabajo:

      La traducción es una labor colectiva que a menudo queda invisibilizada en los procesos de desarrollo tecnológico. Desde los equipos de localización hasta los traductores de interfaces, el feminismo de datos puede destacar estas contribuciones como parte esencial de la ciencia de datos.

      IA y Feminismo de Datos

      Examinar el poder y desafiarlo:

      La Inteligencia Artificial refleja las estructuras de poder subyacentes en los datos que utiliza. Por ejemplo, los algoritmos entrenados con datos sesgados perpetúan desigualdades sistémicas. Un enfoque feminista en la Inteligencia Artificial busca desmantelar estos sistemas cuestionando las fuentes de los datos, las metodologías empleadas y los objetivos finales de la tecnología.

      Repensar binarismos y jerarquías:

      En el diseño de la Inteligencia Artificial, los sistemas categóricos rígidos (hombre/mujer, blanco/no blanco) limitan la representación de la diversidad humana. El feminismo de datos propone un rediseño de los sistemas de clasificación, favoreciendo representaciones fluidas y menos jerárquicas que reconozcan las identidades interseccionales.

      Elevar la emoción y la corporalidad:

      La Inteligencia Artificial suele ignorar las dimensiones emocionales y corporales del conocimiento humano. Por ejemplo, las Inteligencias Artificiales están diseñadas para imitar respuestas humanas, pero carecen de la sensibilidad para responder adecuadamente a experiencias humanas complejas, como el dolor o el trauma. Incorporar un enfoque feminista podría llevar a tecnologías que reflejen estas realidades de manera más ética.

      Adoptar el pluralismo:

      La diversidad en el desarrollo de la Inteligencia Artificial, incluyendo voces marginadas y saberes locales, no solo enriquece la tecnología, sino que la hace más ética y eficaz. El feminismo de datos puede guiar estos procesos, garantizando que la Inteligencia Artificial no sea solo un reflejo de las agendas del Norte Global.

    1. strong critiques of AI from a feminist standpoint

      Las corporalidades y feminismos en la Inteligencia Artificial se podría ver reflejada en la invisibilidad del cuerpo en la tecnología.

      La Inteligencia Artificial, frecuentemente percibida como desprovista de corporalidad aunque goza de ensamblajes ya que son organizaciones de personas las que operan sobre datos que representan cuerpos humanos en la Inteligencia Artificial. Sin embargo, las brechas de datos de género reflejan cómo ciertas corporalidades (como las de mujeres, personas racializadas o no conformes con el género) son ignoradas o mal representadas. Esto afecta directamente la producción de sistemas de IA que perpetúan desigualdades corporales y sociales.

      La materialidad de los datos es la falta de datos sobre cuidados no remunerados o violencia de género que invisibiliza las experiencias corporales. Estos datos “faltantes” no solo son números, son ausencias que impactan cuerpos reales, reproduciendo desigualdades en políticas y decisiones tecnológicas.

      Las estrategias normativas y la performatividad del cambio se centran en las estrategias educativas para la transformación de normas (como entrenamientos en género y diversidad) que pueden incluir perspectivas corporales para abordar las maneras en que las tecnologías moldean las experiencias físicas, desde interfaces hasta el impacto del reconocimiento facial en personas racializadas.

      La traducción como herramienta feminista aplicaría a la traducción de conceptos complejos como “feminismo de datos” o “IA feminista” que requiere una mediación cultural y lingüística que haga accesibles estos temas en contextos diversos. Las herramientas normativas, como las guías educativas sobre Inteligencia Artificial, pueden ser traducidas y adaptadas para comunidades no angloparlantes, fomentando un cambio inclusivo.

      Los sesgos lingüísticos en la Inteligencia Artificial se manifiestan porque los algoritmos de procesamiento de lenguaje natural incorporan sesgos culturales que pueden reforzar estereotipos de género. Por ejemplo, traductores automáticos que perpetúan roles de género (“doctor” vs. “enfermera”) necesitan intervenciones basadas en datos de género de alta calidad para minimizar estas desigualdades.

      La traducción como puente disciplinar e intermediación lingüística. Dado que las estrategias para la IA feminista requieren la colaboración entre tecnólogos, activistas y teóricos, la traducción también puede entenderse como una práctica de mediación entre disciplinas, ayudando a alinear epistemologías divergentes.

      La IA feminista y el potencial transformador en los datos para cuerpos diversos se puede percibir para crear y usar datos sobre experiencias corporales diversas, como el impacto del diseño de ciudades en mujeres, personas en condición de discapacidad, o personas trans, es crucial para una IA feminista que considere a todas las corporalidades.

      La educación para la inclusión abarcaría las normativas que fomenten el uso de herramientas educativas, como guías sobre los riesgos de la Inteligencia Artificial, ya que son vitales para garantizar que las tecnodiversidades no reproduzcan exclusiones históricas.

      El diálogo interdisciplinar de la traducción entre datos (cuantitativos y cualitativos) y las narrativas sobre género puede ser el punto de partida para superar las barreras de autoridad que limitan los cambios en la Inteligencia Artificial. Esto incluye no solo traducir términos técnicos, sino también experiencias humanas.

    2. feminist AI should

      Las tecnologías de Inteligencia Artificial están mediada por las estructuras de poder que moldean qué datos se recopilan, cómo se interpretan y qué usos se les da. Esto es especialmente evidente en las brechas de datos de género, donde las experiencias y necesidades de ciertos cuerpos, particularmente los de mujeres, personas no binarias y otras corporalidades marginalizadas, son omitidas, invisibilizadas o mal representadas.

      Los ecosistemas diversos y el rol de los actores sociales consiste en que la producción de datos es un proceso profundamente social, influido por las decisiones de múltiples agendas del Norte Global. Para abordar las brechas de género en los datos, es esencial reconocer este ecosistema diverso (gobiernos, empresas tecnológicas, organizaciones de la sociedad civil, activistas y comunidades de base).

      Las corporalidades invisibilizadas en los datos pueden emerger a través de esfuerzos colaborativos entre sociedad civil y ministerios gubernamentales. Por ejemplo, iniciativas donde organizaciones feministas trabajan con gobiernos para construir políticas de datos con perspectiva de género.

      Estas colaboraciones no solo reducen las brechas de datos, sino que también desvirtúan estructuras de poder tradicionales al movilizar a las comunidades hacia el cambio.

      Las dinámicas de coerción interna y externa en la transformación tecnológica.

      Para construir una Inteligencia Artificial feminista, es necesario emplear estrategias que combinen herramientas internas (cambios dentro de las instituciones) y externas (presión desde movimientos sociales).

      Las estrategias internas incluyen la integración de equipos interdisciplinarios que combinen conocimientos técnicos y teóricos, como data scientists, activistas y académicas feministas, para diseñar sistemas que reflejen la diversidad de experiencias corporales.

      Las estrategias externas implican la presión de movimientos feministas para exigir transparencia y responsabilidad a las grandes empresas tecnológicas y gobiernos, promoviendo cambios en las políticas y normativas que rigen la tecnología.

      Investigación sobre ejemplos exitosos (“bright spots”): Para avanzar hacia una Inteligencia Artificial más inclusiva, es vital identificar casos donde actuantes feministas hayan logrado cerrar brechas de género o implementar sistemas tecnológicos más equitativos. Por ejemplo, proyectos que han utilizado datos de género para visibilizar el trabajo de cuidado no remunerado o reducir las desigualdades en salud materna pueden servir como modelos para futuras iniciativas.

      Estas experiencias también resaltan el papel de las comunidades locales en traducir las necesidades corporales específicas en soluciones tecnológicas efectivas y contextualizadas.

      la investigación interdisciplinaria y colaborativa podría abrir las brechas en los datos de género y el diseño de una IA feminista con enfoques que integren disciplinas que tradicionalmente no dialogan entre sí.

      La traducción de corporalidades a datos digitales puede ser abordada por equipos que combinen desarrolladores tecnológicos, expertas en teoría de género y organizadoras comunitarias, generando sistemas que reflejen tanto las dinámicas sociales como los contextos técnicos.

      Este enfoque también fomenta sistemas de Inteligencia Artificial que sean culturalmente sensibles y diseñados para promover equidad.

      La construcción de plataformas y prácticas feministas de Inteligencia Artificial requiere plataformas políticas y prácticas informales que incluyan múltiples niveles de acción, desde cambios individuales hasta transformaciones sistémicas.

      A nivel individual, esto incluye sensibilización sobre cómo las tecnologías reproducen desigualdades de género y su impacto en los cuerpos marginalizados.

      A nivel sistémico, implica movilizar políticas que aseguren la representatividad y la inclusión en la gobernanza de la tecnología, así como fomentar prácticas que desmantelen las jerarquías opresivas incrustadas en los sistemas algorítmicos.

      Utilizar herramientas interdisciplinarias, movilizar a diversos actuantes sociales y articular estrategias internas y externas que impulsen el cambio. De este modo, la Inteligencia Artificial feminista no sólo traduce las experiencias humanas a datos, sino que lo hace desde un lugar de justicia social, visibilizando y empoderando a las corporalidades históricamente excluidas.

    1. “Feminist principles can be a handy framework to understand and transform the impact of AI systems. Key principles include reflexivity, participation, intersectionality, and working towards structural change.”

      Las corporalidades, la traducción y la Inteligencia Artificial desde una posibilidad feminista puede articularse en torno a la idea de cómo las tecnologías emergentes interactúan con los cuerpos y las experiencias humanas, particularmente aquellas de grupos marginalizados, y cómo la traducción de esos datos corporales a sistemas digitales puede ser transformada para subvertir estructuras de poder.

      Las tecnodiversidades y en especial la Inteligencia Artificial, tiene el poder de traducir las experiencias humanas en datos cuantificables. No obstante, esta traducción está mediada por estructuras de poder que asignan mayor valor a ciertas corporalidades y vivencias mientras invisibilizan otras.

      La forma en que los datos relacionados con la salud o el trabajo de las mujeres suelen quedar subrepresentados o malinterpretados en los sistemas de Inteligencia Artificial debido a sesgos en las fuentes de datos desde las agendas del Norte Global.

      Estos sesgos son reflejo de desigualdades estructurales arraigadas en el patriarcado, el racismo y el capitalismo.

      Desde una posibilidad feminista, es importante aplicar principios como la reflexividad, la participación y la interseccionalidad al proceso de traducción de corporalidades a sistemas digitales.

      La reflexividad cuestiona cómo las relaciones de poder moldean tanto los datos recolectados como las decisiones tomadas durante el diseño de Inteligencia Artificial. Esto invita a pensar en cómo el diseño técnico puede reconocer y rediseñar las jerarquías sociales que privilegian ciertas experiencias corporales sobre otras.

      La participación asegura que las corporalidades más afectadas por los sistemas de Inteligencia Artificial tengan voz en su diseño y gobernanza. En el ámbito de la salud, esto podría significar incluir a pacientes, trabajadoras comunitarias y activistas en el diseño de sistemas de diagnóstico que reflejen sus experiencias vividas. Esta traducción participativa de las necesidades humanas a sistemas digitales puede mejorar la adopción de tecnodiversidades, y redistribuir el poder hacia las comunidades.

      La interseccionalidad destaca cómo las experiencias corporales son multidimensionales, determinadas por factores como género, raza, clase y condición de discapacidad.

      Si bien las tecnologías de Inteligencia Artificial tienden a homogeneizar y simplificar estas diferencias, la interseccionalidad exige diseñar sistemas que reconozcan y respeten estas complejidades. A modo de ejemplo, los sistemas que clasifiquen imágenes corporales deben evitar perpetuar estándares corporales eurocéntricos o normas de género binarias, asegurando que los datos reflejen la diversidad de experiencias humanas.

      Cuando la Inteligencia Artificial se apropia desde principios feministas, se convierte en una herramienta para cuestionar y reconfigurar la traducción de cuerpos humanos a sistemas algorítmicos. Esto implica resistir los usos autoritarios de la Inteligencia Artificial como la vigilancia y la exclusión y crear sistemas alternativos que desafíen la desigualdad y promuevan una práctica tecnológica inclusiva y transformadora. Por ejemplo, proyectos que buscan erradicar el discurso de odio en línea pueden considerarse feministas en tanto protegen a grupos históricamente marginados, aunque no aborden explícitamente la violencia de género.

      Incorporar principios feministas en la Inteligencia Artificial significa diseñar tecnodiversidades que no solo traduzcan datos corporales con precisión, sino que también reconozcan y valoren las relaciones sociales que los producen. A través de sistemas inclusivos, participativos y reflexivos, se puede trabajar hacia una tecnología que desafíe las estructuras de dominación, promoviendo corporalidades libres, dignas y diversas.

    1. AI as a Software

      Las corporalidades, la traducción y la inteligencia artificial son creados para interpretar y operar, amplifican y perpetúan los sesgos sociales que definen tanto la representación como la interacción de los cuerpos en el ámbito tecnológico. Se entretejen las nociones de traducción como la adaptación o interpretación de las corporalidades humanas al lenguaje de los datos, y la ética de la Inteligencia Artificial, en la que se abordan los sesgos en la sociedad.

      La traducción con Inteligencia Artificial “traduce” las corporalidades humanas a datos estructurados mediante procesos de entrenamiento que dependen de patrones en los datasets. Sin embargo, esta traducción es imperfecta y limitada.

      Las corporalidades humanas, con sus matices de diversidad cultural, étnica, de género y funcionalidad, son codificadas en un espacio de datos reducido, lo que deja fuera muchas experiencias humanas.

      La Inteligencia Artificial no sólo traduce, sino que también amplifica los sesgos presentes en los datos. Un sistema entrenado con imágenes que asocian género con profesiones perpetuará estos estereotipos, traduciéndolos como “verdades” tecnológicas.

      La Inteligencia Artificial, al comportarse como un software “inteligente”, plantea desafíos únicos que afectan cómo las corporalidades son representadas, a diferencia de un software tradicional, los resultados de la Inteligencia Artificial cambian con el tiempo y el contexto, lo que dificulta crear métricas fijas para medir su sesgo. Esto afecta directamente cómo los cuerpos son clasificados o reconocidos.

      En lugar de reconocer la fluidez de las identidades humanas, los sistemas de Inteligencia Artificial suelen fijar a las corporalidades en etiquetas binarias (“hombre” o “mujer”), dejando fuera identidades LGBTQ+.

      La comprensión y mitigación de sesgos en la Inteligencia Artificial requiere un enfoque interdisciplinario que reconozca las complejidades sociales y culturales de las corporalidades.

      Las ciencias sociales pueden aportar conceptos de sesgo y equidad que guíen la creación de métricas en la Inteligencia Artificial. Redefinir cómo los sistemas interpretan y categorizan las corporalidades más allá de los parámetros normativos.

      La introducción de herramientas como REVISE y datasets como el Pilot Parliament Benchmark marcan un paso hacia la evaluación de sesgos, pero aún no abordan la diversidad completa de las corporalidades.

      La Inteligencia Artificial puede entenderse como una traducción cultural que convierte dinámicas humanas en procesos computacionales, la traducción de las corporalidades al ámbito de la Inteligencia Artificial no es neutral, ya que refleja los valores y prejuicios de quienes crean los sistemas y los datasets. Este proceso requiere una revisión ética que considere cómo las decisiones de diseño afectan a las poblaciones marginalizadas.

      Resolver estos desafíos exige la colaboración entre disciplinas (ciencias sociales, legales, matemáticas, etc.) y geografías como las cartografías, reconociendo que las corporalidades humanas son interpretadas de maneras distintas según el contexto cultural.

      La interacción entre la Inteligencia Artificial y las corporalidades tiene consecuencias profundas que van más allá de los sesgos técnicos, si los sesgos en la Inteligencia Artificial no se mitigan, las tecnodiversidades podrían institucionalizar discriminaciones sociales, afectando cómo ciertos cuerpos son vistos, valorados o incluso controlados.

      En un mundo donde la Inteligencia Artificial tiene un impacto cada vez mayor, es esencial que todos los sectores de la sociedad trabajen juntos para garantizar que las tecnologías no perpetúen ni amplifiquen las desigualdades existentes.

    2. we shall see how AI algorithms, when trained on these datasets, pick up these biases and amplify them, leading to biased AI systems.

      La Inteligencia Artificial y las corporalidades no solo tiene implicaciones técnicas, sino que también expone dinámicas culturales y sociales que determinan cómo los cuerpos son interpretados y clasificados.

      El predominio de rostros blancos en datasets como Rostros Etiquetados en la Naturaleza (LFW por su sigla en inglés) crea modelos que reconocen con precisión a personas blancas, pero fallan al identificar a personas de otras razas. Esto marginaliza a cuerpos no blancos, reduciendo su visibilidad tecnológica y reproduciendo jerarquías raciales.

      La tendencia de los modelos a asociar características específicas con ciertos grupos (como mujeres en la cocina u hombres en el garaje) refleja cómo las corporalidades son codificadas de manera sesgada en los datos y amplificadas por la Inteligencia Artificial.

      El proceso de entrenamiento de la Inteligencia Artificial puede considerarse una forma de traducción algorítmica, donde las corporalidades son reducidas a patrones y etiquetas.

      Los modelos tienden a generalizar patrones, lo que significa que las corporalidades que no se ajustan a los estándares dominantes (por ejemplo, caras racializadas o cuerpos fuera de las normas hegemónicas) son malinterpretadas o invisibilizadas.

      Durante el entrenamiento, los modelos reciben “recompensas” por predecir correctamente según el dataset. Si el dataset es sesgado, las predicciones correctas refuerzan esas generalizaciones erróneas, consolidando una visión limitada y parcial de las corporalidades.

      El uso de métricas como la precisión para evaluar modelos sesgados resalta una desconexión entre la eficiencia técnica y la justicia social, un modelo que alcanza un 85% de precisión al reconocer rostros blancos en un dataset dominado por estas imágenes no es verdaderamente eficiente; simplemente está optimizado para perpetuar el sesgo del dataset.

      La creación de datasets verdaderamente diversos y la reformulación de cómo los modelos interactúan con las corporalidades son pasos esenciales para evitar la amplificación de sesgos.

      Un dataset diverso no solo debe incluir representaciones equilibradas de diferentes razas y géneros, sino también considerar otras dimensiones de la identidad, como la edad, si tiene alguna condición de discapacidad y los culturemas.

      La Inteligencia Artificial debe integrar mecanismos que detecten y mitiguen sesgos inherentes, evitando la reproducción de inequidades.

      Incorporar perspectivas interseccionales permite a la Inteligencia Artificial considerar cómo múltiples formas de identidad se cruzan y afectan la representación de las corporalidades.

    3. Deep learning models require huge amounts of data for training

      Las corporalidades, la traducción y la Inteligencia Artificial se encuentra en el análisis de cómo los datos utilizados para entrenar modelos de aprendizaje profundo reproducen y amplifican las construcciones sociales y culturales relacionadas con los cuerpos humanos.

      Los datasets visuales como ImageNet o OpenImages, usados para entrenar modelos de visión por computadora, refuerzan nociones específicas de las corporalidades.

      La mayoría de las imágenes están sesgadas hacia cuerpos blancos, lo que genera problemas de reconocimiento en cuerpos racializados. Los sistemas de reconocimiento facial identifican incorrectamente rostros negros cinco veces más que blancos, lo que evidencia una invisibilización sistémica de las corporalidades no occidentales.

      Las imágenes etiquetadas tienden a asociar ciertos objetos o contextos con corporalidades específicas. Los cosméticos o las flores están sobrerrepresentados con mujeres, mientras que herramientas e instrumentos suelen estar vinculados con hombres. Esto reproduce constructos culturales que refuerzan la pasividad femenina y la agencia masculina.

      La traducción, como intermediación cultural, es fundamental en la creación de datasets. Sin embargo, este proceso está mediado por quienes etiquetan los datos.

      La mayoría de los etiquetadores (Amazon Mechanical Turk) provienen de países occidentales, lo que lleva a una interpretación culturalmente limitada de las imágenes. Esto impacta cómo se codifican corporalidades de otras culturas, generando traducciones parciales o erróneas.

      La falta de diversidad en los datasets traduce las experiencias corporales en un marco único, al homogeneizar las diferencias culturales, raciales y de género. Esto no solo afecta la precisión técnica de la traducción, sino que también tiene consecuencias éticas y sociales.

      La Inteligencia Artificial traduce las corporalidades en patrones que pueden perpetuar desigualdades como en el caso de las imágenes etiquetadas, las mujeres son frecuentemente observadoras pasivas, mientras que los hombres interactúan con objetos o son asociados con roles de liderazgo. Esto reproduce construcciones culturales que vinculan el poder con la masculinidad.

      Los intentos de capturar la diversidad en datasets como Pilot Parliament Benchmark o Fair Face son limitados porque intentan traducir muchas experiencias corporales a un marco normativo preexistente.

      Incluir comunidades subrepresentadas en el diseño, etiquetado y curación de los datos.

      Adoptar herramientas para detectar y corregir sesgos en las etiquetas, asegurando que las corporalidades no sean traducidas desde marcos reductivos.

      Incorporar múltiples dimensiones de identidad (género, raza, clase, etc.) para evitar simplificaciones excesivas.

      La relación entre las corporalidades, la IA y la traducción no solo implica reconocer los sesgos inherentes a los datos, sino también repensar cómo las tecnologías representan y traducen las experiencias humanas.

    4. The Origin of Bias: Our Society

      Las Redes Neuronales Artificiales (ANNs por su sigla en inglés) y su entrenamiento en datos provenientes de internet refleja cómo las corporalidades, la traducción y la inteligencia artificial se entrelazan. Esta intersección permite explorar cómo los sesgos sociales presentes en la sociedad son perpetuados y amplificados en las tecnodiversidades.

      Las corporalidades, entendidas como la representación de cuerpos y sus atributos asociados (género, raza, clase, etc.), tienen distorsiones significativas cuando se integran en la Inteligencia Artificial entrenados en datos sesgados.

      Las búsquedas de imágenes para “CEO” o “soldado” versus “enfermera” o “maestra” refuerzan narrativas limitadas sobre quiénes ocupan determinados roles en la sociedad.

      Las Redes Neuronales Artificiales (ANNs por su sigla en inglés) no sólo reproducen, sino que expanden la invisibilidad o la hipervisibilidad de ciertos cuerpos, como mujeres reducidas a estereotipos de sexualidad y familia, o personas racializadas asociadas a profesiones de bajo estatus. Esto crea un “ecosistema algorítmico” que define qué cuerpos son considerados valiosos o normativos en función de los datos disponibles.

      La traducción, bien sea literal, técnica, especializada o metafórica, juega un papel clave en cómo la Inteligencia Artificial procesan el lenguaje y las imágenes.

      La prevalencia de términos como “bello” o “romántico” para mujeres y “ofensivo” o “diplomático” para hombres en análisis basados en Wikipedia ilustra cómo las construcciones culturales de género se filtran en sistemas de Procesamiento del Lenguaje Natural (NLP por su sigla en inglés).

      Tecnodiversidades de reconocimiento de imágenes etiquetan a hombres como “hombres de negocios” y a mujeres con términos relacionados con características físicas (“sonrisa”, “peinado”), evidenciando un filtro cultural que traduce cuerpos femeninos en bases de datos terminológicas relacionadas con la apariencia y cuerpos masculinos en en bases de datos terminológicas relacionadas con el poder.

      Las Inteligencias Artificiales al ser entrenadas con datos masivos provenientes de fuentes como Reddit, Wikipedia y Google, inevitablemente reflejan los prejuicios sociales de origen.

      Los textos generados por GPT-2, los patrones de lenguaje recogidos de Reddit, como la asociación de mujeres con la prostitución y hombres con posiciones de poder, refuerzan un ciclo de perpetuación de sesgos, donde los estereotipos sociales se convierten en reglas operativas dentro de los sistemas.

      Etiquetado de imágenes, los sesgos de género y raza en los conjuntos de datos visuales llevan a etiquetados que marginan a ciertas identidades y privilegian otras, al reproducir jerarquías sociales en los sistemas de IA.

      La masificación de estos sesgos tiene implicaciones críticas para las corporalidades. Si el sesgo en los datos ya marginaliza ciertas identidades, la integración de estos sesgos en sistemas que toman decisiones, como asistentes virtuales, sistemas de reconocimiento facial y plataformas de contratación, amplifica estas exclusiones.

      Las desigualdades algorítmicas por la forma en que la Inteligencia Artificial aprende, refuerza no solo estereotipos individuales, sino sistemas de poder más amplios, donde ciertos cuerpos (blancos, masculinos, etc.) tienen mayores probabilidades de ser asociados con profesionalismo, éxito y capacidad de liderazgo.

      Para interrumpir estos ciclos de sesgo y redefinir el rol de las corporalidades en la Inteligencia Artificial, es crucial adoptar un enfoque transformador.

      Los conjuntos de datos deben ser diseñados deliberadamente para incluir la diversidad de cuerpos, culturas y experiencias humanas, al evitar la reproducción de sesgos sistémicos.

      Incorporar Inteligencia Artificial feminista y crítica que analice cómo las categorías sociales interactúan en la creación de desigualdades.

      Evaluar los tecnodiversidades en todas las etapas, desde la selección de datos hasta su despliegue, para identificar y corregir sesgos antes de que se amplifiquen.

      Reconocer que los datos y la tecnología no son neutrales, sino productos sociales, y promover un diseño ético que valore la equidad y la justicia.

      La Inteligencia Artificial tiene el potencial de ser una herramienta emancipadora si se diseñan sistemas que respeten y celebren la diversidad de las corporalidades humanas. Al abordar los sesgos en los datos y los algoritmos, se podrían construir tecnologías que no solo reflejen el mundo tal como es, sino que muestren y materialicen un futuro más justo, inclusivo y equitativo.

    5. Why is AI biased?

      Las corporalidades, traducción e Inteligencia Artificial sus sesgos y su propagación en las tecnodiversidades revela cómo estos procesos son inseparables de las estructuras sociales que les dan origen.

      Las representaciones corporales, la intermediación lingüística y los algoritmos interactúan para reproducir o desafiar desigualdades.

      La Inteligencia Artificial, como los redes neuronales profundas (DNNs por su sigla en inglés), reflejan las estructuras sociales porque su entrenamiento depende de datos generados en contextos históricamente sesgados.

      Los datos utilizados para entrenar sistemas de visión computacional reproducen la representación desigual de las corporalidades. Esto ocurre cuando términos como “enfermera” producen mayoritariamente imágenes de mujeres, mientras que “CEO” genera imágenes de hombres. Estas representaciones no son neutrales; perpetúan narrativas que asignan roles específicos a cuerpos según género, raza o clase.

      Grupos marginalizados (personas trans, no binarias o en condición de discapacidad) suelen quedar fuera de los conjuntos de datos, lo que los hace prácticamente inexistentes en las tecnodiversidades. Esto crea una brecha de representación y un ciclo de exclusión en un contexto digital.

      El vínculo entre traducción e Inteligencia Artificial pone en evidencia cómo las tecnodiversidades lingüísticas integran y amplifican sesgos de género, raza y clase.

      Cuando se traducen textos de idiomas sin marcadores de género como el turco al inglés, los algoritmos asignan géneros basados en sesgos estadísticos. Por ejemplo, “él es ingeniero” frente a “ella es enfermera”. Este proceso refuerza roles sociales tradicionales y limita las posibilidades de imaginar corporalidades fuera de esos moldes.

      Las traducciones tienden a priorizar lenguajes dominantes, al relegar las lenguas indígenas y locales, lo que invisibiliza culturas y corporalidades. Esto perpetúa un sistema global jerárquico donde ciertos cuerpos y lenguajes son más “validados” que otros.

      La metáfora del “niño recién nacido” aplicado a una red neuronal resalta cómo los sesgos en los datos impactan el comportamiento de la Inteligencia Artificial.

      Las Inteligencias Artificiales que reconocen rostros, suelen tener tasas de error más altas con personas racializadas debido a conjuntos de datos predominantemente blancos. Esto refuerza una noción algorítmica de corporalidades normativas, donde los cuerpos fuera de ese estándar son tratados como “otros”.

      Cada etapa del desarrollo de la Inteligencia Artificial, desde la recopilación de datos hasta el despliegue, permite la acumulación de prejuicios, reproduciendo estructuras de poder. Esta acumulación se traduce en decisiones algorítmicas que afectan directamente la vida de las personas, desde la contratación laboral hasta la vigilancia policial.

      Es necesario recopilar y usar datos que reflejen la diversidad humana en todas sus dimensiones (género, raza, orientación sexual, capacidad, etc.), al reconocer y visibilizar las corporalidades marginadas.

      Incorporar la Inteligencia Artificial feminista y crítica desde la selección de datos hasta la validación de modelos que sirvan en el Sur Global.

      Crear mecanismos transparentes para auditar los sistemas de Inteligencia Artificial, al identificar y corregir sesgos antes de que estos se amplifiquen en el mundo real.

      Los sesgos no son inevitables, pero corregirlos requiere un cambio radical en cómo diseñamos y pensamos estas tecnodiversidades. Reconocer el impacto en los cuerpos reales y su capacidad para amplificar desigualdades es el primer paso hacia la transformación. Al situar las corporalidades en el centro del diseño, podemos construir sistemas que no solo reflejen, sino que desafíen las estructuras opresivas, avanzando hacia un futuro más equitativo y justo.

    1. In 2017 a group of researchers found that two prominent research-image collections, including one supported by Microsoft and Facebook, display a predictable gender bias in their depiction of activities such as cooking and sports. For example, images of shopping and washing are linked to women, while coaching and shooting are linked to men. Similarly, kitchen objects such as spoons and forks are strongly associated with women, while outdoor sporting equipment such as snowboards and tennis rackets are strongly associated with men.

      Frente a este tema, Kraft-Buchman (2021) afirma que "en 2017, un grupo de investigadores descubrió que dos importantes colecciones de imágenes de investigación, incluida una respaldada por Microsoft y Facebook, muestran un sesgo de género predecible en su representación de actividades como cocinar y deportes. Por ejemplo, las imágenes de compras y lavado están vinculadas a las mujeres, mientras que las de entrenamiento y tiro están vinculadas a los hombres. De manera similar, los objetos de cocina, como cucharas y tenedores, están fuertemente asociados con las mujeres, mientras que el equipo deportivo para exteriores, como tablas de snowboard y raquetas de tenis, están fuertemente asociados con los hombres" (párr. 16).

    2. women and girls can and do serve as a proxy

      Las mujeres y las niñas funcionan como símbolos o proxies de grupos históricamente invisibilizados y marginados por los sistemas sociales, lo que tiene una relación directa con el concepto de corporalidades.

      Las corporalidades hacen referencia a las maneras en que son construidos, percibidos y tratados socialmente. Este enfoque explica sobre cómo los cuerpos, particularmente aquellos que son racializados, feminizados o clasificados por categorías de género, clase y otras identidades interseccionales, experimentan las desigualdades estructurales de manera material y simbólica.

      La Inteligencia Artificial feminista, se entrelaza con la interseccionalidad para abordar sistemas de opresión interdependientes. Implica directamente las corporalidades porque estas categorías de opresión no existen en abstracto, sino que están encarnadas: los cuerpos de mujeres, personas racializadas o de clases marginadas son el terreno donde se manifiestan estas discriminaciones.

      Es en estos cuerpos donde se cruza el peso de los sistemas de exclusión, como el patriarcado, el racismo o el clasismo.

      El acceso desigual a la tecnología, los sesgos en los sistemas de reconocimiento facial o los algoritmos que reproducen estereotipos son evidencias de cómo las corporalidades son mediadas y discriminadas a través de estas categorías sociales.

      Al plantear que el feminismo y la interseccionalidad son inseparables, se reafirma la necesidad de comprender que las discriminaciones no son simplemente abstractas, sino vividas, percibidas y sufridas por cuerpos específicos.

      En este sentido, cualquier esfuerzo hacia una Inteligencia Artificial feminista no solo debería desafiar los sistemas de discriminación, sino también ser profundamente consciente de cómo sus prácticas afectan las corporalidades concretas, considerando sus múltiples capas de significado e intersección.

    3. Lack of research funding, capacity, brain drain, and conflicting priorities may leave no choice for the Global South but to continue to adopt technologies that have no relevant or inclusive Global South innovation, data, or model design.

      La falta de financiación en investigación desde el sur global hace que debamos adoptar tecnologías sin innovación de acuerdo a nuestras necesidades.

    4. Machine learning

      Los cuerpos de mujeres, niñas y otros grupos marginalizados son borrados o distorsionados dentro de los sistemas de aprendizaje automático (machine learning).

      Estos sistemas reproducen y amplifican desigualdades al hacer explícita, a través del código, la invisibilidad y los sesgos presentes en los datos de origen.

      La corporalidad es fundamental porque los sesgos en los datos no solo afectan a las identidades, sino que tienen consecuencias concretas en las vidas corporales y materiales de las personas, tales como:

      La ausencia de datos sobre cuerpos femeninos en estudios médicos y algoritmos puede llevar a diagnósticos imprecisos o tratamientos menos efectivos.

      Los sesgos en sistemas de vigilancia o justicia criminal pueden reforzar estereotipos raciales y de género, poniendo en mayor riesgo a los cuerpos ya vulnerabilizados.

      Las decisiones algorítmicas que excluyen o marginan refuerzan la idea de que ciertos cuerpos son menos importantes o incluso inexistentes, al perpetuar dinámicas excluyentes.

      Cuando estas dinámicas se codifican en sistemas de inteligencia artificial, los estereotipos y normas patriarcales, raciales y de clase que ya afectan a los cuerpos en el mundo analógico se transforman en reglas explícitas que refuerzan estas jerarquías.

      La corporalidad podría ser el terreno donde estas desigualdades se viven de manera tangible: desde quién es vigilado y criminalizado hasta quién es ignorado en los espacios laborales o en las decisiones de políticas públicas.

      La “Patriarquía 2.0” radica en su capacidad de solidificar desigualdades de manera más eficiente y difícil de desmantelar.

      Las relaciones entre género, raza y clase ya no serían solo normas sociales implícitas, sino códigos que regulan y automatizan exclusiones, al afectar directamente cómo los cuerpos se posicionan y sobreviven en el mundo.

      Sería importante repensar la creación de datos, asegurando que incluyan las experiencias y necesidades de cuerpos históricamente marginados para evitar que el futuro tecnológico perpetúe desigualdades del pasado.

    5. As Marshall McLuhan is famously quoted, “We shape our tools, and thereafter our tools shape us”

      Nosotros le damos forma a nuestras herramientas y por ende nuestras herramientas nos dan forma a nosotros.

      Kraft-Buchman, C. (2021). Chapter 1. We shape our tools, and thereafter our tools shape us. From bias to feminist Ai. A+ Alliance. Tomado de https://feministai.pubpub.org/pub/we-shape-our-tools/release/3?readingCollection=c218d365

    6. “We shape our tools, and thereafter our tools shape us”

      Las posibilidades críticas en las corporalidades y la traducción en tiempos de Inteligencia Artificial permite repensar cómo estas tecnodiversidades interactúan con cuerpos e identidades diversas, y cómo pueden ser transformadas en herramientas de resistencia contra las desigualdades históricas.

      Los sesgos de género, racismo, estereotipos y otras formas de discriminación, profundamente incrustados en las tecnodiversidades, afectan a las corporalidades y cómo una posibilidad feminista puede abrir caminos para un cambio transformador.

      Casos como la aplicación DeepNude y los bots deepfake en Telegram exponen cómo los cuerpos femeninos son desproporcionadamente vulnerables a formas de explotación y violencia digital. Estas tecnodiversidades convierten a las corporalidades en objetos de vigilancia, control y deshumanización, reforzando dinámicas de poder que han existido históricamente.

      Los sistemas de autocompletado que representan a los hombres en trajes y a las mujeres en bikinis son un ejemplo claro de cómo los algoritmos perpetúan estereotipos de género. Estas representaciones no solo reflejan los sesgos sociales, sino que activamente los amplifican, definiendo cómo las corporalidades son vistas y entendidas en el espacio digital.

      La Inteligencia Artificial, entrenada con datos históricos, hereda y codifica desigualdades sociales, afectando a las corporalidades en múltiples dimensiones (género, raza, orientación sexual, edad, etc.). Sin una intervención crítica, estas tecnologías corren el riesgo de cristalizar estas desigualdades en las agendas del Norte Globla para la toma de decisiones.

      Los anuncios de spyware dirigidos a hombres para espiar a mujeres refuerzan la narrativa de que las corporalidades feminizadas deben ser controladas y vigiladas, lo cual perpetúa dinámicas de poder patriarcales en el ámbito digital.

      Las corporalidades no son sólo receptores pasivos de las tecnodiversidades, sino también el terreno donde se materializan las desigualdades y las posibilidades de transformación. Una posibilidad crítica feminista implica entender cómo estas tecnodiversidades afectan a las personas en su materialidad y subjetividad.

      El texto subraya la necesidad de movilizar equipos interdisciplinarios que incluyan perspectivas feministas, antirracistas para diseñar Inteligencias Artificiales que no solo mitiguen los sesgos, sino que avancen hacia sistemas que promuevan la equidad. Esto requiere integrar voces históricamente marginadas, especialmente de mujeres y niñas del Sur Global.

      La frase “Nosotros le damos forma a nuestras herramientas y por ende, nuestras herramientas nos dan forma a nosotros” destaca la urgencia de diseñar Inteligencias Artificiales que reflejen los valores de igualdad, justicia y derechos humanos. Esto implica establecer estándares éticos y normativos para la creación de tecnologías que no perpetúen dinámicas de explotación.

      Una Inteligencia Artificial feminista debe imaginar nuevas formas de interacción tecnológica que empoderen a las corporalidades históricamente marginadas. Esto incluye a la traducción con Inteligencia Artificial y generación de lenguaje que respeten y representen la diversidad de experiencias humanas, evitando la imposición de estereotipos.

    7. when Google Translate converted news articles written in Spanish into English

      Las posibilidades críticas de las corporalidades y la traducción en tiempos de Inteligencia Artificial devela cómo estas tecnologías perpetúan y amplifican dinámicas de poder, desigualdades estructurales y estereotipos históricos.

      La IA no opera en un vacío, sino que reproduce los sesgos en las agendas que diseñan y entrenan en el Norte Global.

      Las corporalidades juegan un papel crucial, pues los sistemas algorítmicos afectan directamente a cómo las personas son representadas, entendidas y tratadas en los entornos digitales.

      Cuando Google Translate introduce sesgos de género en idiomas sin pronombres específicos, como el turco, o asignan estereotipos de género (“ella es cocinera”, “él es ingeniero”), están reconfigurando las representaciones de las corporalidades en una forma que refuerza estructuras de opresión.

      Esto refleja cómo las tecnologías lingüísticas no son neutrales, sino que privilegian corporalidades asociadas al poder (masculino, blanco, occidental) y desvalorizan otras.

      La elección de voces femeninas por defecto en Alexa, Siri y Google Home, junto con su incapacidad superior para reconocer voces femeninas, subraya cómo las tecnologías perpetúan una visión servicial y subordinada de las corporalidades femeninas.

      Esto refuerza estereotipos que asocian a las mujeres con roles de cuidado y servicio, mientras priorizan y optimizan las experiencias de los hombres en la interacción con estas máquinas.

      Ejemplos como el uso de autocompletados de Google para reforzar estereotipos sexistas (“las mujeres no deberían tener derechos”) son formas de violencia simbólica que afectan las corporalidades al crear entornos digitales hostiles para ciertos grupos.

      Estas manifestaciones tecnológicas no solo reflejan la discriminación existente, sino que la normalizan y amplifican, impactando cómo las corporalidades son percibidas en lo social.

      Los modelos de OpenAI, muestran cómo las desigualdades históricas y los estereotipos se entrelazan en las estructuras de datos, reproduciendo narrativas que deshumanizan o limitan las posibilidades de ciertos cuerpos. En este sentido, el texto generado por modelos como GPT-2 no solo refleja sesgos, sino que los materializa al influir en cómo se entienden y representan las corporalidades en el ámbito público.

      Al desviar la representación de ciertas identidades hacia patrones dominantes, las tecnologías lingüísticas marginan corporalidades que no se ajustan al modelo hegemónico. En lugar de ser herramientas de inclusión, estas tecnologías refuerzan las jerarquías.

      Los sesgos de género en la traducción o generación de texto no afectan a las mujeres de manera uniforme; mujeres racializadas, personas no binarias y otros cuerpos vulnerabilizados enfrentan formas más profundas de exclusión en estas tecnologías.

      Las tecnologías lingüísticas deberían ser entrenadas con datos que reflejen la diversidad de las experiencias humanas y representen positivamente todas las corporalidades.

      Es crucial que las agendas del Norte Global sean responsables al auditar sus modelos para identificar y corregir sesgos que afectan corporalidades específicas.

      Incorporar voces diversas en el diseño y desarrollo de estas herramientas, especialmente de grupos históricamente excluidos, para garantizar que las tecnologías no perpetúen opresiones.

    8. COVID-19 pandemic

      Los cuerpos de mujeres, niñas y otros grupos marginados del Sur Global son doblemente afectados por las dinámicas de exclusión tecnológica.

      La rápida implementación de la Inteligencia Artificial en el Norte Global, agravada por las desigualdades intensificadas por la pandemia, tiene consecuencias tangibles en los cuerpos del Sur Global: desde la falta de acceso a tecnologías relevantes hasta la imposición de sistemas diseñados para contextos ajenos, que ignoran sus necesidades y realidades vividas.

      La ausencia de investigación y diseño inclusivo para abordar los problemas únicos del Sur Global perpetúa una violencia estructural que se manifiesta en cuerpos precarizados: sistemas de salud que no consideran diferencias de género y etnicidad, tecnologías laborales que refuerzan inequidades de clase y género, y un acceso limitado a soluciones que podrían mejorar sus condiciones materiales.

      Actuar con rapidez es vital para evitar que estas exclusiones se solidifiquen, ampliando aún más el abismo entre los cuerpos del Norte y del Sur Global.

      Incorporar posibilidades críticas y éticas a las corporales feministas del Sur Global en la investigación y diseño de Inteligencia Artificial posiblemente hará las tecnologías más inclusivas, y garantizará que respondan a las realidades vividas de quienes han sido históricamente marginados, generando un futuro tecnológico más equitativo y diverso.

    9. particular danger to women and girls of the Global South

      La corporalidad (experiencia vivida a través del cuerpo), tiene una relación directa con la problemática.

      Las mujeres y niñas del Sur Global, históricamente marginalizadas y excluidas de las esferas de poder y toma de decisiones, viven estas dinámicas opresivas de manera tangible en sus cuerpos.

      Estas exclusiones limitan su acceso a la tecnología y a la creación de soluciones para los problemas sociales, y refuerzan desigualdades que se manifiestan físicamente en la precarización de sus vidas, en la explotación laboral y en la violencia de género.

      Se acentúa al considerar las posibilidades críticas y éticas de la Inteligencia Artificial y Toma de Decisiones Algorítmica (ADM), que replican y amplifican patrones discriminatorios preexistentes.

      Los algoritmos aprenden de datos históricos que reflejan desigualdades sociales, muchas de las cuales están profundamente entrelazadas con la corporalidad. Por ejemplo, sistemas de reconocimiento facial que tienen tasas de error más altas para personas racializadas o algoritmos de contratación que perpetúan sesgos de género impactan directamente en cómo los cuerpos de las mujeres y niñas del Sur Global son valorados y tratados en diferentes contextos.

      La corporalidad es un punto de partida para entender cómo estas exclusiones se viven, y es una herramienta clave para imaginar resistencias y alternativas.

      A través de sus cuerpos, sus experiencias y sus luchas, las mujeres y niñas pueden desafiar estas estructuras opresivas y reclamar su lugar en la construcción de un futuro tecnológico más equitativo y justo.

    1. AI systems reflect those biases which can influence who gets access to finance, services or opportunities, and risk amplifying social inequalities related to gender, ethnicity, income level in ways we may not be able to change in the future.

      Los sesgos que se perciben de manera intrínseca en la IA de acuerdo a las necesidades de sus creadores, influencia en la decisión de aquellos usuarios para manipular la información teniendo un impacto en la desigualdad social (género, etnia, capacidad económica)

  2. Aug 2024
    1. Enhancing AI for Gender Equality through the Multistakeholder Approach

      From a study on the cooperation to develop artificial intelligence technology with a focus on gender fairness through the multi-stakeholder approach in Europe, it was found that the case of the Netherlands is particularly notable. A seminar was organized to present a case study on the problem of gender bias arising from AI algorithms. The event aimed to raise awareness and develop solutions to address gender bias created by AI algorithms. Speakers presented real-life case studies from the labor market, highlighting the causes of these issues and the urgent need for solutions. This allowed seminar participants to engage in discussions to develop guidelines not only for improving AI algorithms but also for amending laws to prevent gender bias resulting from the application of AI in the labor market.

  3. Mar 2024
    1. Cómo las distintas maneras de investigación creación, entre las que se encuentran la investigación diseñística, artística, IAP, entre otras, informa y dialoga con la propia investigación doctoral y sus epistemologías.

      Dentro de las distintas maneras de investigación creación, ¿se contempla el uso de herramientas de inteligencia artificial?

  4. Mar 2023
  5. Aug 2019
    1. Em 2015, o serviço de streaming de música Spotify criou a playlist chamada Descobertas da Semana, que funciona como uma curadoria digital. O algoritmo responsável por esta playlist utiliza técnicas de Filtragem Colaborativa, Processamento de Linguagem Natural e Processamento de Sinais de Áudio através de Redes Neurais Convolucionais para compor a playlist semanalmente.[33]
  6. Jun 2019
    1. We Need to Talk, AIDr. Julia SchneiderLena Kadriye ZiyalA Comic Essay on Artificial Intelligence

      Un ensayo en cómic: esto pinta muy pero muy bien

  7. Mar 2018
    1. The concentration of skills in certain countries and global companies could lead to a situation where other (native) companies are crowded out.

      Riesgo de la falta de desarrollo de capacidades informacionales, pero o por lo mínimo, sino por lo máximo: No se trata de gente que no sabe usar un computador y debe aprenderlo, sino de aquellos que desarrollan inteligencia artificial y no tienen la capacidad de llegar hasta lo más alto en esta escala.

    2. Artificial intelligence (AI), machine learning and deep learning

      Explicación gráfica de artificial intelligence, machine learning y deep learning

    3. we will use an inclusive definition of intelligence as ‘problem-solving’ and consider ‘an intelligent system’ to be one which takes the best possible action in a given situation.

      Inteligencia:

      • Capacidad de resolver problemas.
      • Capacidad de elegir la mejor opción en una determinada situación.
  8. Feb 2018
    1. ecent article in the Scientific Americanasked whether democracy will survive big data and artificial intel

      Ciertamente los temas relacionados con datos, inteligencia artificial y algoritmos son de mucho interés en la actualidad, frente al uso de tecnologías. La Web Foundation tiene documentos al respecto.