- Jan 2025
-
feministai.pubpub.org feministai.pubpub.org
-
Research can be considered feminist when it is grounded in a set of theoretical traditions that privilege women’s issues and experiences.
La investigación feminista se centra en analizar los desequilibrios de poder en los temas estudiados y en las relaciones entre investigadores y comunidades. Esto es particularmente relevante para las comunidades indígenas colombianas, ya que combina herramientas éticas como la reflexividad y la interseccionalidad para comprender cómo factores como género, etnicidad y clase afectan sus experiencias.
Un componente clave de la investigación feminista es la integración del análisis de género, que va más allá de la desagregación por sexo y examina actitudes, normas y desigualdades estructurales. En el contexto del trabajo colaborativo en plataformas de Inteligencia Artificial, se realizaron encuestas piloto en Toloka para explorar las vivencias de las mujeres latinoamericanas, incluyendo variables como la pobreza de tiempo, el equilibrio entre el trabajo y las responsabilidades familiares, y las actitudes externas hacia su labor.
Las comunidades indígenas colombianas, al igual que otras poblaciones marginadas, enfrentan retos únicos en el acceso al trabajo colaborativo y la tecnología. El diseño de investigaciones sensibles a sus contextos culturales y sociales, junto con mecanismos éticos como el pago justo y el respeto a su autonomía, permite entender mejor sus necesidades, motivaciones y desafíos. Esto puede contribuir a desarrollar políticas y herramientas más inclusivas que promuevan la igualdad de género, el fortalecimiento comunitario y la equidad en el acceso a oportunidades tecnológicas.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Prototype for E.D.I.A
El proyecto E.D.I.A (Estereotipos y Discriminación en Inteligencia Artificial) desarrolló una herramienta accesible para evaluar sesgos en procesamiento de lenguaje natural (PLN), específicamente en word embeddings y modelos de lenguaje de gran escala. Este prototipo, alojado en Huggingface, permite que expertos en discriminación, sin habilidades técnicas avanzadas, participen en la detección de sesgos desde las etapas iniciales del desarrollo de tecnologías lingüísticas, evitando daños sociales posteriores.
El proyecto busca empoderar a especialistas en discriminación para auditar sesgos en herramientas de PLN que moldean aplicaciones cotidianas. Estas tecnologías suelen replicar y perpetuar los sesgos presentes en los datos de los que aprenden. Sin embargo, las evaluaciones tradicionales dependen de habilidades técnicas avanzadas en programación y estadística, excluyendo a los expertos en discriminación del núcleo del proceso.
Innovaciones del Prototipo
Visualizaciones Intuitivas: Sustituyen métricas técnicas con representaciones gráficas, permitiendo un análisis más accesible y comunicable.
Conceptos Simplificados: Evitan terminología matemática y estadística compleja, priorizando conceptos intuitivos.
Relaciones Contextuales: Representan gráficamente interacciones entre palabras, contextos de uso y expresiones multi-palabra, enriqueciendo el análisis.
Implementación y Pruebas
El prototipo fue evaluado en talleres interdisciplinarios en Argentina, con 100 asistentes de sectores como la academia, la industria, instituciones públicas y sociedad civil. Estas sesiones confirmaron la utilidad de la herramienta para:
Validar intuiciones sobre discriminación.
Planificar acciones correctivas.
Facilitar debates fundamentados con actores diversos.
Impacto y posible aplicación en Colombia
En Colombia, donde convergen diversas corporalidades y realidades lingüísticas, esta herramienta podría abordar desafíos específicos, como:
Sesgos relacionados con género, raza y clase en aplicaciones de inteligencia artificial.
Exclusión de lenguas indígenas y afrodescendientes en modelos lingüísticos.
Representaciones perjudiciales en medios digitales y plataformas sociales.
El prototipo y su metodología podrían tener potencial para integrarse en prácticas de investigación, políticas públicas y desarrollo tecnológico en Colombia. Además, sus características inclusivas podrían fomentar una mayor participación de comunidades diversas en la creación de tecnologías éticas y culturalmente relevantes.
Recursos Disponibles
Prototipo interactivo: Huggingface.
Código fuente y documentación: Repositorio en GitHub.
Video introductorio: E.D.I.A: Estereotipos y Discriminación en Inteligencia Artificial.
Con este enfoque, E.D.I.A demuestra que reducir barreras técnicas es esencial para construir inteligencia artificial inclusiva y culturalmente sensible, destacando el potencial de metodologías colaborativas en Colombia junto con el Sur Global.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Technical, Social and Ethical Considerations of the Workflow of the system
El perfil arquetípico para este sistema es una mujer activa en redes sociales que sufre violencia digital, siendo un referente de opinión o activista. Este enfoque tiene en cuenta que muchas de las mujeres víctimas son líderes de opinión, comunicadoras, académicas o activistas con influencia política, social y de derechos humanos. Por ello, el diseño de la interacción con el chatbot debe ser empático, inclusivo y sensible a las corporalidades de las mujeres en Colombia.
Inteligencia Artificial en el Sistema
La Inteligencia Artificial será clave para el procesamiento y análisis de los casos reportados. El sistema automatizado clasificará la información obtenida, identificando los siguientes elementos:
Tipos de ataque: tipologías de violencia digital.
Palabras clave asociadas al acoso: para identificar patrones recurrentes.
Perfiles de los agresores: para identificar posibles perfiles de acosadores.
Frecuencia y recurrencia: para rastrear la aparición de ataques en contextos específicos (por ejemplo, durante crisis sociopolíticas).
El sistema permitirá, además, generar alertas automáticas cuando se identifiquen patrones de ataque coordinado o perfiles de agresores recurrentes. Esta información será almacenada en una base de datos, que alimentará visualizaciones de datos accesibles al público, lo cual puede ser utilizado por investigadores, periodistas y otras partes interesadas para desarrollar políticas públicas o acciones de defensa.
Protección de Datos y Privacidad
Los datos solicitados al momento del reporte de violencia digital serán limitados y confidenciales. Se pedirá a las víctimas que proporcionen:
Fecha aproximada del ataque.
Plataforma de redes sociales donde ocurrió el ataque.
Evidencia del ataque (captura de pantalla, vínculo, detalles del perfil del agresor).
Datos opcionales como nombre (no necesariamente real), correo electrónico, edad, ocupación y ciudad.
El sistema incluirá una política de privacidad clara y accesible, explicando cómo se utilizarán los datos para el seguimiento y la elaboración de informes. Esto garantizará que el proceso sea transparente y respetuoso con la privacidad de las usuarias.
Impacto y Alcance
La implementación de este sistema en Colombia buscará generar un impacto social a través de una campaña de divulgación que informe a las mujeres sobre la disponibilidad de esta plataforma para reportar casos de DGV y recibir orientación. El sistema tiene como objetivo:
Desarrollar un modelo de base de datos que categorice y cuantifique los casos de violencia digital en Colombia.
Generar visualizaciones de datos que sean descargables y útiles para diversas partes interesadas.
Crear informes que sirvan como herramientas para la toma de decisiones en políticas públicas y apoyo de organizaciones feministas y de derechos humanos.
Desarrollo Futuro
El desarrollo del prototipo del chatbot se apoyaría en principios feministas, y se utilizarían guías de Inteligencia Artificial feminista para asegurar que el diseño del sistema no solo sea funcional, sino también ético y respetuoso con las mujeres. Este chatbot no será una solución única, sino parte de un sistema de soporte integral que incluye recursos y apoyo emocional, legal y digital. Además, se buscarán colaboraciones con organizaciones feministas en Colombia y el sector público para fortalecer el impacto y la implementación del sistema.
Búsqueda de financiamiento para la fase de desarrollo y prueba del prototipo.
Desarrollo y ajuste del chatbot con la inclusión de un equipo de programadores especializados.
Establecimiento de alianzas con organizaciones y organismos nacionales e internacionales para apoyo en la fase de implementación.
Publicación del informe final y la documentación técnica para su difusión académica y en medios abiertos.
-
Presentation of the proposal: towards a feminist chatbot prototype
El diseño podría incorporar posibilidades sensibles a las corporalidades, la traducción y la Inteligencia Artificial para adaptarlo a las necesidades de las mujeres en Colombia.
Etapas del Proceso de Interacción
Reporte Inicial (Paso 1)
La mujer afectada conecta con el chatbot y se le invita a relatar su experiencia, utilizando un lenguaje empático que no victimiza ni culpa. Se le preguntan detalles sobre el ataque (plataforma, tipo de violencia, momento, posibilidad de subir evidencia, etc.).
La Inteligencia Artificial se emplea para clasificar los casos con base en palabras clave y patrones de violencia digital, generando una base de datos para un análisis más profundo.
Orientación para Reportar en Plataformas Sociales (Paso 2)
El chatbot guía a la víctima sobre cómo denunciar en la plataforma donde ocurrió el ataque, proporcionando enlaces directos a formularios y tutoriales.
Orientación para Reportar a la Policía (Paso 3)
Se ofrecería información sobre cómo denunciar el caso a la policía colombiana, proporcionando enlaces y números de contacto relevantes.
Apoyo Legal (Paso 4)
El chatbot proporciona orientación sobre el marco legal colombiano, aunque la violencia digital aún puede no estar completamente tipificada como delito, y ofrece enlaces a organizaciones que brindan asesoría legal.
Apoyo Emocional (Paso 5)
El chatbot ofrece acceso a información sobre apoyo emocional y psicológico, al incluir organizaciones que trabajan en salud mental y acompañamiento para mujeres víctimas de violencia.
Seguridad Digital (Paso 6)
Se ofrece orientación sobre cómo mejorar la seguridad digital, al proporcionar guías descargables y recomendaciones sobre plataformas especializadas en ciberseguridad, adaptadas al contexto colombiano.
Monitoreo del Caso (Paso 7)
El chatbot hace seguimiento al caso, pregunta si la violencia persiste y ofrece la opción de recibir información sobre talleres relacionados con la violencia digital y la protección en línea.
Conexión con una Comunidad (Paso 8)
Se ofrece la posibilidad de unirse a una comunidad de mujeres que han experimentado situaciones similares, creando un espacio seguro para el apoyo mutuo.
Cierre del Diálogo (Paso 9)
El chatbot cierra la conversación con un mensaje de apoyo y proporciona acceso continuo a los recursos y servicios disponibles.
Corporialidades
El chatbot debe comprender las diversas formas en que las mujeres experimentan la violencia digital, al considerar no solo las consecuencias emocionales y psicológicas, sino también cómo estos ataques pueden afectar su cuerpo, su bienestar y su seguridad. El chatbot debe ofrecer una interacción sensible a estos aspectos, al asegurar que la víctima se sienta comprendida y no juzgada.
Traducción
Se debe adaptar el lenguaje y los recursos disponibles al contexto colombiano, al tener en cuenta las diversas realidades socioculturales del país, como las diferencias en dialectos, clases sociales y la especificidad de las plataformas de comunicación más usadas por las mujeres colombianas. El chatbot puede ofrecer versiones en español con terminología regional para asegurar una mejor comprensión.
Inteligencia Artificial
La Inteligencia Artificial juega un papel fundamental al analizar los datos recopilados, luego de identificar patrones de abuso y ayudar a clasificar los tipos de violencia digital. Además, la Inteligencia Artificial puede optimizar el sistema para ofrecer respuestas más rápidas y personalizadas, al aprender de cada interacción para mejorar la asistencia en tiempo real.
-
Methodology : Applying feminist principles in the research with women who have experienced DGV situations
La creación de un sistema de respuesta para mujeres que han sufrido violencia de género digital desde una perspectiva feminista implica desarrollar todo el proceso de diseño y creación basado en principios feministas. Este enfoque, fundamentado en la co-creación participativa, el pluralismo, la agencia de las usuarias y la incorporación de corporalidades, busca soluciones tecnológicas que respeten y amplifiquen las experiencias y necesidades de las mujeres afectadas.
Principios Clave para el Diseño Feminista
Pluralismo y Participación
Involucrar activamente a las mujeres afectadas y a organizaciones feministas durante el proceso de diseño para garantizar que las soluciones reflejen sus vivencias y necesidades específicas.
Conocimiento Situado
Reconocer las dinámicas de poder y evitar reproducir desigualdades estructurales. La metodología debe ser inclusiva y ética, dando espacio a voces históricamente marginadas.
Embodiment (Corporalidad)
Incorporar la dimensión emocional y corporal en la investigación, entendiendo cómo las mujeres viven y procesan los episodios de violencia digital.
Agencia de las Usuarias
Diseñar sistemas donde las mujeres sean protagonistas y agentes de su propio proceso, en lugar de delegar el poder únicamente a los diseñadores o instituciones.
Metodología de Investigación
El diseño del sistema se estructuró en dos fases principales:
Co-creación con Mujeres Afectadas y Organizaciones Feministas
A través de entrevistas profundas y dinámicas participativas (como mapas de viaje emocional), se exploraron las experiencias, necesidades y deseos de las mujeres afectadas.
Hallazgos Clave
Sensación de soledad y desorientación al enfrentar la violencia digital.
Restricciones autoimpuestas en redes sociales, como privatización de cuentas y limitación de publicaciones.
Necesidad de comunidades de apoyo para compartir experiencias y evitar revictimización.
Deseo de sistemas tecnológicos que ofrezcan orientación clara y rápida.
Entrevistas con Instituciones y Expertos
Se consultaron actores estratégicos, como instituciones públicas y organizaciones especializadas, para validar y complementar las necesidades identificadas.
Propuesta Tecnológica: Incorporación de Inteligencia Artificial y Traducción
Uso de IA para la Detección y Análisis
Patrones de Violencia: Identificar tendencias en el uso de palabras clave, emojis o comportamientos recurrentes.
Alertas Preventivas: Implementar sistemas que indiquen niveles de riesgo y sugieran acciones inmediatas.
Apoyo Multilingüe
Implementar traducción automática para garantizar accesibilidad a mujeres de diferentes regiones y contextos lingüísticos en Colombia.
Enfoque Comunitario y de Cuidado
Crear redes de apoyo virtual donde las mujeres puedan compartir experiencias y recibir orientación en tiempo real.
Recomendaciones Específicas para aplicarlo en Colombia
Contexto y Localización
Adaptar el sistema a las necesidades específicas de mujeres colombianas, considerando las barreras de acceso tecnológico y el limitado apoyo institucional en ciertos casos de VGD.
Protocolo de Orientación
Diseñar un protocolo que permita a las usuarias entender qué es la violencia digital, cómo proceder y con quién contactar para recibir apoyo.
Confidencialidad y Privacidad
Garantizar que el sistema no requiera información personal innecesaria y respete la privacidad de las usuarias, especialmente en contextos de violencia.
Colaboración y Sostenibilidad
Fomentar alianzas entre organizaciones feministas, instituciones locales y expertos en Inteligencia Artificial para asegurar la sostenibilidad del proyecto.
-
Summary of feminist principles' framework for AI
La Inteligencia Artificial puede ser una herramienta clave para abordar la VGD en Colombia mediante el desarrollo de chatbots o agentes conversacionales:
Asesorar y guiar para proveer información sobre derechos, rutas de denuncia y acceso a apoyo legal, psicológico y emocional.
Prevenir y detectar patrones de riesgo al analizar palabras clave, emojis o interacciones para identificar posibles crisis de violencia y generar alertas.
Empoderar comunidades para permitir que las víctimas accedan a redes de apoyo y recursos de manera anónima y segura, respetando principios de privacidad y datos.
Principios clave para el desarrollo de IA feminista
De acuerdo con los principios propuestos por Juliana Guerra (2022) y basados en experiencias previas con chatbots en otros países, las soluciones de IA deben:
Ser colaborativas y participativas para co-diseñarse con comunidades, activistas y expertas/os para reflejar las necesidades específicas del contexto colombiano.
Incorporar conocimientos situados para reconocer las particularidades socioculturales y las corporalidades diversas de las personas usuarias.
Garantizar privacidad y consentimiento al usar datos de manera transparente y proteger la identidad de las víctimas.
Fomentar la autonomía para crear herramientas de código abierto y accesibles, evitando la dependencia exclusiva de instituciones públicas.
Un chatbot inspirado en iniciativas como Maruchatbot o Soy Violetta podría ser diseñado en Colombia para:
Brindar orientación en español y lenguas indígenas.
Incorporar enfoques interseccionales que reconozcan las realidades de mujeres rurales, afrodescendientes y LGBTIQ+.
Detectar riesgos mediante Inteligencia Artificial, pero sin almacenar información sensible innecesaria.
Crear alianzas con organizaciones locales y académicas para garantizar sostenibilidad y contextualización.
-
Chilean context
En Colombia, la ausencia de datos sistematizados, políticas públicas específicas y mecanismos de apoyo institucional, al igual que en Chile, las mujeres enfrentan esta violencia de forma individualizada, sin acceso consistente a redes de apoyo o recursos adecuados. La situación se complica al considerar las diversas corporalidades y contextos sociales, como el de las mujeres rurales, afrodescendientes, indígenas y LGBTQ+, quienes enfrentan formas de violencia exacerbadas por su interseccionalidad.
El país carece de un marco normativo sólido para enfrentar la VGD, a pesar de iniciativas legislativas recientes que abordan parcialmente el problema. Las denuncias en redes sociales, principal mecanismo utilizado por las víctimas, presentan limitaciones como la falta de seguimiento, la continuidad de los ataques y la opacidad de los procedimientos de las plataformas.
La incorporación de Inteligencia Artificial puede transformar el abordaje de la VGD en Colombia con:
Creación de sistemas de datos sistematizados
Bases de datos integradas y centralizadas que permitan identificar patrones, tendencias y perfiles de agresores.
Análisis predictivo para anticipar riesgos y mejorar los mecanismos de protección para las mujeres.
Desarrollo de chatbots con enfoque feminista
Prototipos como asistentes conversacionales que proporcionen orientación legal, psicológica y emocional, adaptados a los contextos regionales y culturales del país.
Incorporación de traducción automática para lenguas indígenas y dialectos, garantizando accesibilidad en comunidades diversas.
Fortalecimiento de redes de apoyo virtuales
Promoción de iniciativas lideradas por colectivas feministas y activistas tecnológicas para diseñar herramientas que amplíen las capacidades de respuesta comunitaria.
Creación de espacios seguros para compartir experiencias y buscar ayuda sin temor a represalias.
Prevención mediante Inteligencia Artificial
Campañas educativas automatizadas para informar sobre la VGD y empoderar a las mujeres en el uso seguro de tecnologías digitales.
Principios feministas para el diseño de IA
El diseño de estas herramientas debe incorporar principios feministas que cuestionen el extractivismo de datos y prioricen la privacidad y la seguridad de las usuarias. Además, deben considerar las corporalidades y experiencias diversas de las mujeres en Colombia, garantizando que las soluciones no perpetúen desigualdades estructurales.
El desarrollo de soluciones basadas en Inteligencia Artificial, junto con políticas públicas adecuadas y la participación activa de mujeres en su diseño, puede ser un paso crucial para abordar la violencia de género digital en Colombia. Esto no solo contribuiría a la prevención y atención de casos, sino también a la creación de un entorno digital más seguro e inclusivo para todas las mujeres.
-
Summary of Gender Digital Violence
En Colombia, la violencia de género digital (VGD) no solo afecta a mujeres por su mera presencia en plataformas digitales, sino que se agrava cuando participan activamente en debates, liderazgos políticos o en la defensa de derechos humanos y la igualdad de género. Esta violencia, una extensión de la violencia de género offline, tiene profundas consecuencias en la vida personal, emocional y pública de las mujeres, afectando su identidad, dignidad, integridad física y psicológica, y su derecho a la libertad de expresión.
La violencia política contra las mujeres, definida por la Organización de los Estados Americanos (OEA) como cualquier acción basada en el género que busca limitar o anular el ejercicio de sus derechos políticos, se manifiesta de forma recurrente en redes sociales. Estos espacios digitales, estratégicos para comunicadoras, activistas y lideresas, son utilizados para acoso, discursos de odio, ataques simbólicos y amenazas, con el objetivo de silenciar sus voces o inhibir su participación pública.
El impacto de la VGD y la violencia política digital se evidencia en la autocensura, la eliminación de perfiles en redes sociales y el retiro del debate público, perpetuando las barreras de género existentes. Esto afecta especialmente a mujeres indígenas, afrodescendientes, rurales y LGBTQ+, cuyas corporalidades y experiencias de violencia están atravesadas por múltiples formas de discriminación.
En Colombia, donde las desigualdades sociales y la violencia de género convergen con altos índices de violencia política, la Inteligencia Artificial podría desempeñar un papel esencial.
Monitoreo de violencia digital
Uso de Inteligencia Artificial para detectar patrones de discurso de odio, acoso y amenazas dirigidas a mujeres en redes sociales.
Mapeo de las dinámicas de violencia en diferentes regiones y plataformas.
Orientación personalizada
Creación de chatbots que brinden apoyo inmediato a víctimas de VGD, incluyendo traducción automática a lenguas indígenas y regionales, adaptándose a las realidades pluriculturales del país.
Provisión de información sobre recursos legales y psicológicos específicos para mujeres en riesgo.
Prevención y sensibilización
Implementación de campañas automatizadas y personalizadas para educar sobre la violencia de género digital y sus consecuencias, utilizando redes sociales para contrarrestar narrativas de odio.
Ética e inclusión
Cualquier solución tecnológica debe integrar un enfoque interseccional que considere las corporalidades y contextos diversos de las mujeres en Colombia, al respetar la privacidad y evitar prácticas extractivistas de datos. Además, es crucial incluir la participación activa de las mujeres afectadas en el diseño e implementación de estas herramientas, para garantizar su relevancia y efectividad.
La traducción, las corporalidades y la Inteligencia Artificial, puede transformar el abordaje de la VGD en Colombia, fortaleciendo la resiliencia de las mujeres y garantizando espacios digitales más seguros. Sin embargo, para que estas soluciones sean sostenibles, deben estar acompañadas de políticas públicas, colaboración interinstitucional y compromiso social para erradicar las raíces estructurales de la violencia de género.
-
La red Red de Investigación Feminista en Inteligencia artificial, f<a+i>r
La violencia de género digital (VGD) en Colombia refleja las desigualdades y dinámicas de poder presentes en la sociedad, adaptadas al ámbito tecnológico. Este fenómeno no es estático, ha evolucionado junto con el desarrollo de las tecnologías y su uso social, al transformarse desde los inicios del Internet en 1990 hasta el contexto actual de redes sociales, dispositivos móviles e interconectividad masiva. La VGD engloba cualquier conducta, acción o comportamiento que implique agresiones contra mujeres, niñas y adolescentes, con una fuerte dimensión de género que perpetúa las desigualdades.
La VGD ha sido reconocida por organismos internacionales como las Naciones Unidas y la Iniciativa Spotlight, que destacan el uso de tecnologías de la información y comunicación (TIC) como un medio que facilita, agrava o amplifica actos de violencia de género.
Se identifica como cualquier acción basada en el género que cause daño físico, psicológico, económico o simbólico, instigada o asistida por tecnologías como celulares, Internet y redes sociales.
En Colombia, como en otros países de América Latina, se han identificado entre 10 y 12 tipos de VGD, que incluye:
Acceso no autorizado: Intervención o control de cuentas personales o dispositivos.
Manipulación de información: Alteración o difusión de datos personales.
Acoso y vigilancia: Seguimiento constante en línea.
Divulgación de contenido íntimo sin consentimiento: Publicación de imágenes o información personal.
Estas formas de violencia afectan de manera desproporcionada a las mujeres debido a los roles de género y las dinámicas de poder que se trasladan al espacio digital.
La Inteligencia Artificial puede ser una herramienta crucial para abordar la VGD, especialmente en un país como Colombia, donde las desigualdades tecnológicas y sociales complican la identificación y respuesta a estos casos. Desde una posibilidad feminista e inclusiva, las siguientes aplicaciones son relevantes:
Detección y prevención
Uso de procesamiento de lenguaje natural (NLP) para identificar discursos de odio y amenazas en redes sociales.
Análisis de patrones en datos para prevenir casos recurrentes y mapear perfiles de agresores.
Orientación y apoyo a víctimas
Creación de un chatbot diseñado para brindar atención inicial a mujeres víctimas de VGD, ofreciendo información sobre recursos legales, psicológicos y de seguridad.
Traducción automática y adaptada para alcanzar a mujeres de diferentes regiones lingüísticas y culturales del país.
Sistematización de casos
Generación de bases de datos seguras para documentar incidentes y proponer políticas públicas basadas en evidencia.
Posibilidades éticas y sociales
Es fundamental que el uso de Inteligencia Artificial respete la privacidad y autonomía de las mujeres, evitando el extractivismo de datos y la revictimización. Además, su implementación debe ser sensible a las corporalidades, entendiendo que las experiencias de violencia están mediadas por factores como género, raza, clase y ubicación geográfica.
La combinación del desarrollo tecnológico con una posibilidad feminista puede transformar la forma en que Colombia enfrenta la VGD. Esto requiere no solo innovación en Inteligencia Artificial, sino también colaboración entre el gobierno, la sociedad civil y organismos internacionales para garantizar que las soluciones sean inclusivas, éticas y efectivas.
-
Digital Gender-Based Violence (DGV)
En Colombia, como en otros contextos, la violencia de género contra las mujeres se extiende a los espacios digitales, siendo una expresión del continuo de dominación patriarcal. La violencia de género digital (VGD) constituye un problema creciente en una sociedad cada vez más digitalizada, donde los entornos virtuales son una extensión de la realidad física. Esta violencia se manifiesta en acoso, discurso de odio, amenazas y otras formas de agresión hacia las mujeres a través de medios tecnológicos.
Colombia enfrenta retos similares a los de países como Chile: falta de datos sistematizados sobre casos de VGD y ausencia de políticas públicas que midan, prevengan y respondan a estas situaciones. Las iniciativas que existen suelen ser impulsadas por colectivos feministas y organizaciones civiles, pero estas no son suficientes para abordar la magnitud del problema.
La Inteligencia Artificial puede jugar un papel clave en la lucha contra la VGD, especialmente a través del procesamiento del lenguaje natural (NLP). Estas tecnologías pueden analizar grandes cantidades de datos no estructurados, sistematizar denuncias y brindar orientación inicial a las víctimas. Por ejemplo, un chatbot diseñado con principios feministas podría:
Recopilar y organizar denuncias de manera segura.
Ofrecer una orientación inicial sobre recursos legales y psicológicos disponibles.
Generar bases de datos para identificar patrones, características de los agresores y tendencias de violencia en redes sociales.
Sin embargo, el uso de la Inteligencia Artificial plantea desafíos éticos y sociales relacionados con la privacidad, el extractivismo de datos y la delegación de decisiones críticas a las máquinas. Por ello, cualquier desarrollo en este ámbito debe integrar principios feministas y un enfoque ético que priorice el bienestar y la seguridad de las mujeres afectadas.
Contexto colombiano
Dado el contexto de Colombia, donde las desigualdades de género se intersectan con problemáticas como la violencia armada, el acceso desigual a la tecnología y las brechas educativas, un proyecto de esta naturaleza debería adaptarse a las necesidades específicas del país. Algunas acciones clave serían:
Identificación de prácticas locales e internacionales para analizar experiencias de otros países y adaptarlas a las realidades culturales, sociales y legales de Colombia.
Diseño inclusivo para incorporar las voces de mujeres colombianas que han sufrido VGD y de organizaciones locales para garantizar un enfoque representativo.
Enfoque territorial para reconocer las diferencias en el acceso y uso de la tecnología entre áreas urbanas y rurales, así como las dinámicas específicas de violencia en cada contexto.
Colaboración interinstitucional para integrar el desarrollo del chatbot con esfuerzos de la sociedad civil, entidades estatales y organismos internacionales que trabajan en la atención a víctimas.
Esto no solo permitiría responder a la violencia de género digital, sino que también podría contribuir a visibilizar y combatir las desigualdades estructurales que perpetúan esta problemática en Colombia.
Tags
- Inteligencia Artificial-ética
- Corporalidades-ética
- Cartografías de tecnodiversidades-ética
- Traducción-violencia de género digital
- Corporalidades-comunidades indígenas
- Traducción-comunidades
- Traducción-ética
- Inteligencia Artificial-violencia de género digital
- Corporalidades-violencia de género digital
Annotators
URL
-
-
feministai.pubpub.org feministai.pubpub.org
-
Risks, Limitations and Opportunities
Corporalidades y Perspectiva Feminista
El proyecto AymurAI aborda la justicia con un enfoque feminista, reconociendo las corporalidades de las víctimas de violencia de género (VBG por su sigla en inglés) y la necesidad de anonimizar datos sensibles para protegerlas. En Colombia, donde las desigualdades socioeconómicas y regionales afectan el acceso a la justicia, esta herramienta podría garantizar que los datos judiciales reflejen estas realidades y promuevan soluciones inclusivas y éticas.
Traducción
Dada la diversidad lingüística y cultural en Colombia, AymurAI podría incluir capacidades de traducción y procesamiento de datos multilingües. Esto sería clave para trabajar con lenguas indígenas, dialectos locales (culturemas) y documentos en formatos mixtos (digital y analógico), permitiendo que las decisiones judiciales sean analizadas y publicadas en contextos específicos de cada región.
Inteligencia Artificial para Mitigar Sesgos
Uno de los riesgos identificados es el sesgo en los datos judiciales. En Colombia, donde las jurisdicciones judiciales y los sistemas híbridos (analógico y digital) presentan variabilidad, AymurAI debería adaptarse para identificar y señalar estos sesgos, proporcionando contexto sobre las limitaciones de los datos. Por ejemplo, en zonas rurales con poca densidad poblacional, la anonimización adicional sería crucial para proteger la identidad de las personas.
Estrategias de Implementación
El proyecto plantea un enfoque gradual y adaptativo, priorizando casos piloto en tribunales específicos, con miras a extenderse a otras jurisdicciones. En Colombia, esto podría significar iniciar con tribunales especializados en violencia de género y, progresivamente, incorporar otras ramas judiciales. Las herramientas desarrolladas deben ser maleables para adaptarse a diversas necesidades locales, manteniendo una base tecnológica abierta y colaborativa.
Innovación Social
Transformar prácticas judiciales al crear oficinas especializadas en tribunales para gestionar datos legales con Inteligencia Artificial, al valorar la experiencia humana y utilizando la Inteligencia Artificial como una herramienta complementaria.
Fomentar la justicia abierta para facilitar bases de datos públicas accesibles y contextualizadas, útiles para la elaboración de políticas públicas, activismo y generación de conciencia ciudadana.
Mejorar la experiencia del usuario al incorporar visualizaciones interactivas para comunicar datos de forma comprensible y centrarse en aspectos menos visibles de la justicia.
Retos en Colombia
Infraestructura desigual y limitada en zonas rurales.
Resistencia al cambio en sistemas judiciales tradicionales.
Necesidad de entrenamiento para operadores judiciales en el uso de tecnodiversidades como la Inteligencia Artificial.
Oportunidades
Construcción de una justicia más inclusiva y centrada en las personas.
Desarrollo de tecnología que respete las diversidades culturales y lingüísticas del país.
Promoción de la transparencia y la participación ciudadana en los sistemas de justicia.
AymurAI podría ser un catalizador para modernizar y feminizar la justicia en Colombia, integrando traducción, corporalidades y enfoques de Inteligencia Artificial éticos.
Su implementación fortalecería la protección de las víctimas, mejoraría la calidad de los datos judiciales y abriría nuevas oportunidades para construir una justicia más accesible, equitativa y adaptada a las necesidades locales.
-
Method and Plan
El proyecto AymurAI se basa en principios de ciencia de datos feminista, integrando teorías como Data Feminism (D’Ignazio y Klein, 2020) y guías sobre aprendizaje automático centrado en las personas (Chancellor, 2018). Su enfoque se orienta al usuario y prioriza la colaboración con personal judicial y organizaciones feministas locales, con una constante evaluación ética durante el diseño y desarrollo. Estas características hacen que AymurAI sea adaptable al contexto colombiano, donde la justicia enfrenta desafíos en violencia de género (VBG por su sigla en inglés), desigualdades tecnológicas y diversidad cultural.
Corporalidades
En Colombia, las corporalidades de las víctimas de violencia de género requieren protección especial dentro de procesos judiciales. AymurAI puede garantizar la anonimización de datos sensibles, permitiendo analizar patrones sin comprometer identidades. Esto fortalecería sistemas judiciales como las comisarías de familia y las fiscalías, promoviendo un tratamiento ético y equitativo de las víctimas.
Traducción
El enfoque del proyecto es altamente adaptable al multilingüismo colombiano, considerando lenguas indígenas y variaciones dialectales en diferentes regiones. La herramienta necesitaría incorporar modelos que respeten y trabajen con la diversidad cultural, facilitando la traducción y análisis de documentos en diferentes idiomas locales.
Inteligencia Artificial Centrada en las Personas
AymurAI combina técnicas de expresiones regulares y aprendizaje automático (NLP) para extraer información estructurada de documentos legales. En el contexto colombiano, esto podría aplicarse para construir bases de datos abiertas que detallen los casos de violencia de género, al ayudar a generar políticas públicas informadas. La colaboración con expertos locales y organizaciones feministas garantizaría que los resultados reflejen las necesidades y realidades específicas del país.
Cronograma y Viabilidad
Un cronograma exploratorio, iterativo y de seis meses permitiría:
Primera fase: Definición de requisitos, etiquetado manual de datos judiciales y desarrollo inicial de modelos basados en expresiones regulares y aprendizaje automático.
Segunda fase: Evaluación de métricas (como precisión y sesgo) y construcción del prototipo.
Tercera fase: Pruebas de usabilidad, refinamientos y pilotaje en un tribunal (equivalente a la implementación inicial en el Tribunal Penal 10 de CABA).
Ventajas y Retos en Colombia
Ventajas:
Protección y anonimización de datos sensibles.
Automatización de tareas administrativas judiciales.
Creación de bases de datos accesibles y abiertas, fomentando la transparencia.
Retos:
Infraestructura desigual, especialmente en regiones rurales.
Capacitación en tecnología para operadores judiciales.
Manejo de sesgos y diversidad cultural en los modelos de Inteligencia Artificial.
AymurAI tiene un alto potencial para contribuir a una justicia más ética, transparente y centrada en las personas en Colombia.
La adaptación al contexto local, mediante la inclusión de traducción, protección de corporalidades y enfoque en Inteligencia Artificial ética, puede transformar significativamente la gestión de datos en casos de violencia de género.
-
Proposed prototype
El prototipo AymurAI, se inspira en el término quechua aymuray (tiempos de cosecha), propone un prototipo de Inteligencia Artificial para automatizar parcialmente la publicación y mantenimiento de datos abiertos en casos de violencia de género (VBG por su sigla en inglés). Aunque originalmente diseñado para los tribunales penales de CABA y México, su enfoque podría adaptarse al contexto colombiano, considerando los desafíos específicos de la justicia en este país, como las disparidades en infraestructura tecnológica, la necesidad de enfoque sensible al género y las dinámicas socioculturales complejas.
Contexto Colombiano
Corporalidades
La justicia colombiana enfrenta retos particulares en la protección de las corporalidades de las víctimas de VBG. AymurAI podría ser una herramienta clave para garantizar que los datos sensibles sean anonimizados, protegiendo la identidad y contexto de las víctimas, mientras se recopilan datos estructurados sobre los casos para análisis y políticas públicas. Este enfoque fortalecería iniciativas locales como las comisarías de familia, las fiscalías y las líneas de atención a víctimas.
Traducción y Localización Cultural
Dado el multilingüismo y las diferencias culturales en Colombia con las lenguas indígenas y contextos rurales, sería crucial adaptar AymurAI para interpretar documentos en diversos idiomas locales, manteniendo su sensibilidad hacia las especificidades culturales. Además, los formatos comunes en los procesos judiciales colombianos (e.g., actas en Word o PDF) deberían integrarse al sistema para asegurar compatibilidad.
Inteligencia Artificial y Justicia
AymurAI aprovecharía técnicas como el reconocimiento de entidades nombradas (NER) y expresiones regulares para automatizar la extracción de datos relevantes de documentos legales. Este modelo puede capacitarse con datos de fallos judiciales colombianos, como los producidos por los juzgados especializados en VBG, para identificar patrones específicos en contextos nacionales.
Análisis y transparencia de datos: El sistema podría ayudar a construir una base de datos abierta sobre casos de VBG en Colombia, promoviendo transparencia y permitiendo el análisis de tendencias que fortalezcan políticas públicas.
Reducción de carga administrativa: AymurAI permitiría a los funcionarios judiciales automatizar tareas repetitivas como la anonimización de datos, mejorando la eficiencia del sistema judicial.
Accesibilidad y equidad: Una interfaz sencilla aseguraría que incluso empleados judiciales sin conocimientos técnicos puedan operar el sistema, mejorando la inclusión en diferentes regiones del país.
Retos en el Contexto Colombiano
Infraestructura desigual: La conectividad limitada en áreas rurales podría ser un obstáculo; por ello, un sistema que funcione offline sería esencial.
Protección de datos: Garantizar la seguridad y confidencialidad de la información judicial es crítico, especialmente en casos sensibles de VBG.
Capacitación: Involucrar a los operadores judiciales en el uso de AymurAI, con énfasis en justicia de género y herramientas tecnológicas, será fundamental para su adopción efectiva.
AymurAI podría ser una herramienta transformadora para el sistema judicial colombiano, combinando Inteligencia Artificial, sensibilidad cultural y un enfoque en la protección de las víctimas para avanzar hacia una justicia más eficiente, inclusiva y transparente.
-
the current situation of justice data on GBV in Argentina and Mexico
Frente al tema de corporalidades, en ambos países, los datos judiciales reflejan cómo las violencias de género afectan los cuerpos y vidas de las personas involucradas, especialmente mujeres y poblaciones vulnerabilizadas. Sin embargo, la falta de estandarización y transparencia limita la capacidad de analizar estas experiencias de manera integral. Los casos incluyen detalles sensibles como el tipo de violencia sufrida y los contextos socioeconómicos, enfatizando la importancia de las corporalidades en el diseño de políticas públicas basadas en evidencia.
En cuanto a traducción, el proceso de convertir sentencias legales en datos estructurados involucra traducciones significativas, tanto desde el lenguaje natural de los documentos hacia categorías estandarizadas, como desde los sistemas judiciales hacia bases de datos públicas. Herramientas como “IA2” en Argentina y “Mis Aplicaciones” en México permiten anonimizar y adaptar sentencias para su publicación, aunque la traducción de estos datos al dominio público sigue siendo manual y limitada por los criterios subjetivos de los operadores judiciales.
La Inteligencia Artificial juega un papel clave en la anonimización y estructuración de datos judiciales, pero enfrenta limitaciones. En Argentina, herramientas como IA2 automatizan parte del proceso, pero el trabajo manual sigue siendo necesario para agregar contexto y garantizar precisión. En México, el uso de Inteligencia Artificial está restringido a eliminar datos personales y depende de las decisiones de los jueces sobre qué información es de interés público. Estas implementaciones reflejan un potencial subutilizado de la Inteligencia Artificial para apoyar un análisis más amplio y sistemático de los casos de violencia de género (GBV por su sigla en inglés).
-
Faced with the lack of official statistics in Latin America, individual women and women organisations made the decision, in recent years, to keep a record of feminicides published in digital and printed media, with the goals of giving visibility to the problem of GBV in their country and of sensitising society and public officials about these occurences.
La ausencia de estadísticas oficiales sobre violencia de género (GBV por su sigla en inglés) en América Latina ha llevado a mujeres y organizaciones a registrar feminicidios mediante el análisis de medios impresos y digitales. Estos esfuerzos, como los informes de “La Casa del Encuentro” en Argentina y el mapa interactivo de feminicidios de María Salguero en México, no solo dan visibilidad a las víctimas, sino que también sensibilizan a la sociedad y a las autoridades públicas sobre la gravedad del problema.
Desde el punto de vista de las corporalidades, los registros de feminicidios resaltan las historias individuales de las víctimas, mostrando su identidad, contexto y las circunstancias específicas de su muerte. Esto humaniza las estadísticas y visibiliza cómo las violencias machistas afectan de manera particular a los cuerpos de mujeres y personas diversas en diferentes esferas, incluyendo lo doméstico, laboral e institucional.
En cuanto a traducción, la incorporación de herramientas tecnológicas, como los plugins de navegador y sistemas de alerta por correo, automatiza la recopilación de datos a partir de fuentes mediáticas. Estas herramientas permiten capturar y traducir información de textos periodísticos a bases de datos estructuradas, facilitando el análisis y la comunicación de los casos a nivel local e internacional.
En cuanto a Inteligencia Artificial, iniciativas como “Datos contra el feminicidio” integran aprendizaje automático (machine learning) para identificar y procesar información relevante sobre feminicidios. Estas tecnologías contribuyen a la sistematización de datos. Es esencial ampliar el enfoque para capturar todas las formas y modalidades de violencia de género. Esto permitirá diseñar políticas públicas más efectivas que aborden la prevención, sanción y erradicación de estas violencias, destacando la necesidad de un enfoque integral y situado en el contexto latinoamericano.
-
Our project seeks to effect change in the problem of GBV from a feminist, anti-technosolutionist perspective, which we expect to be transformative.
Los riesgos de sesgos, falta de transparencia y consecuencias perjudiciales en la Inteligencia Artificial han sido ampliamente documentados. Frente a esto, el proyecto propone un enfoque feminista y colaborativo, usando la Inteligencia Artificial como herramienta de apoyo, no como sustituto del conocimiento humano, para abordar la violencia de género (GBV por su sigla en inglés) y fomentar la justicia social.
Dentro de las corporalidades, se destaca la importancia de la participación humana, especialmente de expertos con conocimientos sobre desigualdades estructurales, para garantizar un diseño inclusivo y contextualizado. Esto se alinea con principios feministas que priorizan las intersecciones de género, raza y clase, y evita el uso de Inteligencia Artificial para vigilancia o control, optando por enfoques que respeten las diferencias corporales y contextos sociales.
En cuanto al tema de la traducción, el proyecto utiliza modelos de procesamiento de lenguaje natural (NLP) adaptados a contextos hispanohablantes, como BETO, un modelo BERT entrenado en español. Este enfoque permite estructurar información de documentos legales, asegurando que los datos se procesen en su idioma y contexto originales, evitando sesgos asociados con modelos entrenados en inglés.
La Inteligencia Artificial consiste en no automatizar decisiones judiciales ni predecir comportamientos, sino colaborar con expertos para estructurar datos legales y fomentar transparencia. Se inspira en enfoques feministas que abordan dinámicas de poder en sistemas sociotécnicos, subrayando la importancia de datos de alta calidad para informar políticas públicas basadas en evidencia y justicia abierta.
-
The authors of this paper are four Latin American women that self-identify as intersectional feminists, based in the Global South (Argentina and Mexico) and in the Global North (Sweden), performing work and volunteer tasks in a variety of contexts (education, research, and NGOs — mostly DataGénero5).
Las autoras, feministas de América Latina y Suecia, hablan sobre las desigualdades sociales desde una óptica que combina raza, clase social y género, inspirándose en diversas corrientes del feminismo, incluyendo el transfeminismo, el feminismo negro, indígena y el feminismo contra el capacitismo.
En cuanto a las corporalidades sobre la base de una experiencia situada, las autoras subrayan que ninguna experiencia vital tiene mayor peso que otra, integrando las voces de mujeres y personas LGBTIQ+ desde diversas realidades. Reconocen la pluralidad del feminismo y buscan visibilizar las múltiples luchas dentro de los movimientos feministas, destacando el impacto del género en la vida cotidiana y los sistemas de poder.
Por el lado de la traducción de datos y la justicia abierta, las autoras se inspiran en el feminismo de datos, y proponen el uso de herramientas de Inteligencia Artificial para traducir datos judiciales relacionados con violencia de género en formatos abiertos y contextuales. Esto busca hacer visibles las resoluciones legales sin descontextualizarlas ni comprometer datos sensibles, contribuyendo a la formulación de políticas públicas basadas en evidencia.
La Inteligencia Artificial y el anti-soluccionismo, adoptan una postura crítica hacia la idea de que la Inteligencia Artificial puede “resolver” problemas sociales complejos como la violencia de género. En cambio, argumentan que la Inteligencia Artificial puede ser una herramienta para colaborar con actores humanos expertos en estos temas, ayudando a sistematizar datos de calidad. Rechazan la noción de que la Inteligencia Artificial pueda ser feminista por sí misma, pero promueven su uso por parte de feministas para avanzar en causas sociales.
La propuesta, que se desarrolla con organizaciones como DataGénero y el Criminal Court 10 de Buenos Aires, incluye el diseño y prueba de una Inteligencia Artificial en contextos judiciales. Este enfoque colaborativo, nutrido por alianzas con colectivos de desarrollo de software y procesamiento de lenguaje natural, busca integrar perspectivas interseccionales del Sur Global en la creación de tecnologías justas y éticas.
El prototipo propuesto se alinea con la Agenda 2030 de las Naciones Unidas para el Desarrollo Sostenible, especialmente con el ODS 16 (Paz, Justicia e Instituciones Sólidas), promoviendo sociedades justas, pacíficas e inclusivas. El principio de justicia abierta impulsa instituciones transparentes y responsables, garantiza el acceso a la información y protege las libertades fundamentales.
Dos metas clave del ODS 16 son especialmente relevantes: la Meta 3, que fomenta el acceso equitativo a la justicia y el Estado de derecho, y la Meta 7, que promueve la toma de decisiones inclusivas, participativas y representativas. La judicatura es esencial para cumplir estas metas, contribuyendo además a los ODS 5 (Igualdad de género y empoderamiento de las mujeres) y 10 (Reducción de desigualdades dentro y entre países).
-
harmful acts towards a person or a group of people based on their gender
La intersección entre las corporalidades, la traducción de datos judiciales y el uso de Inteligencia Artificial en casos de violencia de género en América Latina. Muestra la falta de transparencia y datos accesibles sobre violencia de género contra mujeres y personas LGBTIQ+, lo que dificulta el acceso a la justicia y refuerza la desconfianza en los sistemas judiciales, especialmente en Argentina y México.
Los autores proponen el desarrollo de AymurAI, un prototipo semi-automatizado que colabora con funcionarios judiciales para estructurar y anonimizar datos judiciales relacionados con la violencia de género antes de que escalen a feminicidios. Este proyecto, desde una perspectiva feminista interseccional y anti-soluccionista, busca diseñar tecnologías de Inteligencia Artificial que no sustituyan decisiones humanas, sino que apoyen la comprensión y visibilización de los diferentes tipos de violencia de género, incluyendo formas menos visibles como la violencia psicológica o económica.
En cuanto a las corporalidades en el contexto social, la violencia de género afecta a mujeres, personas trans, no binarias y otras identidades de género, al manifestarse en dimensiones físicas, psicológicas, sexuales, económicas y políticas. La recopilación y apertura de datos judiciales sensibles permitiría identificar patrones de violencia, comprender las dinámicas de los sistemas judiciales y fomentar políticas públicas basadas en evidencia.
Con respecto a la Inteligencia Artificial y la traducción de datos, la propuesta de AymurAI incluye el uso de Inteligencia Artificial para automatizar parcialmente el procesamiento de grandes volúmenes de datos judiciales. Lo que facilitaría la generación de conjuntos de datos anonimizados que, al ser revisados por expertos, contribuirían a la transparencia judicial, la colaboración intersectorial y el diseño de intervenciones más efectivas.
El proyecto busca desafiar la instrumentalización de la Inteligencia Artificial como solución única, centrándose en garantizar la seguridad de los datos sensibles y en crear herramientas éticas que empoderen a los movimientos feministas del Sur Global.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Who is the AI innovation economy for?
La implementación de la Inteligencia Artificial en procesos públicos y privados tiene el potencial de amplificar o mitigar estas desigualdades:
Inclusión en el diseño de Inteligencia Artificial ya que las comunidades marginadas deben participar activamente en la creación de datasets y sistemas de IA que respeten su identidad, necesidades y derechos.
Fomento de la equidad porque la contratación pública puede usarse como herramienta para corregir desigualdades estructurales, exigiendo la participación de empresas que prioricen la diversidad y la justicia social en sus procesos tecnológicos.
La riqueza lingüística de Colombia, que incluye lenguas indígenas y criollas, es un recurso invaluable que debe ser integrado en el desarrollo de IA:
Crear bases de datos que incluyan lenguas como el wayuunaiki o nasa yuwe puede garantizar que las tecnologías no excluyan a comunidades no hispanohablantes.
La traducción y localización de los procesos de contratación y regulación de Inteligencia Artificial permitirán a más sectores de la población comprender y participar en estos procesos.
La contratación pública es una herramienta poderosa para modelar la economía de la innovación y promover la responsabilidad en el desarrollo de Inteligencia Artificial.
Transparencia y rendición de cuentas
La falta de transparencia en la contratación de la Inteligencia Artificial puede perpetuar desigualdades. Colombia puede adoptar medidas como:
Creación de registros algorítmicos: Similar a las iniciativas de Ámsterdam y Helsinki, registrar y publicar información sobre los algoritmos usados en servicios públicos.
Publicación de contratos de la Inteligencia Artificial: Hacer accesibles al público detalles clave de los contratos gubernamentales, como los estándares éticos que las empresas deben cumplir.
Auditorías independientes: Garantizar que las tecnologías contratadas respeten los derechos humanos y eviten impactos negativos en poblaciones vulnerables.
Inclusión y diversidad en la contratación pública
Requisitos de diversidad: Exigir que las empresas contratadas para desarrollar una Inteligencia Artificial demuestren compromiso con principios de equidad, diversidad e inclusión.
Incentivos a comunidades subrepresentadas: Promover la participación de pequeñas empresas lideradas por mujeres, indígenas o afrodescendientes en licitaciones tecnológicas.
Regulación ética en el desarrollo de IA
Estándares obligatorios de ética: Implementar marcos legales para regular las prácticas éticas de las empresas proveedoras de IA, como un estándar colombiano de impacto algorítmico (similar al AIA en Canadá).
Cooperación internacional: Participar en iniciativas globales como GPAI para fomentar la responsabilidad en el desarrollo y despliegue de IA, asegurando que las empresas cumplan estándares internacionales.
Principios feministas y justicia social en la Inteligencia Artificial colombiana
La integración de principios feministas en la contratación y desarrollo de la Inteligencia Artificial puede garantizar que las tecnologías beneficien a todos los sectores de la población:
Contratación equitativa: Diseñar sistemas de e-procurement que prioricen la contratación de empresas lideradas por mujeres y otras minorías históricamente excluidas.
Reparación histórica: Usar la contratación pública para corregir desigualdades estructurales, asignando recursos a proyectos que beneficien a comunidades marginadas.
-
-
feministai.pubpub.org feministai.pubpub.org
-
three essential recommendations for building equality from scratch when designing e-procurement systems: civic participation, automation of reparation rules, and the constant improvement of the e-procurement platforms:
En Colombia, las comunidades indígenas, afrodescendientes y campesinas enfrentan barreras estructurales que limitan su acceso a la participación económica y política, agravadas por la desigualdad en la distribución de recursos tecnológicos.
La implementación de sistemas de contratación pública automatizados (e-procurement) en Colombia podría:
Promover la participación activa de mujeres, personas con discapacidades y grupos étnicos en la lista de proveedores.
Compensar desigualdades históricas al aplicar reglas de reparación que prioricen a las comunidades marginalizadas en la asignación de contratos.
Por ejemplo, podrían diseñarse mecanismos para priorizar la contratación de mujeres rurales y pequeñas cooperativas lideradas por minorías en sectores como la agricultura o la tecnología.
Colombia tiene una rica diversidad lingüística con lenguas indígenas, criollas y el español. Para que la Inteligencia Artificial sea verdaderamente inclusiva, es crucial desarrollar datasets localizados y traducir contenidos a lenguas como el wayuunaiki, emberá o nasa yuwe.
Garantizar que las comunidades no hispanohablantes puedan participar en procesos de contratación pública.
Reducir el sesgo en la Inteligencia Artificial al incorporar datos lingüísticos y culturales diversos en el entrenamiento de algoritmos.
Tal como se observa en iniciativas como la plataforma Common Voice en África, Colombia podría promover proyectos similares para recopilar y digitalizar lenguas locales, fortaleciendo la inclusión en sistemas automatizados de gobernanza.
Inspirándose en el enfoque presentado, Colombia puede utilizar Inteligencia Artificial y e-procurement para mejorar los procesos de contratación pública con énfasis en equidad e inclusión:
- Participación cívica
Crear plataformas abiertas donde las comunidades puedan participar activamente en el diseño y mejora de los sistemas.
Incluir mecanismos de retroalimentación para que las decisiones sean transparentes y respondan a las necesidades locales.
- Reglas de reparación automatizadas:
Implementar medidas temporales que prioricen a mujeres, minorías étnicas y personas con discapacidad en los procesos de contratación.
Diseñar incentivos económicos para cooperativas lideradas por mujeres y comunidades indígenas, promoviendo la redistribución equitativa de recursos públicos.
- Mejora constante de los sistemas:
Garantizar que las plataformas sean de código abierto para permitir auditorías y mejoras colaborativas.
Documentar públicamente los cambios realizados en los sistemas, asegurando que respondan a las demandas ciudadanas.
Principios feministas en la tecnología gubernamental
Adoptar un enfoque feminista en la implementación de tecnologías emergentes en Colombia puede:
Promover la igualdad de género al incorporar principios de equidad desde el diseño de Inteligencia Artificial.
Aumentar la transparencia diseñar sistemas que prioricen los derechos humanos y eviten prácticas discriminatorias.
Fortalecer la gobernanza democrática al integrar la perspectiva de género en las políticas públicas de contratación.
Por ejemplo, los sistemas de contratación pública podrían evaluar automáticamente la representación de género entre los proveedores, asegurando una distribución justa de oportunidades.
-
-
feministai.pubpub.org feministai.pubpub.org
-
AI models in Africa
Estudio Comparativo: África y Colombia
África y Colombia comparten desafíos similares en cuanto a la desigualdad, el acceso limitado a servicios básicos y la diversidad cultural. Las lecciones del Makerere AI Lab pueden inspirar soluciones en Colombia, como:
Usar Inteligencia Artificial para la detección temprana de enfermedades en humanos y cultivos, combinando tecnologías móviles y datos localizados.
Generar datasets diversos para sistemas de reconocimiento de voz en lenguas minoritarias.
Promover un enfoque “de abajo hacia arriba” en la creación de datos, garantizando la participación activa de las comunidades en la recolección y uso de información.
-
the most critical issues to harness innovation within the AI ecosystem
La diversidad corporal en Colombia abarca una amplia gama de experiencias, marcadas por la riqueza multicultural y la interacción de comunidades indígenas, afrodescendientes, campesinas y urbanas. Esta diversidad también está entrelazada con el acceso desigual a la tecnología, la salud y la educación, especialmente en áreas rurales.
El uso de la Inteligencia Artificial para abordar problemas sociales, como se ha hecho en África, puede inspirar iniciativas en Colombia. Por ejemplo:
La Inteligencia Artificial para diagnósticos tempranos de enfermedades como el cáncer de mama o la tuberculosis, adaptados a los contextos rurales colombianos, donde los servicios médicos son limitados.
Modelos de Inteligencia Artificial para identificar plagas y enfermedades en cultivos de importancia para las comunidades rurales, como el café, el plátano o el maíz.
Considerar las diversidades corporales al diseñar soluciones que sean accesibles para todas las personas, independientemente de sus capacidades físicas o contexto social.
La traducción en Colombia puede desempeñar un papel fundamental en la creación y el uso de datos localizados para entrenar a la Inteligencia Artificial. Similar a la inclusión de Luganda en el proyecto Common Voice en África, se pueden desarrollar iniciativas para recopilar y traducir datos en lenguas indígenas colombianas, como el wayuunaiki, nasa yuwe o emberá.
Ampliar la representación de las lenguas indígenas en aplicaciones de la Inteligencia Artificial, como asistentes virtuales o sistemas de reconocimiento de voz.
Ayudar a preservar y revitalizar estas lenguas al integrarlas en tecnologías modernas.
Generar datasets lingüísticos diversos que fomenten el desarrollo de Inteligencia Artificial inclusivas, contextualizadas y éticamente responsables.
La Inteligencia Artificial para el bien social descrito en África puede adaptarse al contexto colombiano, aprovechando la “tubería de datos a impacto” para resolver problemas reales.
La identificación de problemas debe ser participativa, integrando a las comunidades afectadas.
Soluciones para mejorar la logística de distribución de alimentos en regiones apartadas.
Inteligencia Artificial para identificar y mitigar riesgos ambientales en zonas afectadas por la minería ilegal o la deforestación.
Es crucial desarrollar datasets localizados y representativos para evitar sesgos en los modelos de Inteligencia Artificial.
Bases de datos agrícolas que reflejen las particularidades de los ecosistemas colombianos.
Datos de salud adaptados a las diversidades genéticas y culturales del país.
El diseño de IA debe basarse en el entendimiento del contexto local y cultural.
Adaptar modelos a las necesidades específicas de comunidades indígenas y afrodescendientes.
Integrar saberes tradicionales en soluciones tecnológicas, reconociendo el conocimiento colectivo y las prácticas ancestrales.
La educación en ética de la Inteligencia Artificial es esencial para formar profesionales conscientes de los impactos sociales y culturales de sus creaciones. Además, deben establecerse directrices claras para implementar principios éticos en el desarrollo de tecnologías, fomentando prácticas inclusivas y no extractivas.
-
-
feministai.pubpub.org feministai.pubpub.org
-
We are essentially digitizing trees, animals, and plants and rivers, and boundaries, defining those using satellite imagery.
En Colombia, las corporalidades están profundamente vinculadas a la identidad cultural, territorial y espiritual. Para muchas comunidades indígenas, afrodescendientes y campesinas, el cuerpo no solo es físico, sino también un puente con la tierra y la naturaleza.
Estas comunidades entienden el territorio como un elemento vital de su existencia colectiva, lo que contrasta con las visiones occidentales que separan al individuo del entorno natural.
La digitalización de territorios, como se plantea en el uso de la Inteligencia Artificial para conservación, presenta desafíos éticos importantes. Clasificar y definir tierras y recursos naturales a través de imágenes satelitales y algoritmos puede despojar a estas comunidades de su conexión simbólica y material con el territorio, perpetuando desigualdades históricas y vulnerando sus derechos culturales y corporales.
La traducción en Colombia podría desempeñar un papel clave al mediar entre las perspectivas indígenas y las prácticas occidentales de conservación y digitalización de territorios.
Traducir no solo lenguas, sino también conceptos culturales como la relacionalidad con la naturaleza y el conocimiento colectivo, es esencial para evitar malentendidos y garantizar que las voces de las comunidades sean escuchadas.
Por ejemplo, cuando se desarrollan proyectos de conservación basados en la Inteligencia Artificial, la traducción puede ayudar a garantizar que los principios, usos y riesgos de estas tecnologías sean entendidos desde las cosmovisiones indígenas, en lugar de imponer terminologías y enfoques que no respeten sus prácticas y saberes.
La implementación de Inteligencia Artificial en conservación y digitalización de tierras en Colombia debería centrarse en que:
Las comunidades indígenas deban ser incluidas como actores principales en el diseño de tecnologías que afectan sus territorios. Esto requiere procesos de consulta previos, libres e informados, en línea con los estándares internacionales de derechos humanos.
En lugar de imponer un modelo de digitalización basado en la separación tierra-persona, la Inteligencia Artificial deba reflejar cómo estas comunidades perciben su conexión espiritual, cultural y económica con la naturaleza.
La Inteligencia Artificial deba reconocer y respetar el conocimiento colectivo de las comunidades. Esto incluye evitar la apropiación de datos que no consideren el carácter comunal de la identidad y el saber indígena, promoviendo en su lugar principios éticos como los planteados en la posición de Indigenous AI.
-
-
feministai.pubpub.org feministai.pubpub.org
-
The Oracle for Transfeminist Technologies
Las herramientas especulativas como The Oracle for Transfeminist Technologies podrían inspirar prácticas y tecnologías que respeten y celebren la pluralidad de cuerpos y subjetividades.
En un país con desigualdades, las tecnologías transfeministas podrían abordar temas como el acceso a la salud, la educación y la representación, diseñando soluciones inclusivas que desafíen la discriminación estructural basada en el cuerpo, el género o la sexualidad.
La traducción en Colombia desempeñaría un papel crucial en la preservación y promoción de lenguas indígenas, afrodescendientes y criollas.
Desde una posibilidad transfeminista, la traducción podría ir más allá del lenguaje, integrando valores de justicia social y respeto por las diversidades. Por ejemplo, el acto de traducir no solo debería ser lingüístico, sino también cultural, incorporando sensibilidades hacia las experiencias de género y sexualidad que desafían las normas hegemónicas.
The Oracle for Transfeminist Technologies puede inspirar la creación de herramientas y metodologías que permitan a las comunidades marginadas de Colombia expresar sus narrativas y cosmovisiones de manera auténtica, respetando su diversidad cultural y corporal.
En Colombia, la Inteligencia Artificial podría tener el potencial de ser una herramienta transformadora, pero debe ser desarrollada con un enfoque ético y transfeminista para evitar reproducir dinámicas de exclusión.
El uso de valores transfeministas en el diseño de tecnologías podría guiar el desarrollo de sistemas que promuevan:
Garantizar que la la Inteligencia Artificial no excluya a personas trans, no binarias o pertenecientes a comunidades indígenas y afrodescendientes.
Co-crear tecnodiversidades con las comunidades, adaptando los valores y necesidades locales, al igual que lo hace The Oracle for Transfeminist Technologies en sus talleres participativos.
Reconocer que los datos no son neutrales, y fomentar prácticas de recolección y uso de datos que respeten la autonomía y dignidad de las personas y comunidades.
The Oracle for Transfeminist Technologies, demuestra cómo las tecnodiversidades pueden diseñarse desde valores transfeministas. En el contexto colombiano, estas metodologías podrían adaptarse para abordar problemáticas locales, como:
La visibilización de experiencias trans y no binarias en el acceso a derechos.
El diseño de plataformas que amplifiquen voces diversas, en especial las de personas marginadas por su género, raza o etnicidad.
La creación de tecnologías que fomenten redes de apoyo y solidaridad entre comunidades diversas.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Case study: Papa Reo
Estudios de Caso: Papa Reo y Colombia
Papa Reo, una iniciativa de innovación indígena, muestra cómo las cosmovisiones pueden moldear soluciones tecnológicas éticas y sostenibles. En Colombia, los pueblos indígenas y afrodescendientes podrían liderar proyectos tecnológicos basados en sus propias prácticas culturales, como el cuidado comunitario de datos y los principios de reciprocidad.
Iniciativas de traducción y conservación de lenguas indígenas en Colombia, inspiradas en modelos como Papa Reo, podrían desarrollarse con el objetivo de preservar el patrimonio lingüístico y cultural, evitando enfoques extractivos y promoviendo la participación comunitaria.
Los principios feministas de autonomía, consentimiento, conocimiento situado y conectividad sembrada, propuestos por comunidades tecnológicas en América Latina, también son aplicables a las diversidades en Colombia. Estos valores fomentan la creación de tecnologías que reflejan y respetan las experiencias de género, raza y clase, desmantelando sistemas opresivos.
-
Non-Western ethics
En Colombia, la diversidad corporal refleja no solo las características físicas y culturales de su población, sino también las dinámicas sociales, económicas y políticas que afectan la inclusión y la representación. Las comunidades indígenas, afrodescendientes y otras minorías han luchado por el reconocimiento de sus derechos y por la valorización de sus cosmovisiones, que incluyen principios similares a los de reciprocidad y relacionalidad descritos.
En contextos comunitarios, prácticas como la minga son expresiones de esta reciprocidad, donde el trabajo colectivo no es una acción voluntaria aislada, sino una responsabilidad mutua.
La traducción en Colombia como intermediación lingüística permite preservar y visibilizar las lenguas indígenas, afrodescendientes y criollas, al conectar estas comunidades con la nación y el mundo. Desde este enfoque, la traducción no sólo debe respetar el lenguaje, sino también los valores y cosmovisiones de las comunidades.
Iniciativas como Papa Reo, promueve el desarrollo tecnológico y lingüístico cuya raíz está en los principios comunitarios, evitando la explotación cultural y fomentando una representación auténtica.
La Inteligencia Artificial en Colombia podría aprender de iniciativas como Papa Reo, integrando principios de relacionalidad y reciprocidad en su diseño y uso. En lugar de imponer soluciones tecnológicas adaptadas a las comunidades, el desarrollo de la Inteligencia Artificial en el país debería partir de las necesidades, valores y principios de las mismas.
Esto es crucial para evitar procesos extractivos en el manejo de datos, especialmente aquellos provenientes de comunidades indígenas y rurales. Por ejemplo, un sistema de Inteligencia Artificial que respete la autonomía de las comunidades podría implementar licencias similares a kaitiakitanga, donde los datos no son propiedad privada, sino bienes comunes protegidos.
-
Gendered innovation
En Colombia, las diversidades corporales, que incluyen la intersección de género, orientación sexual, raza, condición de discapacidad y condición socioeconómica, reflejan desigualdades históricas y estructurales. Las mujeres y niñas marginadas, así como otras comunidades vulnerables, enfrentan barreras para acceder y participar en el diseño y gobernanza de tecnologías como la Inteligencia Artificial. Sin embargo, estas personas son agentes de cambio y poseen conocimientos prácticos y resiliencia que pueden ser fundamentales para el desarrollo de tecnologías que respondan a sus realidades.
Incorporar las experiencias y sensibilidades de las Inteligencia Artificial permitiría diseñar herramientas más inclusivas que contribuyan al crecimiento personal y comunitario. Estas posibilidades pueden abordar sesgos algorítmicos y fomentar aplicaciones tecnológicas que promuevan la justicia social y la dignidad.
Colombia, con su rica diversidad lingüística que incluye 65 lenguas indígenas reconocidas, enfrenta desafíos similares a los descritos en el caso del proyecto Papa Reo para el maorí. Muchas comunidades indígenas y afrodescendientes en el país tienen lenguas propias que son esenciales para expresar sus identidades culturales, pero estas lenguas están subrepresentadas en las tecnodiversidades actuales.
Las tecnologías de reconocimiento de voz y procesamiento de lenguaje natural no están suficientemente desarrolladas para lenguas indígenas.
La falta de acceso a tecnologías en lenguas maternas perpetúa desigualdades en el acceso a la educación, la participación política y otros derechos.
Proyectos como el Papa Reo podrían inspirar el desarrollo de herramientas similares en Colombia, promoviendo plataformas tecnológicas que incorporen lenguas indígenas para fortalecer la identidad cultural y la inclusión.
La interseccionalidad y el ecofeminismo ofrecen herramientas valiosas para cuestionar las dinámicas de poder en la producción y uso de la Inteligencia Artificial en Colombia, por ejemplo:
Interseccionalidad: Reconocer cómo las opresiones múltiples (género, etnia, clase) afectan el acceso y uso de tecnologías, y diseñar soluciones que atiendan estas necesidades interrelacionadas.
Asimismo, incorporar cosmovisiones y saberes ancestrales en el diseño tecnológico para desafiar los paradigmas dominantes y construir modelos alternativos de innovación.
Ecofeminismo: Abogar por tecnologías que no solo sean socialmente justas, sino también sostenibles y respetuosas con el medio ambiente.
La creación de tecnologías que respeten las necesidades ecológicas y culturales de las comunidades locales, como herramientas para la gestión sostenible de recursos naturales o la preservación de lenguas y saberes indígenas.
La Inteligencia Artificial en Colombia tiene el potencial de abordar las desigualdades locales si se desarrolla desde una lógica inclusiva y alternativa que:
Promueva la participación de comunidades diversas, especialmente de mujeres y personas con discapacidades, en todas las etapas de desarrollo de la tecnología.
Incorpore lenguas y perspectivas locales en las bases de datos y algoritmos.
Garantice la transparencia, la gobernanza inclusiva y la responsabilidad en el uso de tecnologías.
Para el futuro se podrían:
Implementar políticas que financien proyectos de tecnología inclusiva y promuevan la participación comunitaria en su diseño.
Crear espacios para que mujeres, comunidades indígenas y otros grupos marginados puedan aportar su experiencia y creatividad al desarrollo tecnológico.
Crear proyectos piloto que estén inspirados en iniciativas como Papa Reo, desarrollar herramientas de IA para lenguas indígenas en Colombia que sirvan como modelo para otras regiones.
-
According to Srinivasan (2019),1 the way people in the global South use and experience digital technologies could help bring a different understanding to tech innovation and its applications in the real world and the ways in which they are built for and by users.
Las comunidades indígenas en Colombia representan un componente esencial de la diversidad cultural, étnica y epistemológica del país. Estas comunidades poseen conocimientos ancestrales que pueden aportar soluciones innovadoras frente a problemas complejos, como la sostenibilidad ambiental, la gestión de recursos y la convivencia en contextos de diversidad. Estos saberes, aunque históricamente marginados, tienen el potencial de enriquecer la forma en que se diseñan y utilizan las tecnodiversidades, incluida la Inteligencia Artificial, para que sean inclusivas y contextualizadas.
La implementación de tecnologías que respeten y promuevan las lenguas indígenas puede contribuir a la preservación del patrimonio cultural y facilitar el acceso a derechos fundamentales para estas comunidades.
Asimismo, la traducción en Colombia, particularmente en el contexto de lenguas indígenas, es una herramienta fundamental para la inclusión y la equidad. Dada la diversidad lingüística del país, la traducción puede actuar como intermediación multilíngue entre estas comunidades y el desarrollo tecnológico.
La Inteligencia Artificial puede desempeñar un papel crucial en la traducción automática y el procesamiento del lenguaje natural para lenguas indígenas. Sin embargo, esto requiere una infraestructura adecuada y un enfoque ético para garantizar que estas tecnologías respeten las particularidades culturales como los culturemas y no refuercen asimetrías de poder.
Colombia, desde el Sur Global, enfrenta desafíos significativos en términos de desigualdad y acceso a tecnología. Sin embargo, también tiene la oportunidad de liderar un modelo de innovación que sea sensible a las realidades locales y que priorice la justicia social y ambiental. La Inteligencia Artificial podría:
Diseñar tecnologías accesibles que respondan a las necesidades específicas de comunidades en contextos de bajos recursos.
Desarrollar algoritmos y bases de datos que incluyan y prioricen las lenguas y conocimientos indígenas.
Abordar problemas ambientales de manera contextualizada y sostenible.
Las políticas públicas deben promover la participación activa de las comunidades indígenas y otros actores marginados en la creación y uso de tecnologías. Esto incluye:
Financiación para proyectos de traducción y preservación de lenguas indígenas utilizando la Inteligencia Artificial.
Promoción de la participación comunitaria en el diseño de tecnologías.
Regulaciones éticas para garantizar que las tecnologías no perpetúen formas de violencia estructural ni exclusión.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Additional Ethical Considerations
Las corporalidades deben ser el centro en la creación de la Inteligencia Artificial, ya que los sistemas impactan directamente a las personas. Es crucial incluir las voces de poblaciones vulnerables, quienes suelen ser ignoradas en los procesos de diseño. Esto implica entender las expectativas de justicia y equidad de los diversos grupos sociales y cómo estas varían según factores como el estatus socioeconómico, la experiencia tecnológica y el nivel de impacto directo que puedan experimentar.
La traducción con Inteligencia Artificial no solo implica convertir datos en decisiones, sino hacerlo de manera comprensible para todos. La interpretación va más allá de la simple explicación técnica, buscando que cualquier ciudadano pueda entender cómo opera un sistema y confiar en sus resultados. Este proceso de traducción también debe integrar valores éticos como la privacidad y la equidad, equilibrando estas metas para evitar comprometer una en favor de la otra.
Las Inteligencias Artificiales no funcionan aisladas; interactúan con los humanos que las usan y son afectadas por ellos. Esto es evidente en escenarios como la revisión de libertad condicional, donde las decisiones finales las toman jueces basándose en las predicciones de la Inteligencia Artificial. La interacción entre sesgos humanos y algorítmicos puede amplificar injusticias si no se diseña cuidadosamente todo el sistema. Por ello, la colaboración entre humanos y máquinas debe ser auditada y diseñada para reducir los sesgos, no perpetuarlos.
-
Classification Rebalancing Ranking Sampling
Las corporalidades son esenciales en la Inteligencia Artificial, ya que los datos utilizados reflejan las experiencias vividas de las personas. Sin embargo, estas experiencias están mediadas por atributos protegidos como género, raza o condición de discapacidad, los cuales a menudo están ausentes o mal representados en los sistemas algorítmicos. Esto limita la capacidad de los algoritmos para abordar inequidades estructurales. Por ejemplo, si un proceso de selección de personal omite mujeres en etapas iniciales, el sistema no podrá generar una representación justa más adelante.
Traducir conceptos como equidad o no discriminación en métricas procesables es un desafío. Los algoritmos deben manejar definiciones de justicia, pero no siempre pueden satisfacerlas simultáneamente. Esto requiere soluciones que minimicen las injusticias en distintos contextos. Además, los sistemas actuales comienzan a abordar problemas como la ausencia de atributos protegidos en los datos, utilizando técnicas que implican trabajar de forma implícita con la información demográfica.
La Inteligencia Artificial no es monolítica; es un conjunto de algoritmos interconectados que toman decisiones en varias etapas. El sesgo puede introducirse en cualquier punto, desde la preselección de datos hasta la etapa final de decisión. Por ejemplo, en procesos como la búsqueda web o la contratación, los sesgos en etapas iniciales limitan la capacidad de los algoritmos posteriores para producir resultados diversos y justos. Por ello, es crucial considerar la equidad en todas las partes del sistema, no solo en su resultado final.
-
The Research Landscape of Debiasing AI
Las corporalidades que han sido marginadas por género, raza u otros atributos, son fundamentales en el diseño de la Inteligencia Artificial. La selección de atributos que se consideran en un algoritmo refleja decisiones humanas sobre qué corporalidades e identidades deben ser visibilizadas y cómo deben ser representadas en los datos. Por ejemplo, en un sistema de contratación, garantizar la representación equitativa de hombres y mujeres o de personas no binarias implica reconocer y traducir estas identidades en métricas que el algoritmo pueda procesar.
Un desafío clave en el diseño de ls Inteligencia Artificial justa es traducir conceptos sociales como la equidad en definiciones matemáticas que los algoritmos puedan implementar. Definir métricas de justicia que sean contextualmente apropiadas. Por ejemplo, en un problema de clasificación de candidatos, podría requerirse que el algoritmo produzca una lista que refleje una distribución demográfica justa basada en género o raza. Este proceso de traducción no es neutral, ya que está influido por los valores y preferencias de los responsables del diseño.
Se destacan avances recientes que han permitido agrupar métricas de equidad en familias de definiciones, facilitando el desarrollo de meta-algoritmos. Estos frameworks no requieren rediseñar un algoritmo desde cero para cada contexto; en su lugar, aceptan definiciones específicas de justicia y producen resultados ajustados a esos criterios. Por ejemplo, al definir qué atributos proteger como género o raza y qué métrica de equidad emplear como representación igualitaria o tasas de error similares, el framework genera una solución personalizada para un caso particular.
-
if we can strategically intervene algorithmically, we have a powerful tool to help break the cycle of discrimination.
Las corporalidades (entendidas como los cuerpos físicos y los ensamblajes que los habitan) son intrínsecas a los datos que alimentan los sistemas de Inteligencia Artificial. Aunque los sistemas se perciban como objetivos o neutrales, los datos que los entrenan están profundamente arraigados en contextos sociales y culturales provenientes del Norte Global. La decisión de qué datos recolectar y cómo procesarlos refleja juicios humanos, que a menudo priorizan ciertas corporalidades sobre otras. Esto explica por qué ciertas Inteligencias Artificiales pueden amplificar inequidades ya existentes, como en el ejemplo de los algoritmos que ofrecen empleo mejor remunerado principalmente a hombres o a personas blancas.
El diseño de la Inteligencia Artificial que ignora las diversidades corporales e identitarias perpetúa su invisibilización y marginalización. Surge la necesidad de considerar cómo las corporalidades se registran, interpretan y representan en los datos.
La traducción implica transformar las experiencias humanas, incluidas las vivencias de corporalidades diversas, en datos que la Inteligencia Artificial pueda procesar. Sin embargo, esta traducción no es neutral. La selección de métricas, variables y optimizaciones refleja decisiones humanas que pueden reforzar dinámicas de poder existentes.
¿Qué cuerpos se incluyen o excluyen?
Si los datos no representan adecuadamente a personas no binarias, racializadas o en condición de discapacidad, la Inteligencia Artificial no podrá abordar sus necesidades ni reconocer sus realidades.
¿Cómo se procesan las diferencias?
Las corporalidades no normativas suelen ser traducidas en categorías reduccionistas o ignoradas por completo en el diseño de algoritmos, lo que perpetúa su exclusión.
La traducción entre corporalidades y modelos computacionales es un acto político, donde los sesgos y prioridades humanos moldean la representación de la realidad.
La Inteligencia Artificial no sólo refleja, sino que también transforma la relación entre corporalidades y sociedades al influir en oportunidades, recursos y visibilidad. La Inteligencia Artificial puede crear bucles de retroalimentación negativos, donde los sesgos iniciales en los datos refuerzan y amplifican desigualdades existentes, afectando las decisiones futuras, entre estos:
Algoritmos que perpetúan la discriminación laboral.
Sistemas que limitan el acceso a recursos como vivienda, educación o servicios.
Esta capacidad de influencia también abre una oportunidad para intervenir. Al desarrollar y aplicar estrategias de desviación algorítmica (debiasing), es posible diseñar sistemas que rompan estos ciclos de discriminación. Esto requiere integrar una conciencia crítica sobre las corporalidades y su representación en los datos.
La percepción de que la Inteligencia Artificial es imparcial desvía la atención de las formas en que las corporalidades y las experiencias humanas son fundamentales para su diseño y funcionamiento. La Inteligencia Artificial no existe separada de las dinámicas humanas, por el contrario, actúa como un espejo que amplifica tanto nuestras virtudes como nuestros sesgos.
La construcción de Inteligencia Artificial más justa requiere:
Reconocer las corporalidades ausentes en los datos y priorizar su inclusión.
Redefinir los procesos de traducción para capturar la complejidad de las realidades humanas en lugar de simplificarlas.
Intervenir estratégicamente en la Inteligencia Artificial para mitigar su impacto negativo y transformar las dinámicas sociales hacia una mayor equidad.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Data Feminism in Action
Corporalidades y representación en los datos
Las corporalidades están en el centro de los datos sobre feminicidio, ya que estos buscan visibilizar la violencia sistémica y letal dirigida a ciertos cuerpos, principalmente de mujeres y personas feminizadas. Sin embargo, los desafíos en la recopilación de estos datos revelan la complejidad de traducir las vivencias de estas corporalidades en registros sistemáticos. La falta de estandarización en las definiciones y categorías relacionadas con feminicidio no solo dificulta el análisis comparativo, sino que también invisibiliza ciertas experiencias de violencia que no encajan en definiciones tradicionales o normativas.
El reconocimiento y representación precisa de estas corporalidades en los datos es un acto político: dar visibilidad a los cuerpos afectados significa reconocer su existencia y exigir justicia.
Traducción de experiencias vividas a datos y narrativas
La recopilación de datos sobre feminicidio no es solo un proceso técnico, es un acto de traducción entre las realidades vividas y las estructuras formales de datos. Este proceso requiere decisiones sobre qué contar, cómo clasificar, y qué significados se asignan a los datos recolectados. Las presentaciones sobre “marcos de datos del feminicidio” y “estandarización de datos” destacaron los retos asociados con la homogeneización de realidades diversas en un formato legible por sistemas globales.
La traducción no solo ocurre a nivel técnico; también se refleja en la narrativa: los datos, cuando se presentan mediante visualizaciones o análisis espaciales, cuentan historias que humanizan las cifras y amplifican las voces de las víctimas.
Inteligencia artificial como herramienta de intervención
La Inteligencia Artificial desempeña un papel crucial en la recopilación, análisis y visibilización de datos sobre feminicidio. Por ejemplo, la presentación de Catherine D’Ignazio sobre un clasificador automatizado para detectar feminicidios subraya cómo los algoritmos pueden ayudar a procesar grandes volúmenes de información, como artículos de noticias. Sin embargo, el uso de IA plantea desafíos éticos y técnicos:
Si los modelos están entrenados con datos incompletos o sesgados, pueden perpetuar exclusiones y desigualdades.
Los algoritmos deben ser lo suficientemente flexibles para adaptarse a contextos regionales y culturales específicos sin forzar definiciones homogéneas.
La Inteligencia Artificial también permite análisis avanzados, como el análisis espacial de feminicidios presentado en el evento, lo que abre nuevas posibilidades para comprender patrones geográficos y contextuales de violencia.
Construcción de comunidad y visibilización
El evento no sólo promovió el uso de datos y tecnologías, sino también la construcción de una comunidad interdisciplinaria de activistas, académicos, periodistas y funcionarios. Este enfoque reconoce que ni la tecnología ni los datos son suficientes por sí solos: el cambio requiere colaboración, solidaridad y una conciencia ética que priorice las experiencias humanas detrás de las cifras.
-
When thinking about
Corporalidades y su representación en los datos
La importancia de las categorías utilizadas en los procesos de recolección de datos, ejemplifica cómo elegir el género en un formulario, puede excluir a millones de personas no binarias. Esta exclusión es un reflejo de cómo las corporalidades y las identidades son frecuentemente invisibilizadas en los sistemas normativos. Las corporalidades no normativas enfrentan barreras sistemáticas que las excluyen de ser reconocidas o contabilizadas, perpetuando la marginalización a nivel político y social.
Los datos sobre feminicidio evidencian la importancia de considerar las particularidades de las corporalidades afectadas. Si no se registran las diversas circunstancias y contextos de los crímenes, se dejan fuera a víctimas y experiencias específicas, generando lo que se llama “datos ausentes”.
Traducción de realidades en datos
El proceso de traducir realidades sociales complejas, como el feminicidio, en categorías legibles para bases de datos o sistemas estadísticos, es un acto de traducción crítico. Este proceso no solo implica transferir información de un medio a otro, sino también decidir qué aspectos de esa realidad se consideran importantes, cómo se clasifican y qué se omite. Por ejemplo, en algunos casos, el acto de clasificar un asesinato como feminicidio puede depender de si se reconoce la motivación de género detrás del crimen, algo que no siempre está bien documentado o considerado por los sistemas legales.
Esta traducción imperfecta entre la experiencia vivida y la representación numérica no solo afecta la visibilidad del problema, sino también la capacidad de diseñar políticas efectivas.
Inteligencia Artificial como herramienta de intervención
La inteligencia artificial tiene el potencial de transformar la manera en que estos problemas son analizados y abordados. Por un lado, puede ayudar a procesar grandes volúmenes de información, como los reportes de feminicidio generados por activistas y periodistas, detectando patrones y tendencias. Por otro lado, las Inteligencias Artificiales deben ser diseñadas con cuidado para no reproducir o amplificar sesgos existentes. Si los modelos de Inteligencia Artificial están entrenados en datos incompletos o sesgados, corren el riesgo de reforzar las mismas dinámicas de exclusión que pretenden combatir.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Addressing problems of traditional data collection
Superar las limitaciones de los métodos tradicionales de recopilación de datos mediante enfoques inclusivos y feministas incluye la consideración de cuerpos diversos, la sensibilidad cultural y lingüística en la traducción de datos, y el uso de Inteligencia Artificial para identificar y corregir sesgos inherentes.
Corporalidades y sesgos en la recopilación de datos
Los métodos tradicionales tienden a homogeneizar las experiencias corporales, ignorando diferencias relacionadas con género, identidad no binaria, edad, condición de discapacidad, o situación socioeconómica. Esto invisibiliza las realidades de las mujeres y otros grupos marginados.
Los datos recopilados a nivel de hogar ignoran desigualdades dentro del mismo, lo que perpetúa la invisibilización de corporalidades y experiencias individuales. Por ejemplo, las contribuciones económicas de mujeres y niñas suelen ser subestimadas o ignoradas.
Las corporalidades en situaciones de vulnerabilidad extrema, como mujeres refugiadas, personas trans y no binarias, enfrentan mayores riesgos de ser omitidas. Estas exclusiones limitan la capacidad de crear políticas que respondan a sus necesidades.
Traducción como mediadora inclusiva
El diseño de preguntas en las encuestas refleja sesgos culturales y de género, lo que perpetúa desigualdades. Por ejemplo, las preguntas que asumen roles tradicionales, como identificar a una mujer como “ama de casa” sin considerar su trabajo remunerado, invisibilizan sus contribuciones económicas. Traducir estos términos con sensibilidad feminista puede ayudar a visibilizar estas realidades.
La traducción debe permitir incorporar categorías de género inclusivas, como “no binario” o “otra”, asegurando que los datos reflejen corporalidades no normativas y realidades locales.
Inteligencia artificial como herramienta inclusiva
La Inteligencia Artificial puede identificar y mitigar sesgos en el diseño de encuestas y en la recopilación de datos al analizar patrones de exclusión. Por ejemplo, puede destacar cómo ciertas preguntas excluyen a las mujeres trans o no binarias al imponer categorías binarias de género.
Los algoritmos pueden descomponer datos por variables interseccionales, como género, edad, ingresos y etnicidad, para revelar desigualdades invisibles en los métodos tradicionales. Esto incluye medir desigualdades dentro de los hogares y entre grupos marginados.
La Inteligencia Artificial puede utilizar fuentes de datos no tradicionales, como redes sociales o sensores, para captar experiencias de corporalidades excluidas en contextos conflictivos o difíciles de alcanzar con métodos estándar.
-
Bias exists in current data collection practices, leaving women and girls invisible in the data.
Los sesgos en la recopilación de datos y la invisibilización de mujeres y niñas puede relacionarse profundamente con corporalidades, traducción e Inteligencia Artificial.
Corporalidades y recopilación de datos
La invisibilidad de corporalidades diversas en los métodos tradicionales de recopilación de datos tienden a generalizar los cuerpos de las mujeres y niñas, omitiendo diferencias significativas como raza, etnicidad, identidad de género, condición de discapacidad o edad. Un enfoque feminista desvirtuaría estos datos para representar estas corporalidades y sus experiencias específicas.
Los sesgos en tecnologías biométricas y sensores en la Inteligencia Artificial analizan datos corporales, como reconocimiento facial o monitoreo de salud, a menudo fallan en captar la diversidad de cuerpos femeninos o marginados, reforzando estereotipos y exclusión.
Traducción como puente inclusivo
El lenguaje inclusivo en la recopilación de datos, al traducir encuestas, análisis o resultados, se corre el riesgo de eliminar términos culturalmente específicos como los culturemas que reflejan la diversidad de corporalidades y experiencias. Por ejemplo, conceptos relacionados con género o identidad corporal en un idioma pueden no tener equivalentes exactos en otro, lo que invisibiliza problemáticas clave.
La interpretación del significado en la traducción de datos requiere una sensibilidad cultural y feminista que respete las diferencias lingüísticas y semánticas de cómo las corporalidades y el género son comprendidos en distintos contextos. Sin esta sensibilidad, la traducción puede reforzar las inequidades en lugar de corregirlas.
Inteligencia Artificial (IA) y recopilación feminista de datos
Las oportunidades en la Inteligencia Artificial tiene un enorme potencial para analizar grandes volúmenes de datos de manera desagregada, identificar patrones de exclusión y ampliar el uso de fuentes no tradicionales (como redes sociales, sensores, y datos de dispositivos móviles). Esto podría visibilizar experiencias de mujeres y niñas que antes eran ignoradas.
Los riesgos de sesgos algorítmicos sucederían si los algoritmos de Inteligencia Artificial son entrenados con datos históricos sesgados, replicarán esas inequidades. Esto incluye subrepresentar corporalidades no normativas o ignorar contextos culturales específicos al interpretar datos traducidos.
El diseño interseccional sirve para superar estas limitaciones, los algoritmos deben diseñarse con principios feministas que incluyan parámetros explícitos para identificar y corregir sesgos relacionados con género y corporalidades diversas.
- Preguntas críticas para la recopilación inclusiva de datos
Las preguntas pueden adaptarse para incluir corporalidades, traducción e IA:
• ¿Quién define qué corporalidades son relevantes y cómo se representan en los datos? • ¿Quién traduce y cómo garantiza que las voces de las mujeres y niñas sean fielmente representadas? • ¿Cómo asegura la IA que los datos desagregados reflejen experiencias interseccionales y no perpetúen exclusión? • ¿Quién decide qué fuentes de datos se utilizan y con qué criterios éticos?
Hacia una Inteligencia Artificial inclusiva
Una Inteligencia Artificial de recopilación de datos verdaderamente inclusiva debe:
1. Diseñar encuestas y procesos de recopilación que reconozcan la diversidad de corporalidades y vivencias. 2. Incorporar traducciones que respeten el contexto cultural y lingüístico, permitiendo que los datos capturen las realidades de mujeres y niñas en distintos entornos. 3. Utilizar IA para integrar fuentes de datos no tradicionales, asegurando que los modelos sean revisados constantemente para mitigar sesgos algorítmicos. 4. Basarse en principios feministas que guíen cada etapa del proceso, desde la definición del problema hasta el uso de los datos.
-
-
feministai.pubpub.org feministai.pubpub.org
-
“Feminist principles can be a handy framework to understand and transform the impact of AI systems. Key principles include reflexivity, participation, intersectionality, and working towards structural change.”
Las corporalidades, la traducción y la Inteligencia Artificial desde una posibilidad feminista puede articularse en torno a la idea de cómo las tecnologías emergentes interactúan con los cuerpos y las experiencias humanas, particularmente aquellas de grupos marginalizados, y cómo la traducción de esos datos corporales a sistemas digitales puede ser transformada para subvertir estructuras de poder.
Las tecnodiversidades y en especial la Inteligencia Artificial, tiene el poder de traducir las experiencias humanas en datos cuantificables. No obstante, esta traducción está mediada por estructuras de poder que asignan mayor valor a ciertas corporalidades y vivencias mientras invisibilizan otras.
La forma en que los datos relacionados con la salud o el trabajo de las mujeres suelen quedar subrepresentados o malinterpretados en los sistemas de Inteligencia Artificial debido a sesgos en las fuentes de datos desde las agendas del Norte Global.
Estos sesgos son reflejo de desigualdades estructurales arraigadas en el patriarcado, el racismo y el capitalismo.
Desde una posibilidad feminista, es importante aplicar principios como la reflexividad, la participación y la interseccionalidad al proceso de traducción de corporalidades a sistemas digitales.
La reflexividad cuestiona cómo las relaciones de poder moldean tanto los datos recolectados como las decisiones tomadas durante el diseño de Inteligencia Artificial. Esto invita a pensar en cómo el diseño técnico puede reconocer y rediseñar las jerarquías sociales que privilegian ciertas experiencias corporales sobre otras.
La participación asegura que las corporalidades más afectadas por los sistemas de Inteligencia Artificial tengan voz en su diseño y gobernanza. En el ámbito de la salud, esto podría significar incluir a pacientes, trabajadoras comunitarias y activistas en el diseño de sistemas de diagnóstico que reflejen sus experiencias vividas. Esta traducción participativa de las necesidades humanas a sistemas digitales puede mejorar la adopción de tecnodiversidades, y redistribuir el poder hacia las comunidades.
La interseccionalidad destaca cómo las experiencias corporales son multidimensionales, determinadas por factores como género, raza, clase y condición de discapacidad.
Si bien las tecnologías de Inteligencia Artificial tienden a homogeneizar y simplificar estas diferencias, la interseccionalidad exige diseñar sistemas que reconozcan y respeten estas complejidades. A modo de ejemplo, los sistemas que clasifiquen imágenes corporales deben evitar perpetuar estándares corporales eurocéntricos o normas de género binarias, asegurando que los datos reflejen la diversidad de experiencias humanas.
Cuando la Inteligencia Artificial se apropia desde principios feministas, se convierte en una herramienta para cuestionar y reconfigurar la traducción de cuerpos humanos a sistemas algorítmicos. Esto implica resistir los usos autoritarios de la Inteligencia Artificial como la vigilancia y la exclusión y crear sistemas alternativos que desafíen la desigualdad y promuevan una práctica tecnológica inclusiva y transformadora. Por ejemplo, proyectos que buscan erradicar el discurso de odio en línea pueden considerarse feministas en tanto protegen a grupos históricamente marginados, aunque no aborden explícitamente la violencia de género.
Incorporar principios feministas en la Inteligencia Artificial significa diseñar tecnodiversidades que no solo traduzcan datos corporales con precisión, sino que también reconozcan y valoren las relaciones sociales que los producen. A través de sistemas inclusivos, participativos y reflexivos, se puede trabajar hacia una tecnología que desafíe las estructuras de dominación, promoviendo corporalidades libres, dignas y diversas.
-