23 Matching Annotations
  1. Last 7 days
    1. Research can be considered feminist when it is grounded in a set of theoretical traditions that privilege women’s issues and experiences.

      La investigación feminista se centra en analizar los desequilibrios de poder en los temas estudiados y en las relaciones entre investigadores y comunidades. Esto es particularmente relevante para las comunidades indígenas colombianas, ya que combina herramientas éticas como la reflexividad y la interseccionalidad para comprender cómo factores como género, etnicidad y clase afectan sus experiencias.

      Un componente clave de la investigación feminista es la integración del análisis de género, que va más allá de la desagregación por sexo y examina actitudes, normas y desigualdades estructurales. En el contexto del trabajo colaborativo en plataformas de Inteligencia Artificial, se realizaron encuestas piloto en Toloka para explorar las vivencias de las mujeres latinoamericanas, incluyendo variables como la pobreza de tiempo, el equilibrio entre el trabajo y las responsabilidades familiares, y las actitudes externas hacia su labor.

      Las comunidades indígenas colombianas, al igual que otras poblaciones marginadas, enfrentan retos únicos en el acceso al trabajo colaborativo y la tecnología. El diseño de investigaciones sensibles a sus contextos culturales y sociales, junto con mecanismos éticos como el pago justo y el respeto a su autonomía, permite entender mejor sus necesidades, motivaciones y desafíos. Esto puede contribuir a desarrollar políticas y herramientas más inclusivas que promuevan la igualdad de género, el fortalecimiento comunitario y la equidad en el acceso a oportunidades tecnológicas.

    1. Technical, Social and Ethical Considerations of the Workflow of the system

      El perfil arquetípico para este sistema es una mujer activa en redes sociales que sufre violencia digital, siendo un referente de opinión o activista. Este enfoque tiene en cuenta que muchas de las mujeres víctimas son líderes de opinión, comunicadoras, académicas o activistas con influencia política, social y de derechos humanos. Por ello, el diseño de la interacción con el chatbot debe ser empático, inclusivo y sensible a las corporalidades de las mujeres en Colombia.

      Inteligencia Artificial en el Sistema

      La Inteligencia Artificial será clave para el procesamiento y análisis de los casos reportados. El sistema automatizado clasificará la información obtenida, identificando los siguientes elementos:

      Tipos de ataque: tipologías de violencia digital.

      Palabras clave asociadas al acoso: para identificar patrones recurrentes.

      Perfiles de los agresores: para identificar posibles perfiles de acosadores.

      Frecuencia y recurrencia: para rastrear la aparición de ataques en contextos específicos (por ejemplo, durante crisis sociopolíticas).

      El sistema permitirá, además, generar alertas automáticas cuando se identifiquen patrones de ataque coordinado o perfiles de agresores recurrentes. Esta información será almacenada en una base de datos, que alimentará visualizaciones de datos accesibles al público, lo cual puede ser utilizado por investigadores, periodistas y otras partes interesadas para desarrollar políticas públicas o acciones de defensa.

      Protección de Datos y Privacidad

      Los datos solicitados al momento del reporte de violencia digital serán limitados y confidenciales. Se pedirá a las víctimas que proporcionen:

      Fecha aproximada del ataque.

      Plataforma de redes sociales donde ocurrió el ataque.

      Evidencia del ataque (captura de pantalla, vínculo, detalles del perfil del agresor).

      Datos opcionales como nombre (no necesariamente real), correo electrónico, edad, ocupación y ciudad.

      El sistema incluirá una política de privacidad clara y accesible, explicando cómo se utilizarán los datos para el seguimiento y la elaboración de informes. Esto garantizará que el proceso sea transparente y respetuoso con la privacidad de las usuarias.

      Impacto y Alcance

      La implementación de este sistema en Colombia buscará generar un impacto social a través de una campaña de divulgación que informe a las mujeres sobre la disponibilidad de esta plataforma para reportar casos de DGV y recibir orientación. El sistema tiene como objetivo:

      Desarrollar un modelo de base de datos que categorice y cuantifique los casos de violencia digital en Colombia.

      Generar visualizaciones de datos que sean descargables y útiles para diversas partes interesadas.

      Crear informes que sirvan como herramientas para la toma de decisiones en políticas públicas y apoyo de organizaciones feministas y de derechos humanos.

      Desarrollo Futuro

      El desarrollo del prototipo del chatbot se apoyaría en principios feministas, y se utilizarían guías de Inteligencia Artificial feminista para asegurar que el diseño del sistema no solo sea funcional, sino también ético y respetuoso con las mujeres. Este chatbot no será una solución única, sino parte de un sistema de soporte integral que incluye recursos y apoyo emocional, legal y digital. Además, se buscarán colaboraciones con organizaciones feministas en Colombia y el sector público para fortalecer el impacto y la implementación del sistema.

      Búsqueda de financiamiento para la fase de desarrollo y prueba del prototipo.

      Desarrollo y ajuste del chatbot con la inclusión de un equipo de programadores especializados.

      Establecimiento de alianzas con organizaciones y organismos nacionales e internacionales para apoyo en la fase de implementación.

      Publicación del informe final y la documentación técnica para su difusión académica y en medios abiertos.

    2. Summary of feminist principles' framework for AI

      La Inteligencia Artificial puede ser una herramienta clave para abordar la VGD en Colombia mediante el desarrollo de chatbots o agentes conversacionales:

      Asesorar y guiar para proveer información sobre derechos, rutas de denuncia y acceso a apoyo legal, psicológico y emocional.

      Prevenir y detectar patrones de riesgo al analizar palabras clave, emojis o interacciones para identificar posibles crisis de violencia y generar alertas.

      Empoderar comunidades para permitir que las víctimas accedan a redes de apoyo y recursos de manera anónima y segura, respetando principios de privacidad y datos.

      Principios clave para el desarrollo de IA feminista

      De acuerdo con los principios propuestos por Juliana Guerra (2022) y basados en experiencias previas con chatbots en otros países, las soluciones de IA deben:

      Ser colaborativas y participativas para co-diseñarse con comunidades, activistas y expertas/os para reflejar las necesidades específicas del contexto colombiano.

      Incorporar conocimientos situados para reconocer las particularidades socioculturales y las corporalidades diversas de las personas usuarias.

      Garantizar privacidad y consentimiento al usar datos de manera transparente y proteger la identidad de las víctimas.

      Fomentar la autonomía para crear herramientas de código abierto y accesibles, evitando la dependencia exclusiva de instituciones públicas.

      Un chatbot inspirado en iniciativas como Maruchatbot o Soy Violetta podría ser diseñado en Colombia para:

      Brindar orientación en español y lenguas indígenas.

      Incorporar enfoques interseccionales que reconozcan las realidades de mujeres rurales, afrodescendientes y LGBTIQ+.

      Detectar riesgos mediante Inteligencia Artificial, pero sin almacenar información sensible innecesaria.

      Crear alianzas con organizaciones locales y académicas para garantizar sostenibilidad y contextualización.

    3. Summary of Gender Digital Violence

      En Colombia, la violencia de género digital (VGD) no solo afecta a mujeres por su mera presencia en plataformas digitales, sino que se agrava cuando participan activamente en debates, liderazgos políticos o en la defensa de derechos humanos y la igualdad de género. Esta violencia, una extensión de la violencia de género offline, tiene profundas consecuencias en la vida personal, emocional y pública de las mujeres, afectando su identidad, dignidad, integridad física y psicológica, y su derecho a la libertad de expresión.

      La violencia política contra las mujeres, definida por la Organización de los Estados Americanos (OEA) como cualquier acción basada en el género que busca limitar o anular el ejercicio de sus derechos políticos, se manifiesta de forma recurrente en redes sociales. Estos espacios digitales, estratégicos para comunicadoras, activistas y lideresas, son utilizados para acoso, discursos de odio, ataques simbólicos y amenazas, con el objetivo de silenciar sus voces o inhibir su participación pública.

      El impacto de la VGD y la violencia política digital se evidencia en la autocensura, la eliminación de perfiles en redes sociales y el retiro del debate público, perpetuando las barreras de género existentes. Esto afecta especialmente a mujeres indígenas, afrodescendientes, rurales y LGBTQ+, cuyas corporalidades y experiencias de violencia están atravesadas por múltiples formas de discriminación.

      En Colombia, donde las desigualdades sociales y la violencia de género convergen con altos índices de violencia política, la Inteligencia Artificial podría desempeñar un papel esencial.

      Monitoreo de violencia digital

      Uso de Inteligencia Artificial para detectar patrones de discurso de odio, acoso y amenazas dirigidas a mujeres en redes sociales.

      Mapeo de las dinámicas de violencia en diferentes regiones y plataformas.

      Orientación personalizada

      Creación de chatbots que brinden apoyo inmediato a víctimas de VGD, incluyendo traducción automática a lenguas indígenas y regionales, adaptándose a las realidades pluriculturales del país.

      Provisión de información sobre recursos legales y psicológicos específicos para mujeres en riesgo.

      Prevención y sensibilización

      Implementación de campañas automatizadas y personalizadas para educar sobre la violencia de género digital y sus consecuencias, utilizando redes sociales para contrarrestar narrativas de odio.

      Ética e inclusión

      Cualquier solución tecnológica debe integrar un enfoque interseccional que considere las corporalidades y contextos diversos de las mujeres en Colombia, al respetar la privacidad y evitar prácticas extractivistas de datos. Además, es crucial incluir la participación activa de las mujeres afectadas en el diseño e implementación de estas herramientas, para garantizar su relevancia y efectividad.

      La traducción, las corporalidades y la Inteligencia Artificial, puede transformar el abordaje de la VGD en Colombia, fortaleciendo la resiliencia de las mujeres y garantizando espacios digitales más seguros. Sin embargo, para que estas soluciones sean sostenibles, deben estar acompañadas de políticas públicas, colaboración interinstitucional y compromiso social para erradicar las raíces estructurales de la violencia de género.

    4. La red Red de Investigación Feminista en Inteligencia artificial, f<a+i>r

      La violencia de género digital (VGD) en Colombia refleja las desigualdades y dinámicas de poder presentes en la sociedad, adaptadas al ámbito tecnológico. Este fenómeno no es estático, ha evolucionado junto con el desarrollo de las tecnologías y su uso social, al transformarse desde los inicios del Internet en 1990 hasta el contexto actual de redes sociales, dispositivos móviles e interconectividad masiva. La VGD engloba cualquier conducta, acción o comportamiento que implique agresiones contra mujeres, niñas y adolescentes, con una fuerte dimensión de género que perpetúa las desigualdades.

      La VGD ha sido reconocida por organismos internacionales como las Naciones Unidas y la Iniciativa Spotlight, que destacan el uso de tecnologías de la información y comunicación (TIC) como un medio que facilita, agrava o amplifica actos de violencia de género.

      Se identifica como cualquier acción basada en el género que cause daño físico, psicológico, económico o simbólico, instigada o asistida por tecnologías como celulares, Internet y redes sociales.

      En Colombia, como en otros países de América Latina, se han identificado entre 10 y 12 tipos de VGD, que incluye:

      Acceso no autorizado: Intervención o control de cuentas personales o dispositivos.

      Manipulación de información: Alteración o difusión de datos personales.

      Acoso y vigilancia: Seguimiento constante en línea.

      Divulgación de contenido íntimo sin consentimiento: Publicación de imágenes o información personal.

      Estas formas de violencia afectan de manera desproporcionada a las mujeres debido a los roles de género y las dinámicas de poder que se trasladan al espacio digital.

      La Inteligencia Artificial puede ser una herramienta crucial para abordar la VGD, especialmente en un país como Colombia, donde las desigualdades tecnológicas y sociales complican la identificación y respuesta a estos casos. Desde una posibilidad feminista e inclusiva, las siguientes aplicaciones son relevantes:

      Detección y prevención

      Uso de procesamiento de lenguaje natural (NLP) para identificar discursos de odio y amenazas en redes sociales.

      Análisis de patrones en datos para prevenir casos recurrentes y mapear perfiles de agresores.

      Orientación y apoyo a víctimas

      Creación de un chatbot diseñado para brindar atención inicial a mujeres víctimas de VGD, ofreciendo información sobre recursos legales, psicológicos y de seguridad.

      Traducción automática y adaptada para alcanzar a mujeres de diferentes regiones lingüísticas y culturales del país.

      Sistematización de casos

      Generación de bases de datos seguras para documentar incidentes y proponer políticas públicas basadas en evidencia.

      Posibilidades éticas y sociales

      Es fundamental que el uso de Inteligencia Artificial respete la privacidad y autonomía de las mujeres, evitando el extractivismo de datos y la revictimización. Además, su implementación debe ser sensible a las corporalidades, entendiendo que las experiencias de violencia están mediadas por factores como género, raza, clase y ubicación geográfica.

      La combinación del desarrollo tecnológico con una posibilidad feminista puede transformar la forma en que Colombia enfrenta la VGD. Esto requiere no solo innovación en Inteligencia Artificial, sino también colaboración entre el gobierno, la sociedad civil y organismos internacionales para garantizar que las soluciones sean inclusivas, éticas y efectivas.

    1. Who is the AI innovation economy for?

      La implementación de la Inteligencia Artificial en procesos públicos y privados tiene el potencial de amplificar o mitigar estas desigualdades:

      Inclusión en el diseño de Inteligencia Artificial ya que las comunidades marginadas deben participar activamente en la creación de datasets y sistemas de IA que respeten su identidad, necesidades y derechos.

      Fomento de la equidad porque la contratación pública puede usarse como herramienta para corregir desigualdades estructurales, exigiendo la participación de empresas que prioricen la diversidad y la justicia social en sus procesos tecnológicos.

      La riqueza lingüística de Colombia, que incluye lenguas indígenas y criollas, es un recurso invaluable que debe ser integrado en el desarrollo de IA:

      Crear bases de datos que incluyan lenguas como el wayuunaiki o nasa yuwe puede garantizar que las tecnologías no excluyan a comunidades no hispanohablantes.

      La traducción y localización de los procesos de contratación y regulación de Inteligencia Artificial permitirán a más sectores de la población comprender y participar en estos procesos.

      La contratación pública es una herramienta poderosa para modelar la economía de la innovación y promover la responsabilidad en el desarrollo de Inteligencia Artificial.

      Transparencia y rendición de cuentas

      La falta de transparencia en la contratación de la Inteligencia Artificial puede perpetuar desigualdades. Colombia puede adoptar medidas como:

      Creación de registros algorítmicos: Similar a las iniciativas de Ámsterdam y Helsinki, registrar y publicar información sobre los algoritmos usados en servicios públicos.

      Publicación de contratos de la Inteligencia Artificial: Hacer accesibles al público detalles clave de los contratos gubernamentales, como los estándares éticos que las empresas deben cumplir.

      Auditorías independientes: Garantizar que las tecnologías contratadas respeten los derechos humanos y eviten impactos negativos en poblaciones vulnerables.

      Inclusión y diversidad en la contratación pública

      Requisitos de diversidad: Exigir que las empresas contratadas para desarrollar una Inteligencia Artificial demuestren compromiso con principios de equidad, diversidad e inclusión.

      Incentivos a comunidades subrepresentadas: Promover la participación de pequeñas empresas lideradas por mujeres, indígenas o afrodescendientes en licitaciones tecnológicas.

      Regulación ética en el desarrollo de IA

      Estándares obligatorios de ética: Implementar marcos legales para regular las prácticas éticas de las empresas proveedoras de IA, como un estándar colombiano de impacto algorítmico (similar al AIA en Canadá).

      Cooperación internacional: Participar en iniciativas globales como GPAI para fomentar la responsabilidad en el desarrollo y despliegue de IA, asegurando que las empresas cumplan estándares internacionales.

      Principios feministas y justicia social en la Inteligencia Artificial colombiana

      La integración de principios feministas en la contratación y desarrollo de la Inteligencia Artificial puede garantizar que las tecnologías beneficien a todos los sectores de la población:

      Contratación equitativa: Diseñar sistemas de e-procurement que prioricen la contratación de empresas lideradas por mujeres y otras minorías históricamente excluidas.

      Reparación histórica: Usar la contratación pública para corregir desigualdades estructurales, asignando recursos a proyectos que beneficien a comunidades marginadas.

    1. groups are emerging

      Estudio de Caso en Colombia

      La digitalización de territorios en proyectos de conservación en Colombia puede tener implicaciones graves si no se respetan los derechos indígenas. Por ejemplo:

      Proyectos de conservación basados en Inteligencia Artificial que clasifican áreas protegidas sin considerar que estos territorios son habitados y administrados por comunidades indígenas pueden generar conflictos y despojo.

      La ausencia de perspectivas colectivas en los algoritmos de Inteligencia Artificial refuerza narrativas individualistas que no reflejan la cosmovisión indígena sobre la naturaleza como un ente vivo y compartido.

      La posición ética planteada por Indigenous AI resalta la necesidad de redefinir cómo se colectivizan el conocimiento y la identidad digital, respetando los valores comunitarios y evitando procesos extractivos.

    2. We are essentially digitizing trees, animals, and plants and rivers, and boundaries, defining those using satellite imagery.

      En Colombia, las corporalidades están profundamente vinculadas a la identidad cultural, territorial y espiritual. Para muchas comunidades indígenas, afrodescendientes y campesinas, el cuerpo no solo es físico, sino también un puente con la tierra y la naturaleza.

      Estas comunidades entienden el territorio como un elemento vital de su existencia colectiva, lo que contrasta con las visiones occidentales que separan al individuo del entorno natural.

      La digitalización de territorios, como se plantea en el uso de la Inteligencia Artificial para conservación, presenta desafíos éticos importantes. Clasificar y definir tierras y recursos naturales a través de imágenes satelitales y algoritmos puede despojar a estas comunidades de su conexión simbólica y material con el territorio, perpetuando desigualdades históricas y vulnerando sus derechos culturales y corporales.

      La traducción en Colombia podría desempeñar un papel clave al mediar entre las perspectivas indígenas y las prácticas occidentales de conservación y digitalización de territorios.

      Traducir no solo lenguas, sino también conceptos culturales como la relacionalidad con la naturaleza y el conocimiento colectivo, es esencial para evitar malentendidos y garantizar que las voces de las comunidades sean escuchadas.

      Por ejemplo, cuando se desarrollan proyectos de conservación basados en la Inteligencia Artificial, la traducción puede ayudar a garantizar que los principios, usos y riesgos de estas tecnologías sean entendidos desde las cosmovisiones indígenas, en lugar de imponer terminologías y enfoques que no respeten sus prácticas y saberes.

      La implementación de Inteligencia Artificial en conservación y digitalización de tierras en Colombia debería centrarse en que:

      Las comunidades indígenas deban ser incluidas como actores principales en el diseño de tecnologías que afectan sus territorios. Esto requiere procesos de consulta previos, libres e informados, en línea con los estándares internacionales de derechos humanos.

      En lugar de imponer un modelo de digitalización basado en la separación tierra-persona, la Inteligencia Artificial deba reflejar cómo estas comunidades perciben su conexión espiritual, cultural y económica con la naturaleza.

      La Inteligencia Artificial deba reconocer y respetar el conocimiento colectivo de las comunidades. Esto incluye evitar la apropiación de datos que no consideren el carácter comunal de la identidad y el saber indígena, promoviendo en su lugar principios éticos como los planteados en la posición de Indigenous AI.

  2. Jan 2025
    1. Groups Fairness vs Individual Fairness

      Las métricas de equidad en inteligencia artificial consiste en equilibrar las necesidades y derechos de los individuos con los de los grupos a los que pertenecen. En esta interacción, los cuerpos, como sujetos de políticas, datos y decisiones, son tanto el objeto de la equidad como el espacio donde se manifiestan sus fallas. Al mismo tiempo, traducir valores éticos en métricas matemáticas resalta los límites y riesgos de confiar únicamente en lo cuantitativo para resolver problemas profundamente humanos.

      Muchas métricas de equidad, como paridad demográfica o igualdad de oportunidades, priorizan problemas entre grupos tales como género o raza. No obstante, esta priorización puede generar nuevas desigualdades dentro de esos mismos grupos. Por ejemplo:

      Buscar igualdad en las tasas de aceptación entre grupos, sin necesariamente garantizar que los individuos más cualificados sean seleccionados. Esto puede incluir a personas menos capacitadas en un esfuerzo por equilibrar resultados entre géneros o razas.

      Dar prioridad a contratar a los individuos más cualificados, independientemente del grupo, lo que puede excluir a grupos marginados.

      Estas desigualdades generan costos. La primera puede aumentar la percepción de injusticia entre individuos del mismo grupo (un postulante cualificado rechazado mientras uno menos cualificado es aceptado). La segunda perpetúa desigualdades estructurales al priorizar una lógica de mérito que no considera las barreras históricas. Esta tensión refleja una realidad ineludible: no existe una solución técnica capaz de satisfacer simultáneamente todas las demandas de equidad.

      La interseccionalidad complica aún más estas dinámicas. Un algoritmo que parece justo en términos de género (hombres/mujeres) o raza (blancos/negros), puede ser injusto para subgrupos en las intersecciones de estas categorías, como mujeres afro, indígenas, etc. Estas identidades no son meras combinaciones de atributos; son experiencias vividas que reflejan múltiples niveles de opresión y privilegio.

      En un sistema de contratación, la representación equitativa de hombres y mujeres puede ocultar la exclusión sistemática de mujeres racializadas o indígenas. Esto subraya cómo la traducción de conceptos éticos en métricas matemáticas puede pasar por alto la complejidad de las experiencias humanas.

      En el diseño de la Inteligencia Artificial, la traducción no solo implica convertir datos en modelos, sino también transcribir principios éticos en reglas operativas. Esta traducción puede ser empoderadora o dañina para los cuerpos que impacta.

      Empoderadora en el sentido en que una Inteligencia Artificial que integra principios éticos mediante enfoques participativos y contextualizados puede visibilizar y mitigar desigualdades estructurales.

      Dañina en el sentido en que si las decisiones se limitan a métricas aisladas, como maximizar precisión, las Inteligencias Artificiales pueden reforzar jerarquías preexistentes, ignorando los cuerpos marginados que quedan fuera de su diseño.

      Priorizar lo mensurable sobre lo significativo en el sentido en que los cuerpos afectados por estas decisiones recuerdan que, detrás de cada dato, hay vidas humanas con historias complejas.

      Para lograr una ética corporal en la Inteligencia Artificial y para abordar estas tensiones, sería clave una ética que reconozca tanto los cuerpos como los cuerpos que usan ensamblajes para programar a la Inteligencia Artificial:

      Las métricas de equidad deben diseñarse de manera participativa, integrando las experiencias de los cuerpos afectados. Esto requiere un enfoque interdisciplinario que combine ética, ciencias sociales e ingeniería.

      La equidad debería ser un proceso continuo, lo que incluye auditorías regulares para identificar y mitigar sesgos que surgen en datos y modelos.

      Las métricas deben ir más allá de categorías rígidas y considerar las intersecciones complejas que definen las experiencias humanas.

      Replantear el objetivo técnico de los modelos, priorizando minimizar daños sobre maximizar precisión. Esto quiere decir que lo ideal sería reorientar la eficiencia hacia resultados que reflejen valores humanos.

    2. What is fairness?

      Los cuerpos, la traducción y la Inteligencia Artificial vistos desde una posibilidad ética en la equidad revela tensiones profundas entre lo cuantificable y lo ético, especialmente cuando consideramos cómo la Inteligencia Artificial impacta los cuerpos. En el centro de estas tensiones yace un desafío, traducir conceptos éticos complejos, como la equidad, en métricas operativas que puedan implementarse en modelos matemáticos. Sin embargo, esta traducción no es neutral ni perfecta, es un acto cargado de decisiones políticas, éticas y culturales que afectan directamente a las corporalidades.

      Primero que todo, el cuerpo en el centro del problema refleja que los cuerpos son los sujetos finales de las decisiones algorítmicas. Por ejemplo, en el caso de las métricas de paridad demográfica y de igualdad de oportunidades, los cuerpos se convierten en estadísticas como los números de aceptación o rechazo y probabilidades calculadas. Esto despersonaliza a los individuos y reduce sus complejas experiencias a puntos de datos que se integran en sistemas automatizados.

      Además, el impacto sobre los cuerpos marginados no puede desvincularse de sus contextos culturales y sociales. Por ejemplo, la paridad demográfica puede corregir desigualdades numéricas, pero si la Inteligencia Artificial perpetúa estereotipos o malinterpreta características culturales en sus métricas de similitud, los cuerpos aún enfrentan injusticias.

      segundo, la traducción vista desde las posibilidades éticas hasta la matemática implica que la traducción de conceptos éticos en modelos matemáticos, como los índices de entropía generalizada o las métricas de equidad grupal, enfrenta una paradoja fundamental ya que la ética es intrínsecamente contextual y fluida, mientras que las matemáticas buscan exactitud, consistencia y universalidad. Esto da lugar a dilemas como el teorema de imposibilidad, donde no es posible satisfacer simultáneamente múltiples métricas de equidad.

      Este proceso de traducción puede ocultar o amplificar sesgos, dependiendo de cómo se define y mide la similitud entre individuos. Por ejemplo, al intentar medir similitud entre postulantes a un empleo, ¿cómo se traduce la experiencia laboral de una mujer en un contexto cultural donde históricamente se han excluido sus contribuciones? Traducir esta experiencia en un valor numérico puede distorsionar las realidades de los cuerpos que pretende representar.

      Tercero, la Inteligencia Artificial como cuerpo traductor indica que no solo traduce datos, sino también cuerpos y experiencias, reduciéndolos a representaciones que interactúan con sistemas automatizados. Por lo tanto, la Inteligencia Artificial actúa como un “cuerpo traductor” que interpreta y reconfigura las relaciones de poder existentes. Un ejemplo es la dificultad de aplicar métricas de equidad grupal en contextos donde las desigualdades históricas han creado disparidades profundas en las oportunidades educativas y económicas.

      Por último, el problema surge cuando la Inteligencia Artificial perpetúa, en lugar de mitigar, estas desigualdades. Por ejemplo, si una métrica de igualdad de oportunidades selecciona predominantemente a individuos del grupo mayoritario debido a sus mayores tasas de calificación previa, las dinámicas de poder se refuerzan, y los cuerpos del grupo minoritario quedan relegados.

      Para lograr unas posibilidades éticas dentro de las cartografías de tecnodiversidades es necesario que:

      Las métricas de equidad deben reevaluarse constantemente en función de los contextos sociales, políticos y culturales en los que se aplican. Esto implica un enfoque repetitivo y dinámico en la toma de decisiones algorítmicas.

      Los cuerpos no pueden reducirse a datos estadísticos. Es necesario desarrollar métodos participativos que integren las experiencias vividas de los afectados por las decisiones algorítmicas en el diseño y evaluación de la Inteligencia Artificial.

      En lugar de intentar traducir la ética directamente a matemática, podemos fomentar una interacción entre disciplinas, incluyendo la filosofía, las ciencias sociales y la ingeniería, para que la traducción sea más inclusiva y representativa.

      Las métricas de similitud deben ser auditadas desde perspectivas interdisciplinarias para garantizar que no perpetúen sesgos ni deshumanicen a los sujetos.

    1. Additional Ethical Considerations

      Las corporalidades deben ser el centro en la creación de la Inteligencia Artificial, ya que los sistemas impactan directamente a las personas. Es crucial incluir las voces de poblaciones vulnerables, quienes suelen ser ignoradas en los procesos de diseño. Esto implica entender las expectativas de justicia y equidad de los diversos grupos sociales y cómo estas varían según factores como el estatus socioeconómico, la experiencia tecnológica y el nivel de impacto directo que puedan experimentar.

      La traducción con Inteligencia Artificial no solo implica convertir datos en decisiones, sino hacerlo de manera comprensible para todos. La interpretación va más allá de la simple explicación técnica, buscando que cualquier ciudadano pueda entender cómo opera un sistema y confiar en sus resultados. Este proceso de traducción también debe integrar valores éticos como la privacidad y la equidad, equilibrando estas metas para evitar comprometer una en favor de la otra.

      Las Inteligencias Artificiales no funcionan aisladas; interactúan con los humanos que las usan y son afectadas por ellos. Esto es evidente en escenarios como la revisión de libertad condicional, donde las decisiones finales las toman jueces basándose en las predicciones de la Inteligencia Artificial. La interacción entre sesgos humanos y algorítmicos puede amplificar injusticias si no se diseña cuidadosamente todo el sistema. Por ello, la colaboración entre humanos y máquinas debe ser auditada y diseñada para reducir los sesgos, no perpetuarlos.

    1. Amazon

      Los sistemas algorítmicos, al ser entrenados con datos que reflejan desigualdades históricas y sesgos humanos, reproducen dinámicas opresivas y las proyectan en relación con las corporalidades.

      Los cuerpos de las mujeres, específicamente aquellos identificados por marcadores de género como “women’s chess club” o la asistencia a “women’s colleges”, fueron desvalorizados en el proceso algorítmico.

      Esto demuestra cómo los algoritmos no operan en un vacío abstracto, sino que tienen efectos tangibles sobre cuerpos concretos, excluyendo a mujeres de procesos laborales que moldean sus trayectorias de vida.

      La decisión del algoritmo de penalizar referencias asociadas al género femenino refuerza la idea de que los cuerpos masculinos (y sus experiencias) son el estándar de valor y éxito, mientras que los cuerpos femeninos son vistos como una desviación de la norma.

      Esta jerarquización de corporalidades, basada en datos históricos sesgados, solidifica desigualdades estructurales en espacios laborales.

      Al absorber y amplificar los sesgos históricos, el algoritmo no solo afectó a las corporalidades que estaban representadas en los datos, sino que también condicionó qué tipos de cuerpos e identidades serían visibles, aceptables y valiosas en el futuro.

      Este mecanismo tiene implicaciones profundas, pues define quién puede ocupar ciertos espacios de poder y autoridad.

      Aunque el sesgo identificado fue de género, este caso subraya cómo las tecnologías algorítmicas pueden replicar múltiples formas de discriminación (de raza, clase, género, orientación sexual, discapacidad, etc.), que afectan a los cuerpos.

      Las corporalidades no son homogéneas, y un sistema que discrimina en función de un aspecto frecuentemente reproduce desigualdades en otras dimensiones.

      El hecho de que Amazon no pudiera corregir el sesgo a pesar de múltiples intentos indica cómo la opresión de ciertas corporalidades no es un accidente técnico, sino un reflejo de sistemas históricos de exclusión profundamente enraizados.

      Los cuerpos que se quedaron fuera del proceso laboral son una evidencia de cómo la tecnología puede perpetuar desigualdades en lugar de eliminarlas.

  3. May 2024
    1. ¿cuál es nuestra responsabilidad, como investigadores, de facili-tar no solamente la expresión creativa, sino más aún el atestiguarestas narrativas como una experiencia de humanización?

      Nuestra responsabilidad es crear espacios donde las voces se escuchen, las experiencias se validen y la humanidad se celebre. A través de este proceso, contribuimos a una sociedad más empática y comprensiva.

      Facilitar la Expresión Creativa: Como investigadores, debemos crear un ambiente propicio para que las personas compartan sus experiencias y testimonios de manera creativa.

      Atestiguar Narrativas como Experiencia de Humanización: Atestiguar significa ser testigo de las historias y experiencias de otros.

      Ética y Cuidado: Como investigadores, debemos abordar esta responsabilidad con ética y cuidado.

  4. Apr 2024
    1. también se extendió mucho más allá de la mera eficiencia. Un autor del estudio de caso señaló que si un colaborador no puede usar las herramientas que se están empleando, entonces corren el riesgo de ser privados del proceso científico. Esta privación de derechos es especialmente problemática éticamente si un colaborador no puede editar directa o simultáneamente un manuscrito coautor debido a su falta de familiaridad con las herramientas de procesamiento (por ejemplo. LaTeX.)

      La inclusión y la familiaridad con las herramientas son aspectos cruciales para garantizar la equidad y la integridad en la colaboración científica.

      Acceso a las herramientas: El autor destaca que si un colaborador no puede utilizar las herramientas específicas empleadas en el estudio, se enfrenta al riesgo de ser excluido del proceso científico. Esto subraya la necesidad de proporcionar acceso equitativo a las herramientas y tecnologías utilizadas en la investigación.

      Privación de derechos: La falta de habilidad para editar directa o simultáneamente un manuscrito coautor debido a la falta de familiaridad con las herramientas de procesamiento (como LaTeX) puede ser problemática desde una perspectiva ética. La colaboración científica debe ser inclusiva y garantizar que todos los participantes tengan la oportunidad de contribuir plenamente.

      Ética y accesibilidad: La ética en la investigación científica implica considerar la accesibilidad y la igualdad de oportunidades. Los investigadores deben esforzarse por capacitar a sus colaboradores en el uso de las herramientas relevantes y asegurarse de que todos tengan la posibilidad de participar activamente en la creación y edición de documentos científicos.

  5. Oct 2021
  6. www.corporacionavre.org www.corporacionavre.org
    1. 7 propiedades que son valiosas sino lo que deberían hacer los individuos y las instituciones para responder a las propiedades valiosas4. Ese “modo de ser” y de hacer del que los humanos nos vamos apropiando a lo largo de nuestra vida es lo que constituye a los hábitos, reflejo de costumbres que pueden ser referidas a virtudes o valores deseables en sí (postura deontológica) o al juicio sobre la bondad de las acciones tomadas en cuenta sus consecuencias (postura consecuencialista). En cualquier caso, el ethos es el fundamento de la praxis y el centro de donde brotan los actos humanos.5Así comprendida, la ética es un tipo de saber que se orienta por la evaluación de la bondad de la acción humana o de una institución sobre la base de la existencia de una búsqueda implícita o explícita del bien; es un saber complejo que significa al menos dos cosas diferentes. Si se asume una perspectiva deontológica entonces significa: a. Aprender a tomar decisiones prudentes, es decir, reflexionar desde valores antes de decidir y actuar según lo elegido. Este saber práctico contribuye a averiguar cuál debe ser el fin de nuestro actuar para decidir sobre los actos que se deben asumir, el ordenamiento de las metas, los valores que orientan la acción para finalmente tomar decisiones soportadas en dichos valores; b. Aprender a tomar decisiones moralmente justas, lo cual significa el respeto a los derechos humanos desde una moral crítica; por lo tanto aquí se trata de averiguar cuáles valores y derechos han de ser racionalmente respetados. Entre tanto, si se adopta una postura consecuencialista significa: a) evaluar el bien independientemente de lo correcto (valores) b) rechazar la idea deontológica de que lo correcto es anterior al bien, por tanto las acciones moralmente justas deben evaluarse en función de los logros o los resultados.

      Fundamentos de la ética deontológica y consecuencialista

  7. Dec 2019
    1. 6.3alineshaktifranzke, Feminist Research Ethics(explicitly taking up feminist ethics and ethics of care)

      Ética de investigación feminista y éticas del cuidado.

    2. Internet Research: Ethical Guidelines 3.0Association of Internet Researchers

      Guías éticas para la investigación en Internet

  8. Aug 2019
  9. Sep 2018
    1. Realmente desconocía acerca de que ISO también se encargaba de certificar aspectos como la ética y los valores, en mis antiguas clases solo lo habíamos checado desde certificaciones en mejoras de los productos y/o servicios en las organizaciones.

  10. Jul 2018
  11. Jun 2018
  12. Jan 2017
    1. vengado

      ¿Conoces la frase popular "el fin justifica los medios"? Significa que cualquier procedimiento es válido para alcanzar un objetivo importante. ¿Estás de acuerdo con esta afirmación?

      En este cuento Emma trata de vengar a su padre, pero ¿justifica eso que mate a Lowenthal? ¿Crees que se puede justificar la venganza en un caso así?

  13. Oct 2015