Bienvenidas y bienvenidos a este espacio donde compartiremos nuestras ideas respecto a diferentes formas en que se presentan las violencias machistas en las redes. Estamos trabajando en un Proyecto de colaborativo sobre VIOLENCIAS MACHISTA E INTELIGENCIA ARTIFICIAL. RETOS Y OPORTUNIDADES del Municipio de Lleida y la Universidad de Lleida España sobre éste tema, sus aportes serán de mucha utilidad. Esperamos su participación!
martes, 1 de octubre de 2024
Inteligencia artificial feminista y pacifista
martes, 27 de agosto de 2024
La Inteligencia Artificial en la lucha contra la violencia de género
Recientes estudios están poniendo el foco en como la Inteligencia Artificial (IA) está demostrando ser una herramienta para detectar, sensibilizar y prevenir cualquier tipo de Violencia de Género.
Chatbots de asistencia, análisis de sentencias o detección de señales de alerta son algunas de las cosas que las Inteligencias Artificiales pueden hacer para luchar contra la Violencia de Género.
IA contra la violencia machista
La violencia de género es un problema persistente y complejo que afecta a millones de mujeres, niños y niñas en todo el mundo. Sin embargo, en la era digital, la inteligencia artificial (IA) ofrece nuevas herramientas y enfoques para abordar este problema. No solo se trata de una herramienta eficaz a la hora de lograr estadísticas que nos hagan entender mejor esta lacra, sino que podemos contar con la IA para muchos otros aspectos:
- Detección temprana y prevención. Los algoritmos de IA pueden analizar grandes cantidades de datos para identificar patrones y señales de advertencia de violencia de género, sexismo o discursos de odio. Esto incluye el monitoreo de redes sociales y comunicaciones para detectar comportamientos abusivos o amenazantes. La detección temprana de estos signos puede permitir intervenciones preventivas antes de que la situación empeore.
- Asistencia y apoyo. Los sistemas de IA pueden proporcionar asistencia y apoyo a las víctimas de violencia de género de manera instantánea y accesible. Los chatbots impulsados por Inteligencia Artificial pueden ofrecer información, asesoramiento emocional y orientación legal, entre otras. Un ejemplo de ello es Sara, una iniciativa del Programa de Naciones Unidas para el Desarrollo a través del cual se ofrece un asistente virtual con información instantánea para las víctimas, respetando siempre la privacidad.
- Análisis de datos forenses. La IA puede mejorar los procesos de recopilación y análisis de pruebas forenses en casos de violencia de género. Los algoritmos pueden analizar imágenes, grabaciones de audio y otros medios digitales para identificar evidencias relevantes. Esto puede fortalecer los casos judiciales y aumentar las tasas de condena.
- Educación y sensibilización. Los sistemas de IA pueden desarrollar programas de educación y sensibilización sobre la violencia de género, adaptados a las necesidades y preferencias individuales. Esto incluye la creación de contenido multimedia interactivo, como aplicaciones móviles y juegos educativos, que pueden ayudar a informar y empoderar a las personas para reconocer y responder a la violencia de género.
- Monitoreo y evaluación. La inteligencia artificial puede ser utilizada para monitorear y evaluar la efectividad de las intervenciones y políticas destinadas a combatir la violencia de género. Los algoritmos pueden analizar datos en tiempo real para identificar tendencias y evaluar el impacto de las estrategias implementadas, lo que permite ajustes y mejoras continuas
viernes, 26 de julio de 2024
CNN Chile: la inteligencia artificial está exacerbando la violencia de género digital
Analizamos cómo el mal uso de la inteligencia artificial está exacerbando la violencia de género digital. Desde la creación de imágenes falsas hasta el acoso en línea, este fenómeno tecnológico presenta desafíos y riesgos que debemos comprender y abordar. Conoce más en esta detallada investigación.
Más información en CNN Chile:
Más información en CNN Chile: https://www.cnnchile.com
La IA es aún más machista que nosotros: así amplifica los sesgos de género
Expertos señalan que el problema reside en el diseño de la herramienta, el control de los datos y la información de origen, que refleja prejuicios sobre hombres y mujeres.
Hace poco más de dos meses muchos se llevaban las manos a la cabeza porque Mediaset puso al frente de uno de sus programas a una presentadora virtual creada con Inteligencia Artificial (IA). Algunos lo hicieron porque no era humana y otros porque era guapa, joven y casi perfecta. Con su creación se reabrió un debate: ¿por qué no era una mujer mayor o un hombre? Según los expertos y expertas consultados, la IA no solo refleja el machismo propio de la sociedad sino que lo amplifica. En el vídeo que encabeza esta noticia, Lorena Jaume-Palasí, fundadora de Ethical Tech Society; Francisco Sierra, de la Asociación de Prensa de Madrid (APM) y Thais Ruiz, fundadora y directora de Digital Fems analizan la pirámide del machismo en la inteligencia artificial.
sábado, 20 de julio de 2024
Guía sobre el uso de la inteligencia artificial en el ámbito educativo
El Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF), órgano dependiente del Ministerio de Educación, Formación Profesional y Deportes (MEFPD), presenta hoy en el evento “Jornadas IA en educación” su nueva “Guía sobre el uso de la inteligencia artificial en el ámbito educativo”. Una publicación que busca servir de recurso fundamental para la comunidad educativa, promoviendo la integración efectiva y ética de la inteligencia artificial (IA) en las etapas educativas no universitarias.
El documento inicia contextualizando la IA, explicando su naturaleza, su presencia en la vida cotidiana y su relevancia específica en el ámbito educativo. Este primer apartado ofrece una base sólida para que los educadores y otros miembros de la comunidad educativa comprendan los conceptos fundamentales de la IA.
POR UNA INTELIGENCIA ARTIFICIAL DE TODOS Y PARA TODOS
Sensibilizar a la ciudadanía y abogar por su participación en el despliegue seguro y ético de la inteligencia artificial es la razón de ser de CIVICAi. La aparición en los últimos meses de aplicaciones de IA que llegan a manos de millones de personas en todo el mundo ha situado en el centro del debate público tanto el impacto social, económico y medioambiental de esta tecnología, como sus implicaciones éticas y su trascendencia para el futuro de la humanidad y del planeta. CIVICAi trabaja para convertir esta preocupación ciudadana en acción con los siguientes principios:
1. REGULACIÓN DEMOCRÁTICA DE LA IA. Solicitar a los Gobiernos de Cataluña, España y la Unión Europea que ejerzan, con carácter de urgencia, la implementación práctica (más allá de recomendaciones) de las regulaciones previstas sobre la aplicación social de la IA.
2. PARTICIPACIÓN DE LA SOCIEDAD CIVIL. Involucrar a la sociedad civil, de la manera en que democráticamente se acuerde, en la regulación del despliegue armónico y ético de la IA, más allá de la participación de Expertos, Empresas y Gobiernos.
3. COL·LABORACIÓN I ACCIÓN CON ENTIDADES. Impulsar el Consejo Social que hemos constituido con carácter permanente, con el fin de trabajar en la implementación práctica de esta regulación con todas las partes interesadas y asegurar la Participación Ciudadana en todo este proceso.
martes, 16 de julio de 2024
Brecha de género
Cerrar la brecha de género en las profesiones digitales llevará más de 30 años
Las startups fundadas por mujeres sólo perciben el 3 % del capital invertido en España
Hacia una inteligencia artificial feminista
La IA es ubicua, pero ni todopoderosa ni perfecta. Las advertencias sobre los sesgos machistas (y también racistas) de algunos algoritmos se suceden desde hace años y preocupan tanto a las Naciones Unidas como a la Unión Europea, que se ha puesto manos a la obra para evitar que esos sesgos deriven en consecuencias nocivas para la ciudadanía, particularmente para las mujeres y grupos vulnerables.
La inteligencia artificial también es machista
Igualdad combate ahora los algoritmos con sesgo de género
El diseño discrimina a las mujeres, según la directora del Instituto de las Mujeres, porque « no reconocen las voces agudas porque se entrenan con voces masculinas y los historiales que realizan las redes sociales basados en estereotipos.
La directora del Instituto de las Mujeres, Toni Morillas, destacó el pasado miércoles la necesidad de impulsar desde las instituciones públicas medidas que acaben con los algoritmos con sesgo de género que existen en el sector de la Inteligencia Artificial (IA).
Morillas inauguró el conversatorio 'Justicia Algorítmica en clave de género', organizado por el Instituto, en donde junto a varias representantes de empresas del sector, informáticas y especialistas la importancia de «revisar y analizar cómo estos sistemas pueden afectar al desarrollo de los derechos humanos reproduciendo sesgos y estereotipos» presentes en la sociedad. Según Morillas, los algoritmos están diseñados para discriminar a las mujeres.
Como ejemplo de la brecha de género que existe dentro del diseño de la IA, Morillas ha señalado los sistemas «que no reconocen las voces agudas porque se entrenan con voces masculinas, o los historiales que realizan las redes sociales basados en estereotipos» y concepciones previas que incentivan la polarización.
También apunta a la ausencia de datos sobre asuntos que interesan a las mujeres, como el tratamiento del embarazo o el parto, la violencia obstétrica, o la falta de cifras, por ejemplo, en relación a los infartos en mujeres. Unos números que, ha apuntado, se escondieron durante mucho tiempo.
lunes, 15 de julio de 2024
REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO - Normas armonizadas en materia de inteligencia artificia
REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO Y DEL CONSEJO
de 13 de junio de 2024
por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial)
El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial (en lo sucesivo, «sistemas de IA») en la Unión, de conformidad con los valores de la Unión, a fin de promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo, «Carta»), incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, proteger frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación. El presente Reglamento garantiza la libre circulación transfronteriza de mercancías y servicios basados en la IA, con lo que impide que los Estados miembros impongan restricciones al desarrollo, la comercialización y la utilización de sistemas de IA, a menos que el presente Reglamento lo autorice expresamente.
miércoles, 10 de julio de 2024
¿La IA es machista? Esto dicen expertas de la UNAM
Especialistas de la Universidad Nacional Autónoma de México dicen que la Inteligencia Artificial es machista al generar información
La Inteligencia Artificial: ¿Puede ser Machista? ¿ Cómo Evitarlo?
La Inteligencia Artificial: ¿Puede ser Machista? ¿ Cómo Evitarlo?
Introducción
La inteligencia artificial (IA) se ha convertido en una herramienta omnipresente en nuestra sociedad, utilizada en campos que van desde la medicina hasta el entretenimiento. Sin embargo, a medida que la IA se integra cada vez más en nuestras vidas, surgen preocupaciones sobre su imparcialidad y ética. Una de las críticas más significativas es que la IA puede perpetuar y amplificar sesgos de género, incluyendo el machismo. Este artículo explora cómo la IA puede ser machista, las razones detrás de este problema y las estrategias para mitigarlo.
Desarrollo
1. Orígenes del Sesgo en la IA
Los sistemas de IA son entrenados utilizando grandes volúmenes de datos. Si estos datos contienen sesgos, la IA también los aprenderá y replicará. Por ejemplo, si un conjunto de datos contiene estereotipos de género, como la asociación de las mujeres con roles domésticos y a los hombres con roles profesionales, la IA puede internalizar estos sesgos y perpetuarlos en sus resultados y recomendaciones.
2. Casos de Sesgo de Género en la IA
Un caso conocido es el de Amazon, que en 2018 abandonó una herramienta de reclutamiento de IA después de descubrir que discriminaba a las mujeres. El sistema, entrenado con currículums enviados a la empresa durante un período de diez años, favorecía a los candidatos masculinos porque la mayoría de los solicitantes eran hombres, reflejando así una fuerza laboral históricamente sesgada .
Otro ejemplo es el uso de IA en el reconocimiento facial. Estudios han demostrado que estos sistemas tienden a ser menos precisos en la identificación de mujeres y personas de piel más oscura, lo que puede llevar a consecuencias desproporcionadas y discriminatorias en aplicaciones como la vigilancia policial .
Explicación
1. Datos Históricos Sesgados
La raíz del problema radica en los datos históricos utilizados para entrenar los modelos de IA. Estos datos suelen reflejar las desigualdades y los sesgos presentes en la sociedad. Por ejemplo, los algoritmos de búsqueda pueden mostrar anuncios de trabajos mejor remunerados a hombres más que a mujeres debido a patrones históricos de empleo y discriminación salarial .
2. Falta de Diversidad en el Desarrollo de IA
La falta de diversidad en los equipos que desarrollan la IA también contribuye al problema. Cuando los equipos de desarrollo no son diversos, es más probable que los sesgos inconscientes se incorporen en los sistemas de IA. La falta de perspectiva de mujeres y minorías en estos equipos puede resultar en la omisión de problemas y sesgos que afectan a estos grupos .
Conclusión
Para evitar que la IA perpetúe el machismo y otros sesgos de género, es crucial adoptar un enfoque proactivo y multifacético. Primero, es esencial diversificar los equipos de desarrollo de IA para incluir más mujeres y personas de diversos orígenes. Además, se deben implementar procesos rigurosos de auditoría y verificación de sesgos en los datos y modelos de IA. Finalmente, la creación de marcos éticos y normativas claras puede guiar el desarrollo y la implementación de IA de manera más justa e inclusiva.
El reconocimiento de estos problemas y la acción hacia su solución no solo hará que la IA sea más equitativa, sino que también mejorará su eficacia y aceptación general en la sociedad. Al abordar los sesgos de género en la IA, podemos trabajar hacia un futuro donde la tecnología sirva a todos de manera equitativa y justa.
Referencias
1. Dastin, J. (2018). "Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women." Reuters. Recuperado de [Reuters](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G).
2. Buolamwini, J., & Gebru, T. (2018). "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification." Proceedings of Machine Learning Research. Recuperado de [PMLR](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf).
3. Lambrecht, A., & Tucker, C. (2019). "Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads." Management Science. Recuperado de [INFORMS](https://pubsonline.informs.org/doi/abs/10.1287/mnsc.2018.3093).
4. West, S. M., Whittaker, M., & Crawford, K. (2019). "Discriminating Systems: Gender, Race, and Power in AI." AI Now Institute. Recuperado de [AI Now Institute](https://ainowinstitute.org/discriminatingsystems.pdf).
lunes, 24 de junio de 2024
Proyecto de cartografía participativa, desarrollado por la Universidad Politécnica de Valencia, que busca contribuir a la visualización del acoso callejero.
Visualiza diferentes formas de Violencia Machista: El acoso callejero.
Se presenta un proyecto de cartografía participativa llamado Criteria Taronja, desarrollado por la Universidad Politécnica de Valencia (UPV), que busca contribuir a la visibilización de la percepción de inseguridad y el acoso callejero en Valencia a través de la participación de la ciudadanía en la identificación de espacios públicos o zonas potencialmente inseguras. El proyecto se basa en el geoprocesamiento de diversas variables socioeconómicas sobre una unidad territorial homogénea y en la integración de fuentes no tradicionales de información para la generación de conjuntos de datos con una escala de desagregación y análisis con mayor detalle.
👇 Acceso a la nota
jueves, 20 de junio de 2024
EQUIPO MOTOR DEL PROYECTO "VIOLENCIAS MACHISTAS E INTELIGENCIA ARTIFICIAL. RETOS Y OPORTUNIDADES"
Código QR de acceso a la herramienta
La aplicación posee una interfaz sencilla, intuitiva y segura. Nos permitirá conocernos y mejorar la comunicación grupal.
Inteligencia artificial feminista y pacifista
Barcelona alumbra un manifiesto para una inteligencia artificial feminista y pacifista Una veintena de miembros de la comunidad científica...
-
El Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF), órgano dependiente del Ministerio de Educación, Fo...
-
Barcelona alumbra un manifiesto para una inteligencia artificial feminista y pacifista Una veintena de miembros de la comunidad científica...
-
El estudio realizado por investigadores de la Universidad Loyola demuestra que la IA puede ayudar a prevenir tres cuartas partes de la vio...









