La IA es ubicua, pero ni todopoderosa ni perfecta. Las advertencias sobre los sesgos machistas (y también racistas) de algunos algoritmos se suceden desde hace años y preocupan tanto a las Naciones Unidas como a la , que se ha puesto manos a la obra para evitar que esos sesgos deriven en consecuencias nocivas para la ciudadanía, particularmente para las mujeres y grupos vulnerables.
Bienvenidas y bienvenidos a este espacio donde compartiremos nuestras ideas respecto a diferentes formas en que se presentan las violencias machistas en las redes. Estamos trabajando en un Proyecto de colaborativo sobre VIOLENCIAS MACHISTA E INTELIGENCIA ARTIFICIAL. RETOS Y OPORTUNIDADES del Municipio de Lleida y la Universidad de Lleida España sobre éste tema, sus aportes serán de mucha utilidad. Esperamos su participación!
martes, 16 de julio de 2024
Hacia una inteligencia artificial feminista
La IA es ubicua, pero ni todopoderosa ni perfecta. Las advertencias sobre los sesgos machistas (y también racistas) de algunos algoritmos se suceden desde hace años y preocupan tanto a las Naciones Unidas como a la , que se ha puesto manos a la obra para evitar que esos sesgos deriven en consecuencias nocivas para la ciudadanía, particularmente para las mujeres y grupos vulnerables.
La inteligencia artificial también es machista
Igualdad combate ahora los algoritmos con sesgo de género
El diseño discrimina a las mujeres, según la directora del Instituto de las Mujeres, porque « no reconocen las voces agudas porque se entrenan con voces masculinas y los historiales que realizan las redes sociales basados en estereotipos.
La directora del Instituto de las Mujeres, Toni Morillas, destacó el pasado miércoles la necesidad de impulsar desde las instituciones públicas medidas que acaben con los algoritmos con sesgo de género que existen en el sector de la Inteligencia Artificial (IA).
Morillas inauguró el conversatorio 'Justicia Algorítmica en clave de género', organizado por el Instituto, en donde junto a varias representantes de empresas del sector, informáticas y especialistas la importancia de «revisar y analizar cómo estos sistemas pueden afectar al desarrollo de los derechos humanos reproduciendo sesgos y estereotipos» presentes en la sociedad. Según Morillas, los algoritmos están diseñados para discriminar a las mujeres.
Como ejemplo de la brecha de género que existe dentro del diseño de la IA, Morillas ha señalado los sistemas «que no reconocen las voces agudas porque se entrenan con voces masculinas, o los historiales que realizan las redes sociales basados en estereotipos» y concepciones previas que incentivan la polarización.
También apunta a la ausencia de datos sobre asuntos que interesan a las mujeres, como el tratamiento del embarazo o el parto, la violencia obstétrica, o la falta de cifras, por ejemplo, en relación a los infartos en mujeres. Unos números que, ha apuntado, se escondieron durante mucho tiempo.
lunes, 15 de julio de 2024
REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO - Normas armonizadas en materia de inteligencia artificia
REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO Y DEL CONSEJO
de 13 de junio de 2024
por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial)
El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial (en lo sucesivo, «sistemas de IA») en la Unión, de conformidad con los valores de la Unión, a fin de promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo, «Carta»), incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, proteger frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación. El presente Reglamento garantiza la libre circulación transfronteriza de mercancías y servicios basados en la IA, con lo que impide que los Estados miembros impongan restricciones al desarrollo, la comercialización y la utilización de sistemas de IA, a menos que el presente Reglamento lo autorice expresamente.
miércoles, 10 de julio de 2024
¿La IA es machista? Esto dicen expertas de la UNAM
Especialistas de la Universidad Nacional Autónoma de México dicen que la Inteligencia Artificial es machista al generar información
La Inteligencia Artificial: ¿Puede ser Machista? ¿ Cómo Evitarlo?
La Inteligencia Artificial: ¿Puede ser Machista? ¿ Cómo Evitarlo?
Introducción
La inteligencia artificial (IA) se ha convertido en una herramienta omnipresente en nuestra sociedad, utilizada en campos que van desde la medicina hasta el entretenimiento. Sin embargo, a medida que la IA se integra cada vez más en nuestras vidas, surgen preocupaciones sobre su imparcialidad y ética. Una de las críticas más significativas es que la IA puede perpetuar y amplificar sesgos de género, incluyendo el machismo. Este artículo explora cómo la IA puede ser machista, las razones detrás de este problema y las estrategias para mitigarlo.
Desarrollo
1. Orígenes del Sesgo en la IA
Los sistemas de IA son entrenados utilizando grandes volúmenes de datos. Si estos datos contienen sesgos, la IA también los aprenderá y replicará. Por ejemplo, si un conjunto de datos contiene estereotipos de género, como la asociación de las mujeres con roles domésticos y a los hombres con roles profesionales, la IA puede internalizar estos sesgos y perpetuarlos en sus resultados y recomendaciones.
2. Casos de Sesgo de Género en la IA
Un caso conocido es el de Amazon, que en 2018 abandonó una herramienta de reclutamiento de IA después de descubrir que discriminaba a las mujeres. El sistema, entrenado con currículums enviados a la empresa durante un período de diez años, favorecía a los candidatos masculinos porque la mayoría de los solicitantes eran hombres, reflejando así una fuerza laboral históricamente sesgada .
Otro ejemplo es el uso de IA en el reconocimiento facial. Estudios han demostrado que estos sistemas tienden a ser menos precisos en la identificación de mujeres y personas de piel más oscura, lo que puede llevar a consecuencias desproporcionadas y discriminatorias en aplicaciones como la vigilancia policial .
Explicación
1. Datos Históricos Sesgados
La raíz del problema radica en los datos históricos utilizados para entrenar los modelos de IA. Estos datos suelen reflejar las desigualdades y los sesgos presentes en la sociedad. Por ejemplo, los algoritmos de búsqueda pueden mostrar anuncios de trabajos mejor remunerados a hombres más que a mujeres debido a patrones históricos de empleo y discriminación salarial .
2. Falta de Diversidad en el Desarrollo de IA
La falta de diversidad en los equipos que desarrollan la IA también contribuye al problema. Cuando los equipos de desarrollo no son diversos, es más probable que los sesgos inconscientes se incorporen en los sistemas de IA. La falta de perspectiva de mujeres y minorías en estos equipos puede resultar en la omisión de problemas y sesgos que afectan a estos grupos .
Conclusión
Para evitar que la IA perpetúe el machismo y otros sesgos de género, es crucial adoptar un enfoque proactivo y multifacético. Primero, es esencial diversificar los equipos de desarrollo de IA para incluir más mujeres y personas de diversos orígenes. Además, se deben implementar procesos rigurosos de auditoría y verificación de sesgos en los datos y modelos de IA. Finalmente, la creación de marcos éticos y normativas claras puede guiar el desarrollo y la implementación de IA de manera más justa e inclusiva.
El reconocimiento de estos problemas y la acción hacia su solución no solo hará que la IA sea más equitativa, sino que también mejorará su eficacia y aceptación general en la sociedad. Al abordar los sesgos de género en la IA, podemos trabajar hacia un futuro donde la tecnología sirva a todos de manera equitativa y justa.
Referencias
1. Dastin, J. (2018). "Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women." Reuters. Recuperado de [Reuters](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G).
2. Buolamwini, J., & Gebru, T. (2018). "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification." Proceedings of Machine Learning Research. Recuperado de [PMLR](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf).
3. Lambrecht, A., & Tucker, C. (2019). "Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads." Management Science. Recuperado de [INFORMS](https://pubsonline.informs.org/doi/abs/10.1287/mnsc.2018.3093).
4. West, S. M., Whittaker, M., & Crawford, K. (2019). "Discriminating Systems: Gender, Race, and Power in AI." AI Now Institute. Recuperado de [AI Now Institute](https://ainowinstitute.org/discriminatingsystems.pdf).
Inteligencia artificial feminista y pacifista
Barcelona alumbra un manifiesto para una inteligencia artificial feminista y pacifista Una veintena de miembros de la comunidad científica...
-
Espacio digital de herramientas para la igualdad. Este espacio reúne herramientas, recursos y materiales realizados por la Iniciativa Sp...
-
Barcelona alumbra un manifiesto para una inteligencia artificial feminista y pacifista Una veintena de miembros de la comunidad científica...
-
El estudio realizado por investigadores de la Universidad Loyola demuestra que la IA puede ayudar a prevenir tres cuartas partes de la vio...