martes, 16 de julio de 2024

Hacia una inteligencia artificial feminista


Hace unas semanas, ChatGPT contaba chistes sexistas. Ahora ya no hace bromas sobre las mujeres y contesta que "es importante promover la igualdad de género y evitar estereotipos y discriminación". Esto es así porque se le ha añadido una capa para que sus respuestas sean respetuosas con los valores de la sociedad, incluido el feminismo: se trata de un movimiento más hacia la justicia algorítmica que empieza a ganar terreno en la inteligencia artificial.
La IA es ubicua, pero ni todopoderosa ni perfecta. Las advertencias sobre los sesgos machistas (y también racistas) de algunos algoritmos se suceden desde hace años y preocupan tanto a las Naciones Unidas como a la Unión Europea, que se ha puesto manos a la obra para evitar que esos sesgos deriven en consecuencias nocivas para la ciudadanía, particularmente para las mujeres y grupos vulnerables.

ARTICULO COMPLETO DEL PERIODICO DE ESPAÑA

La inteligencia artificial también es machista

 Igualdad combate ahora los algoritmos con sesgo de género


El diseño discrimina a las mujeres, según la directora del Instituto de las Mujeres, porque « no reconocen las voces agudas porque se entrenan con voces masculinas y los historiales que realizan las redes sociales basados en estereotipos.


La directora del Instituto de las Mujeres, Toni Morillas, destacó el pasado miércoles la necesidad de impulsar desde las instituciones públicas medidas que acaben con los algoritmos con sesgo de género que existen en el sector de la Inteligencia Artificial (IA).

Morillas inauguró el conversatorio 'Justicia Algorítmica en clave de género', organizado por el Instituto, en donde junto a varias representantes de empresas del sector, informáticas y especialistas la importancia de «revisar y analizar cómo estos sistemas pueden afectar al desarrollo de los derechos humanos reproduciendo sesgos y estereotipos» presentes en la sociedad. Según Morillas, los algoritmos están diseñados para discriminar a las mujeres.

Como ejemplo de la brecha de género que existe dentro del diseño de la IA, Morillas ha señalado los sistemas «que no reconocen las voces agudas porque se entrenan con voces masculinas, o los historiales que realizan las redes sociales basados en estereotipos» y concepciones previas que incentivan la polarización.

También apunta a la ausencia de datos sobre asuntos que interesan a las mujeres, como el tratamiento del embarazo o el parto, la violencia obstétrica, o la falta de cifras, por ejemplo, en relación a los infartos en mujeres. Unos números que, ha apuntado, se escondieron durante mucho tiempo.

ARTICULO COMPLETO DE ABC


lunes, 15 de julio de 2024

Herramientas de inteligencia artificial sin costos

 Lista de 27 herramientas de inteligencia artificial de uso gratuito




El aprovechamiento de la Inteligencia Artificial requiere asegurar otras habilidades básicas

 COMPETENCIAS NECESARIAS PARA EL USO ADECUADO DE LA INTELIGENCIA ARTIFICIAL




REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO - Normas armonizadas en materia de inteligencia artificia

REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO Y DEL CONSEJO

de 13 de junio de 2024

por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial)

El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial (en lo sucesivo, «sistemas de IA») en la Unión, de conformidad con los valores de la Unión, a fin de promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo, «Carta»), incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, proteger frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación. El presente Reglamento garantiza la libre circulación transfronteriza de mercancías y servicios basados en la IA, con lo que impide que los Estados miembros impongan restricciones al desarrollo, la comercialización y la utilización de sistemas de IA, a menos que el presente Reglamento lo autorice expresamente.


ACCESO AL DOCUMENTO

ACCESO A LA NORMATIVA DEL PARLAMENTO EUROPEO 

miércoles, 10 de julio de 2024

¿La IA es machista? Esto dicen expertas de la UNAM

 

Especialistas de la Universidad Nacional Autónoma de México dicen que la Inteligencia Artificial es machista al generar información




Aunque sus desarrolladores e impulsores han manifestado que la Inteligencia Artificial (IA) no tiene género, especialistas de la Universidad Nacional Autónoma de México (UNAM) señalan lo contrario y, que, de hecho, es "sutil o abiertamente" machista al generar información. Aquí te contamos la razón.👇

La Inteligencia Artificial: ¿Puede ser Machista? ¿ Cómo Evitarlo?

 



La Inteligencia Artificial: ¿Puede ser Machista? ¿ Cómo Evitarlo?


Introducción

La inteligencia artificial (IA) se ha convertido en una herramienta omnipresente en nuestra sociedad, utilizada en campos que van desde la medicina hasta el entretenimiento. Sin embargo, a medida que la IA se integra cada vez más en nuestras vidas, surgen preocupaciones sobre su imparcialidad y ética. Una de las críticas más significativas es que la IA puede perpetuar y amplificar sesgos de género, incluyendo el machismo. Este artículo explora cómo la IA puede ser machista, las razones detrás de este problema y las estrategias para mitigarlo.

Desarrollo

1. Orígenes del Sesgo en la IA

Los sistemas de IA son entrenados utilizando grandes volúmenes de datos. Si estos datos contienen sesgos, la IA también los aprenderá y replicará. Por ejemplo, si un conjunto de datos contiene estereotipos de género, como la asociación de las mujeres con roles domésticos y a los hombres con roles profesionales, la IA puede internalizar estos sesgos y perpetuarlos en sus resultados y recomendaciones.

2. Casos de Sesgo de Género en la IA

Un caso conocido es el de Amazon, que en 2018 abandonó una herramienta de reclutamiento de IA después de descubrir que discriminaba a las mujeres. El sistema, entrenado con currículums enviados a la empresa durante un período de diez años, favorecía a los candidatos masculinos porque la mayoría de los solicitantes eran hombres, reflejando así una fuerza laboral históricamente sesgada .

Otro ejemplo es el uso de IA en el reconocimiento facial. Estudios han demostrado que estos sistemas tienden a ser menos precisos en la identificación de mujeres y personas de piel más oscura, lo que puede llevar a consecuencias desproporcionadas y discriminatorias en aplicaciones como la vigilancia policial .

Explicación

1. Datos Históricos Sesgados

La raíz del problema radica en los datos históricos utilizados para entrenar los modelos de IA. Estos datos suelen reflejar las desigualdades y los sesgos presentes en la sociedad. Por ejemplo, los algoritmos de búsqueda pueden mostrar anuncios de trabajos mejor remunerados a hombres más que a mujeres debido a patrones históricos de empleo y discriminación salarial .


2. Falta de Diversidad en el Desarrollo de IA

La falta de diversidad en los equipos que desarrollan la IA también contribuye al problema. Cuando los equipos de desarrollo no son diversos, es más probable que los sesgos inconscientes se incorporen en los sistemas de IA. La falta de perspectiva de mujeres y minorías en estos equipos puede resultar en la omisión de problemas y sesgos que afectan a estos grupos .

Conclusión

Para evitar que la IA perpetúe el machismo y otros sesgos de género, es crucial adoptar un enfoque proactivo y multifacético. Primero, es esencial diversificar los equipos de desarrollo de IA para incluir más mujeres y personas de diversos orígenes. Además, se deben implementar procesos rigurosos de auditoría y verificación de sesgos en los datos y modelos de IA. Finalmente, la creación de marcos éticos y normativas claras puede guiar el desarrollo y la implementación de IA de manera más justa e inclusiva.

El reconocimiento de estos problemas y la acción hacia su solución no solo hará que la IA sea más equitativa, sino que también mejorará su eficacia y aceptación general en la sociedad. Al abordar los sesgos de género en la IA, podemos trabajar hacia un futuro donde la tecnología sirva a todos de manera equitativa y justa.


Referencias


1. Dastin, J. (2018). "Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women." Reuters. Recuperado de [Reuters](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G).


2. Buolamwini, J., & Gebru, T. (2018). "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification." Proceedings of Machine Learning Research. Recuperado de [PMLR](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf).


3. Lambrecht, A., & Tucker, C. (2019). "Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads." Management Science. Recuperado de [INFORMS](https://pubsonline.informs.org/doi/abs/10.1287/mnsc.2018.3093).


4. West, S. M., Whittaker, M., & Crawford, K. (2019). "Discriminating Systems: Gender, Race, and Power in AI." AI Now Institute. Recuperado de [AI Now Institute](https://ainowinstitute.org/discriminatingsystems.pdf).

Inteligencia artificial feminista y pacifista

  Barcelona alumbra un manifiesto para una inteligencia artificial feminista y pacifista Una veintena de miembros de la comunidad científica...