Mostrando entradas con la etiqueta VIOLENCIA MACHISTA. Mostrar todas las entradas
Mostrando entradas con la etiqueta VIOLENCIA MACHISTA. Mostrar todas las entradas

martes, 16 de julio de 2024

Brecha de género

 

Cerrar la brecha de género en las profesiones digitales llevará más de 30 años

Las startups fundadas por mujeres sólo perciben el 3 % del capital invertido en España

Hacia una inteligencia artificial feminista


Hace unas semanas, ChatGPT contaba chistes sexistas. Ahora ya no hace bromas sobre las mujeres y contesta que "es importante promover la igualdad de género y evitar estereotipos y discriminación". Esto es así porque se le ha añadido una capa para que sus respuestas sean respetuosas con los valores de la sociedad, incluido el feminismo: se trata de un movimiento más hacia la justicia algorítmica que empieza a ganar terreno en la inteligencia artificial.
La IA es ubicua, pero ni todopoderosa ni perfecta. Las advertencias sobre los sesgos machistas (y también racistas) de algunos algoritmos se suceden desde hace años y preocupan tanto a las Naciones Unidas como a la Unión Europea, que se ha puesto manos a la obra para evitar que esos sesgos deriven en consecuencias nocivas para la ciudadanía, particularmente para las mujeres y grupos vulnerables.

ARTICULO COMPLETO DEL PERIODICO DE ESPAÑA

La inteligencia artificial también es machista

 Igualdad combate ahora los algoritmos con sesgo de género


El diseño discrimina a las mujeres, según la directora del Instituto de las Mujeres, porque « no reconocen las voces agudas porque se entrenan con voces masculinas y los historiales que realizan las redes sociales basados en estereotipos.


La directora del Instituto de las Mujeres, Toni Morillas, destacó el pasado miércoles la necesidad de impulsar desde las instituciones públicas medidas que acaben con los algoritmos con sesgo de género que existen en el sector de la Inteligencia Artificial (IA).

Morillas inauguró el conversatorio 'Justicia Algorítmica en clave de género', organizado por el Instituto, en donde junto a varias representantes de empresas del sector, informáticas y especialistas la importancia de «revisar y analizar cómo estos sistemas pueden afectar al desarrollo de los derechos humanos reproduciendo sesgos y estereotipos» presentes en la sociedad. Según Morillas, los algoritmos están diseñados para discriminar a las mujeres.

Como ejemplo de la brecha de género que existe dentro del diseño de la IA, Morillas ha señalado los sistemas «que no reconocen las voces agudas porque se entrenan con voces masculinas, o los historiales que realizan las redes sociales basados en estereotipos» y concepciones previas que incentivan la polarización.

También apunta a la ausencia de datos sobre asuntos que interesan a las mujeres, como el tratamiento del embarazo o el parto, la violencia obstétrica, o la falta de cifras, por ejemplo, en relación a los infartos en mujeres. Unos números que, ha apuntado, se escondieron durante mucho tiempo.

ARTICULO COMPLETO DE ABC


miércoles, 10 de julio de 2024

¿La IA es machista? Esto dicen expertas de la UNAM

 

Especialistas de la Universidad Nacional Autónoma de México dicen que la Inteligencia Artificial es machista al generar información




Aunque sus desarrolladores e impulsores han manifestado que la Inteligencia Artificial (IA) no tiene género, especialistas de la Universidad Nacional Autónoma de México (UNAM) señalan lo contrario y, que, de hecho, es "sutil o abiertamente" machista al generar información. Aquí te contamos la razón.👇

La Inteligencia Artificial: ¿Puede ser Machista? ¿ Cómo Evitarlo?

 



La Inteligencia Artificial: ¿Puede ser Machista? ¿ Cómo Evitarlo?


Introducción

La inteligencia artificial (IA) se ha convertido en una herramienta omnipresente en nuestra sociedad, utilizada en campos que van desde la medicina hasta el entretenimiento. Sin embargo, a medida que la IA se integra cada vez más en nuestras vidas, surgen preocupaciones sobre su imparcialidad y ética. Una de las críticas más significativas es que la IA puede perpetuar y amplificar sesgos de género, incluyendo el machismo. Este artículo explora cómo la IA puede ser machista, las razones detrás de este problema y las estrategias para mitigarlo.

Desarrollo

1. Orígenes del Sesgo en la IA

Los sistemas de IA son entrenados utilizando grandes volúmenes de datos. Si estos datos contienen sesgos, la IA también los aprenderá y replicará. Por ejemplo, si un conjunto de datos contiene estereotipos de género, como la asociación de las mujeres con roles domésticos y a los hombres con roles profesionales, la IA puede internalizar estos sesgos y perpetuarlos en sus resultados y recomendaciones.

2. Casos de Sesgo de Género en la IA

Un caso conocido es el de Amazon, que en 2018 abandonó una herramienta de reclutamiento de IA después de descubrir que discriminaba a las mujeres. El sistema, entrenado con currículums enviados a la empresa durante un período de diez años, favorecía a los candidatos masculinos porque la mayoría de los solicitantes eran hombres, reflejando así una fuerza laboral históricamente sesgada .

Otro ejemplo es el uso de IA en el reconocimiento facial. Estudios han demostrado que estos sistemas tienden a ser menos precisos en la identificación de mujeres y personas de piel más oscura, lo que puede llevar a consecuencias desproporcionadas y discriminatorias en aplicaciones como la vigilancia policial .

Explicación

1. Datos Históricos Sesgados

La raíz del problema radica en los datos históricos utilizados para entrenar los modelos de IA. Estos datos suelen reflejar las desigualdades y los sesgos presentes en la sociedad. Por ejemplo, los algoritmos de búsqueda pueden mostrar anuncios de trabajos mejor remunerados a hombres más que a mujeres debido a patrones históricos de empleo y discriminación salarial .


2. Falta de Diversidad en el Desarrollo de IA

La falta de diversidad en los equipos que desarrollan la IA también contribuye al problema. Cuando los equipos de desarrollo no son diversos, es más probable que los sesgos inconscientes se incorporen en los sistemas de IA. La falta de perspectiva de mujeres y minorías en estos equipos puede resultar en la omisión de problemas y sesgos que afectan a estos grupos .

Conclusión

Para evitar que la IA perpetúe el machismo y otros sesgos de género, es crucial adoptar un enfoque proactivo y multifacético. Primero, es esencial diversificar los equipos de desarrollo de IA para incluir más mujeres y personas de diversos orígenes. Además, se deben implementar procesos rigurosos de auditoría y verificación de sesgos en los datos y modelos de IA. Finalmente, la creación de marcos éticos y normativas claras puede guiar el desarrollo y la implementación de IA de manera más justa e inclusiva.

El reconocimiento de estos problemas y la acción hacia su solución no solo hará que la IA sea más equitativa, sino que también mejorará su eficacia y aceptación general en la sociedad. Al abordar los sesgos de género en la IA, podemos trabajar hacia un futuro donde la tecnología sirva a todos de manera equitativa y justa.


Referencias


1. Dastin, J. (2018). "Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women." Reuters. Recuperado de [Reuters](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G).


2. Buolamwini, J., & Gebru, T. (2018). "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification." Proceedings of Machine Learning Research. Recuperado de [PMLR](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf).


3. Lambrecht, A., & Tucker, C. (2019). "Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads." Management Science. Recuperado de [INFORMS](https://pubsonline.informs.org/doi/abs/10.1287/mnsc.2018.3093).


4. West, S. M., Whittaker, M., & Crawford, K. (2019). "Discriminating Systems: Gender, Race, and Power in AI." AI Now Institute. Recuperado de [AI Now Institute](https://ainowinstitute.org/discriminatingsystems.pdf).

lunes, 10 de junio de 2024

Presentación de la Estrategia Estatal para combatir las violencias machistas 2022-2025

 

La ministra de Igualdad, Irene Montero, la secretaria de Estado de Igualdad y contra la Violencia de Género, Ángela Rodríguez, y la delegada del Gobierno contra la Violencia de Género, Victoria Rosell, presentan la Estrategia Estatal para combatir las violencias machistas 2022-2025.




sábado, 8 de junio de 2024

“Inteligencia Artificial y Género: Desafios, Perspectivas y Retos"

 

Este evento se enfocó en abrir un debate crítico y constructivo acerca de la interacción entre el género y la inteligencia artificial (IA), abarcando tanto el impacto que la IA tiene en la sociedad respecto a las cuestiones de género, como el papel que estas últimas desempeñan en el desarrollo y aplicación de tecnologías de IA. A través de las ponencias y mesa redonda, se explorarán los retos actuales y futuros, ofreciendo perspectivas multidimensionales que abordan desde sesgos algorítmicos hasta la representación de género en el diseño de sistemas inteligentes.

Ponentes:

Miguel Ángel Presno Linera, Catedrático de Derecho Constitucional, Universidad de Oviedo.
Susana Navas Navarro, Catedrática de Derecho Civil, Universitat Autònoma de Barcelona.
Paz Mercedes de la Cuesta Aguado, Catedrática de Derecho Penal, Universidad de Cantabria.

Podemos ver en el video de la conferencia, un completo desarrollo sobre el tema de la inteligencia artificial y el género, organizada por la unidad de igualdad de la Universidad de Almería en colaboración con el proyecto Ual Transfiere y otros profesores. Se discuten los desafíos, perspectivas y retos que la IA implica en relación con la igualdad de género.

¿Cuál fue el objetivo de la jornada?

El objetivo de la jornada "Inteligencia artificial y género: desafíos, perspectivas y retos" fue poner en relieve la relevancia del análisis de género en la evolución y aplicación de la Inteligencia artificial, un campo en constante expansión y de indudable impacto en nuestras vidas. La jornada tuvo como finalidad explorar cómo la tecnología puede reflejar y en algunos casos exacerbar las desigualdades relacionadas con el género, y cómo estos desafíos pueden ser abordados. El evento representó una magnífica oportunidad para el diálogo y el conocimiento compartido en el ámbito convocante.

¿Cuál es la posición de los organizadores sobre la relación entre la inteligencia artificial y la igualdad de género?

Los organizadores de la jornada "Inteligencia artificial y género: desafíos, perspectivas y retos" tienen un compromiso con la profundización en la intersección crucial y emergente que representa la relación entre la inteligencia artificial y la igualdad de género. Comparten la convicción de que la inteligencia, si bien es producto de la capacidad humana, no está exenta de nuestras imperfecciones, por lo que nos impulsa el deber de cuestionar y corregir los sesgos que pudiera albergar, siempre con el objetivo de erigir una sociedad más justa y equitativa. La reunión es una celebración de los logros obtenidos a través del uso ético y consciente de la tecnología, avances que representan pasos tangibles hacia un mundo donde la igualdad de género no solo es, sino también se construye y se vive.

Vea la conferencia en este link  👈


"Informe preliminar con perspectiva inteserccional sobre sesgos de género en la IA" (Ministerio de Igualdad, Instituto de mujeres, Unión Europea)

 



    "Informe preliminar con perspectiva inteserccional sobre sesgos de género en la IA"  desarrolla un enfoque interseccional y preliminar sobre la influencia de los sesgos de género en la Inteligencia    Artificial y cómo se manifiestan en el ciclo de vida y ecosistema respectivo. Presenta un análisis sobre diferentes sectores de aplicación, como la salud, el empleo, la movilidad, la arquitectura y el trabajo policial. Asimismo, proporciona un panorama normativo y recomendaciones para abordar esta problemática.

¿Cómo se manifiesta la discriminación interseccional de género en los sistemas algorítmicos? ¿Es generado por los datos o por los equipos de programación? 

La discriminación interseccional de género en los sistemas algorítmicos se manifiesta en todas las dimensiones esbozadas, incluyendo en los sistemas mismos, en los que se intenta "optimizar", identificar o evaluar a las personas mediante la creación de una tipología que capte la "esencia" del ser humano. La desviación estadística de todos los que no encajan con el estándar (cuerpo capacitado, blanco y masculino) produce un impacto discriminatorio de género. En cuanto al origen, este tipo de discriminación tiene diferentes orígenes y abarca tanto la actitud patriarcal por parte de la compañía que desarrolla el sistema, como las teorías psicológicas/ sociales/cognitivas en las que se basan dichos sistemas, así como las prescripciones legales o estándares técnicos que co-diseñan esos sistemas de automatización. El impacto discriminatorio depende tanto de los datos como de los algoritmos y el equipo que lo programó. 

¿Existen leyes que regulen el uso de sistemas algorítmicos y datos? 

Sí, se han creado varias leyes para regular el uso de sistemas algorítmicos y datos. Éstas incluyen, entre otras, la Ley de Protección de Datos Personales, la Normativa sobre el tratamiento de los datos sanitarios, la Directiva de Protección de Datos de la UE y el Reglamento General de Protección de Datos (GDPR, en inglés). También hay leyes que prohíben la discriminación, aunque no se refieran específicamente a los sistemas algorítmicos, y están diseñadas para garantizar una protección equitativa y no discriminatoria a todos los individuos, independientemente de su género, etnia, orientación sexual u otras características. Estos marcos regulatorios y leyes circundantes se enfocan en establecer medidas éticas y evaluar la rutina de evaluación de estos sistemas.

¿Qué recomendaciones se ofrecen para abordar la problemática de los sesgos de género en la Inteligencia Artificial? 

Se sugieren tres recomendaciones para abordar la problemática de los sesgos de género en la Inteligencia Artificial:

1. Mantener el statu quo: cuando las soluciones son aún desconocidas, la recomendación es mantener una visión precautoria. Esto significa involucrar a desarrolladores y usuarios de IA en el desarrollo de normas y estándares.

2. Evaluación y corrección: se recomienda evaluar de forma periódica el impacto discriminatorio; desarrollar marcos de análisis interseccional de género en las fases de experimentación; así como corregir y ajustar de manera constante los sistemas para prevenir y contrarrestar los sesgos de género.

3. Visiones: es necesario saber cuál es el desarrollo que se busca alcanzar con la Inteligencia Artificial, y asegurarse de que las visiones sostengan políticas sociales que apunten a erradicar la discriminación de género en la sociedad, y dimensionar los avances y limitaciones de los sistemas algorítmicos. 

ACCESO AL DOCUMENTO 👈






"Redes Sociales en Perspectiva de Género: Guía para Conocer y Contrarrestar las Violencias de Género On-Line"

     


   Se trata de una publicación editada por el Instituto Andaluz de Administración Pública que aborda una aproximación crítica a las redes sociales en relación con el género y las violencias de género on-line.

   La guía se enfoca en temas como privacidad, seguridad, identidades de género, anonimato, feminismo y agresión on-line. 


ACCESO AL DOCUMENTO CITADO  👈

Fuente: Vergés Bosch, N., Hache, A., Manzanares Reyes, G., Escobar, M. M., Quijano Rosado, H., Cornelio, I., & Anamhoo. (2016). Redes sociales en perspectiva de género: Guía para conocer y contrarrestar las violencias de género on-line. Instituto Andaluz de Administración Pública.

Inteligencia artificial feminista y pacifista

  Barcelona alumbra un manifiesto para una inteligencia artificial feminista y pacifista Una veintena de miembros de la comunidad científica...