viernes, 26 de julio de 2024

CNN Chile: la inteligencia artificial está exacerbando la violencia de género digital

 Analizamos cómo el mal uso de la inteligencia artificial está exacerbando la violencia de género digital. Desde la creación de imágenes falsas hasta el acoso en línea, este fenómeno tecnológico presenta desafíos y riesgos que debemos comprender y abordar. Conoce más en esta detallada investigación.

Más información en CNN Chile:
Más información en CNN Chile: https://www.cnnchile.com

La IA es aún más machista que nosotros: así amplifica los sesgos de género

 

Expertos señalan que el problema reside en el diseño de la herramienta, el control de los datos y la información de origen, que refleja prejuicios sobre hombres y mujeres.


Hace poco más de dos meses muchos se llevaban las manos a la cabeza porque Mediaset puso al frente de uno de sus programas a una presentadora virtual creada con Inteligencia Artificial (IA). Algunos lo hicieron porque no era humana y otros porque era guapa, joven y casi perfecta. Con su creación se reabrió un debate: ¿por qué no era una mujer mayor o un hombre? Según los expertos y expertas consultados, la IA no solo refleja el machismo propio de la sociedad sino que lo amplifica. En el vídeo que encabeza esta noticia, Lorena Jaume-Palasí, fundadora de Ethical Tech Society; Francisco Sierra, de la Asociación de Prensa de Madrid (APM) y Thais Ruiz, fundadora y directora de Digital Fems analizan la pirámide del machismo en la inteligencia artificial.


ACCESO AL ARTICULO

sábado, 20 de julio de 2024

Guía sobre el uso de la inteligencia artificial en el ámbito educativo

 


El Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF), órgano dependiente del Ministerio de Educación, Formación Profesional y Deportes (MEFPD), presenta hoy en el evento “Jornadas IA en educación” su nueva “Guía sobre el uso de la inteligencia artificial en el ámbito educativo”. Una publicación que busca servir de recurso fundamental para la comunidad educativa, promoviendo la integración efectiva y ética de la inteligencia artificial (IA) en las etapas educativas no universitarias.

El documento inicia contextualizando la IA, explicando su naturaleza, su presencia en la vida cotidiana y su relevancia específica en el ámbito educativo. Este primer apartado ofrece una base sólida para que los educadores y otros miembros de la comunidad educativa comprendan los conceptos fundamentales de la IA.

ACCESO AL DOCUMENTO EN ESPAÑOL

POR UNA INTELIGENCIA ARTIFICIAL DE TODOS Y PARA TODOS

 



Sensibilizar a la ciudadanía y abogar por su participación en el despliegue seguro y ético de la inteligencia artificial es la razón de ser de CIVICAi. La aparición en los últimos meses de aplicaciones de IA que llegan a manos de millones de personas en todo el mundo ha situado en el centro del debate público tanto el impacto social, económico y medioambiental de esta tecnologíacomo sus implicaciones éticas y su trascendencia para el futuro de la humanidad y del planeta. CIVICAi trabaja para convertir esta preocupación ciudadana en acción con los siguientes principios:


1. REGULACIÓN DEMOCRÁTICA DE LA IA. Solicitar a los Gobiernos de Cataluña, España y la Unión Europea que ejerzan, con carácter de urgencia, la implementación práctica (más allá de recomendaciones) de las regulaciones previstas sobre la aplicación social de la IA.


2. PARTICIPACIÓN DE LA SOCIEDAD CIVIL. Involucrar a la sociedad civil, de la manera en que democráticamente se acuerde, en la regulación del despliegue armónico y ético de la IA, más allá de la participación de Expertos, Empresas y Gobiernos.


3. COL·LABORACIÓN I ACCIÓN CON ENTIDADES.  Impulsar el Consejo  Social que hemos constituido con carácter permanente, con el fin de trabajar en la implementación práctica de esta regulación con todas las partes interesadas y asegurar la Participación Ciudadana en todo este proceso.



ACCESO AL DOCUMENTO

martes, 16 de julio de 2024

Brecha de género

 

Cerrar la brecha de género en las profesiones digitales llevará más de 30 años

Las startups fundadas por mujeres sólo perciben el 3 % del capital invertido en España

Hacia una inteligencia artificial feminista


Hace unas semanas, ChatGPT contaba chistes sexistas. Ahora ya no hace bromas sobre las mujeres y contesta que "es importante promover la igualdad de género y evitar estereotipos y discriminación". Esto es así porque se le ha añadido una capa para que sus respuestas sean respetuosas con los valores de la sociedad, incluido el feminismo: se trata de un movimiento más hacia la justicia algorítmica que empieza a ganar terreno en la inteligencia artificial.
La IA es ubicua, pero ni todopoderosa ni perfecta. Las advertencias sobre los sesgos machistas (y también racistas) de algunos algoritmos se suceden desde hace años y preocupan tanto a las Naciones Unidas como a la Unión Europea, que se ha puesto manos a la obra para evitar que esos sesgos deriven en consecuencias nocivas para la ciudadanía, particularmente para las mujeres y grupos vulnerables.

ARTICULO COMPLETO DEL PERIODICO DE ESPAÑA

La inteligencia artificial también es machista

 Igualdad combate ahora los algoritmos con sesgo de género


El diseño discrimina a las mujeres, según la directora del Instituto de las Mujeres, porque « no reconocen las voces agudas porque se entrenan con voces masculinas y los historiales que realizan las redes sociales basados en estereotipos.


La directora del Instituto de las Mujeres, Toni Morillas, destacó el pasado miércoles la necesidad de impulsar desde las instituciones públicas medidas que acaben con los algoritmos con sesgo de género que existen en el sector de la Inteligencia Artificial (IA).

Morillas inauguró el conversatorio 'Justicia Algorítmica en clave de género', organizado por el Instituto, en donde junto a varias representantes de empresas del sector, informáticas y especialistas la importancia de «revisar y analizar cómo estos sistemas pueden afectar al desarrollo de los derechos humanos reproduciendo sesgos y estereotipos» presentes en la sociedad. Según Morillas, los algoritmos están diseñados para discriminar a las mujeres.

Como ejemplo de la brecha de género que existe dentro del diseño de la IA, Morillas ha señalado los sistemas «que no reconocen las voces agudas porque se entrenan con voces masculinas, o los historiales que realizan las redes sociales basados en estereotipos» y concepciones previas que incentivan la polarización.

También apunta a la ausencia de datos sobre asuntos que interesan a las mujeres, como el tratamiento del embarazo o el parto, la violencia obstétrica, o la falta de cifras, por ejemplo, en relación a los infartos en mujeres. Unos números que, ha apuntado, se escondieron durante mucho tiempo.

ARTICULO COMPLETO DE ABC


lunes, 15 de julio de 2024

Herramientas de inteligencia artificial sin costos

 Lista de 27 herramientas de inteligencia artificial de uso gratuito




El aprovechamiento de la Inteligencia Artificial requiere asegurar otras habilidades básicas

 COMPETENCIAS NECESARIAS PARA EL USO ADECUADO DE LA INTELIGENCIA ARTIFICIAL




REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO - Normas armonizadas en materia de inteligencia artificia

REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO Y DEL CONSEJO

de 13 de junio de 2024

por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial)

El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial (en lo sucesivo, «sistemas de IA») en la Unión, de conformidad con los valores de la Unión, a fin de promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo, «Carta»), incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, proteger frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación. El presente Reglamento garantiza la libre circulación transfronteriza de mercancías y servicios basados en la IA, con lo que impide que los Estados miembros impongan restricciones al desarrollo, la comercialización y la utilización de sistemas de IA, a menos que el presente Reglamento lo autorice expresamente.


ACCESO AL DOCUMENTO

ACCESO A LA NORMATIVA DEL PARLAMENTO EUROPEO 

miércoles, 10 de julio de 2024

¿La IA es machista? Esto dicen expertas de la UNAM

 

Especialistas de la Universidad Nacional Autónoma de México dicen que la Inteligencia Artificial es machista al generar información




Aunque sus desarrolladores e impulsores han manifestado que la Inteligencia Artificial (IA) no tiene género, especialistas de la Universidad Nacional Autónoma de México (UNAM) señalan lo contrario y, que, de hecho, es "sutil o abiertamente" machista al generar información. Aquí te contamos la razón.👇

La Inteligencia Artificial: ¿Puede ser Machista? ¿ Cómo Evitarlo?

 



La Inteligencia Artificial: ¿Puede ser Machista? ¿ Cómo Evitarlo?


Introducción

La inteligencia artificial (IA) se ha convertido en una herramienta omnipresente en nuestra sociedad, utilizada en campos que van desde la medicina hasta el entretenimiento. Sin embargo, a medida que la IA se integra cada vez más en nuestras vidas, surgen preocupaciones sobre su imparcialidad y ética. Una de las críticas más significativas es que la IA puede perpetuar y amplificar sesgos de género, incluyendo el machismo. Este artículo explora cómo la IA puede ser machista, las razones detrás de este problema y las estrategias para mitigarlo.

Desarrollo

1. Orígenes del Sesgo en la IA

Los sistemas de IA son entrenados utilizando grandes volúmenes de datos. Si estos datos contienen sesgos, la IA también los aprenderá y replicará. Por ejemplo, si un conjunto de datos contiene estereotipos de género, como la asociación de las mujeres con roles domésticos y a los hombres con roles profesionales, la IA puede internalizar estos sesgos y perpetuarlos en sus resultados y recomendaciones.

2. Casos de Sesgo de Género en la IA

Un caso conocido es el de Amazon, que en 2018 abandonó una herramienta de reclutamiento de IA después de descubrir que discriminaba a las mujeres. El sistema, entrenado con currículums enviados a la empresa durante un período de diez años, favorecía a los candidatos masculinos porque la mayoría de los solicitantes eran hombres, reflejando así una fuerza laboral históricamente sesgada .

Otro ejemplo es el uso de IA en el reconocimiento facial. Estudios han demostrado que estos sistemas tienden a ser menos precisos en la identificación de mujeres y personas de piel más oscura, lo que puede llevar a consecuencias desproporcionadas y discriminatorias en aplicaciones como la vigilancia policial .

Explicación

1. Datos Históricos Sesgados

La raíz del problema radica en los datos históricos utilizados para entrenar los modelos de IA. Estos datos suelen reflejar las desigualdades y los sesgos presentes en la sociedad. Por ejemplo, los algoritmos de búsqueda pueden mostrar anuncios de trabajos mejor remunerados a hombres más que a mujeres debido a patrones históricos de empleo y discriminación salarial .


2. Falta de Diversidad en el Desarrollo de IA

La falta de diversidad en los equipos que desarrollan la IA también contribuye al problema. Cuando los equipos de desarrollo no son diversos, es más probable que los sesgos inconscientes se incorporen en los sistemas de IA. La falta de perspectiva de mujeres y minorías en estos equipos puede resultar en la omisión de problemas y sesgos que afectan a estos grupos .

Conclusión

Para evitar que la IA perpetúe el machismo y otros sesgos de género, es crucial adoptar un enfoque proactivo y multifacético. Primero, es esencial diversificar los equipos de desarrollo de IA para incluir más mujeres y personas de diversos orígenes. Además, se deben implementar procesos rigurosos de auditoría y verificación de sesgos en los datos y modelos de IA. Finalmente, la creación de marcos éticos y normativas claras puede guiar el desarrollo y la implementación de IA de manera más justa e inclusiva.

El reconocimiento de estos problemas y la acción hacia su solución no solo hará que la IA sea más equitativa, sino que también mejorará su eficacia y aceptación general en la sociedad. Al abordar los sesgos de género en la IA, podemos trabajar hacia un futuro donde la tecnología sirva a todos de manera equitativa y justa.


Referencias


1. Dastin, J. (2018). "Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women." Reuters. Recuperado de [Reuters](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G).


2. Buolamwini, J., & Gebru, T. (2018). "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification." Proceedings of Machine Learning Research. Recuperado de [PMLR](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf).


3. Lambrecht, A., & Tucker, C. (2019). "Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads." Management Science. Recuperado de [INFORMS](https://pubsonline.informs.org/doi/abs/10.1287/mnsc.2018.3093).


4. West, S. M., Whittaker, M., & Crawford, K. (2019). "Discriminating Systems: Gender, Race, and Power in AI." AI Now Institute. Recuperado de [AI Now Institute](https://ainowinstitute.org/discriminatingsystems.pdf).

Inteligencia artificial feminista y pacifista

  Barcelona alumbra un manifiesto para una inteligencia artificial feminista y pacifista Una veintena de miembros de la comunidad científica...