lunes, 24 de junio de 2024

Proyecto de cartografía participativa, desarrollado por la Universidad Politécnica de Valencia, que busca contribuir a la visualización del acoso callejero.

 


Visualiza diferentes formas de Violencia Machista: El acoso callejero.

Se presenta un proyecto  de cartografía participativa llamado Criteria Taronja, desarrollado por la Universidad Politécnica de Valencia (UPV), que busca contribuir a la visibilización de la percepción de inseguridad y el acoso callejero en Valencia a través de la participación de la ciudadanía en la identificación de espacios públicos o zonas potencialmente inseguras. El proyecto se basa en el geoprocesamiento de diversas variables socioeconómicas sobre una unidad territorial homogénea y en la integración de fuentes no tradicionales de información para la generación de conjuntos de datos con una escala de desagregación y análisis con mayor detalle.

👇 Acceso a la nota

https://blog.gvsig.org/2024/05/09/participacion-ciudadana-para-contribuir-a-visibilizar-la-percepcion-de-inseguridad-y-el-acoso-callejero-en-valencia/

jueves, 20 de junio de 2024

EQUIPO MOTOR DEL PROYECTO "VIOLENCIAS MACHISTAS E INTELIGENCIA ARTIFICIAL. RETOS Y OPORTUNIDADES"

Código QR de acceso a la herramienta

La herramienta utilizada para registrar a los participantes del proyecto es Padlet, se trata de un muro digital que permite almacenar y compartir contenido multimedia, en nuestro caso lo utilizamos como una pizarra colaborativa; permite enlazar los  datos de los integrantes del Proyecto y sus expectativas relacionadas con su participación. 

La aplicación posee una interfaz sencilla,  intuitiva y segura. Nos permitirá conocernos y mejorar la comunicación grupal.


ACCESO AL RECURSO DISEÑADO

martes, 11 de junio de 2024

Derribando Prejuicios: Por Qué se Necesitan Más Mujeres en la Inteligencia Artificial (Por: Manuela Rodriguez)

 

La tecnología es consumida por todos, pero a menudo está diseñada por un grupo limitado de personas. Te explicamos por qué se necesitan más mujeres en la inteligencia artificial.

lunes, 10 de junio de 2024

"Cyberflashing" (Ing Miguel Ángel Blanco)

   El "Cyberflashing", implica el envío de imágenes sexuales no solicitadas, principalmente a mujeres, a través de redes sociales o aplicaciones de mensajería. 

  Esta forma de acoso digital se considera una violación y puede causar sentimientos de disgusto e intrusión. A nivel global, se están impulsando iniciativas para penalizar el "cyberflashing" como parte de leyes contra el acoso y la agresión sexuales. 

  En el Reino Unido, se ha presentado un proyecto de ley para castigar esta conducta, y se destaca la importancia de criminalizarla para disuadir a posibles delincuentes. En Argentina, se menciona que el delito de exhibiciones obscenas está castigado en el Código Penal, pero las penas son consideradas bajas y pocas veces se aplican. 

 El "Cyberflashing" puede ser experimentado como acoso y violencia, y se destaca la necesidad de respetar el consentimiento de las personas en el entorno digital. La legislación en Argentina está en proceso de revisión para determinar si esta conducta debería considerarse un delito o una contravención.


Artículos relacionados:








Inteligencia artificial: Salvar la brecha de igualdad - Consejo de Europa -Ref. DC 042(2024 )


   Esta declaración de la secretaria general del Consejo de Europa, Marija Pejčinović Burić, con motivo del Día Internacional de la Mujer, sobre la brecha de igualdad y los retos actuales y futuros que presenta la inteligencia artificial en materia de igualdad y discriminación. Se abordan temas como la necesidad de entender y aprovechar el potencial de la IA para reducir las desigualdades, y se destaca la importancia de la educación y la formación en competencias digitales más inclusivas.

¿Qué opinión tiene la secretaria general del Consejo de Europa sobre el uso de la inteligencia artificial?

   La secretaria general del Consejo de Europa, Marija Pejčinović Burić, destaca que la IA está dando forma a la vida cotidiana y que, a menos que aprendamos a aprovechar el potencial de la IA para reducir las desigualdades (incluida la desigualdad de género) y prevenir la discriminación, la IA puede convertirse en una fuerza que afiance, perpetúe y amplifique la desigualdad. Señala la necesidad de evaluar el impacto en los derechos humanos a lo largo del ciclo de vida de la IA. Además, aboga por lograr una educación y formación en competencias digitales más inclusiva que favorezca una participación mucho más diversa en la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM). 

¿De qué temas se ocupa la nueva Estrategia para la Igualdad de Género 2024-2029 del Consejo de Europa?

   La nueva Estrategia para la Igualdad de Género 2024-2029 del Consejo de Europa aborda el desafío de abordar los retos que plantean las nuevas tecnologías, como la IA, y establece el alto nivel de compromiso de los Estados miembros para lograr una Europa con igualdad de género para todas las personas. La estrategia reitera la importancia de actuar y de redoblar los esfuerzos para salvar la brecha de igualdad debido a la creciente evolución de los sistemas de IA. 

¿Cuál es la posición del Consejo de Europa en relación a la discriminación en el desarrollo de sistemas algorítmicos?

   Según un reciente estudio del Consejo de Europa, se han señalado las deficiencias de los mecanismos existentes para evitar que se produzca discriminación en el desarrollo de sistemas algorítmicos. El Consejo establece formas de aprovechar la tecnología para promover la igualdad y subraya la necesidad de evaluar el impacto en los derechos humanos a lo largo del ciclo de vida de la IA.

ACCESO AL DOCUMENTO 👈



Sara: La herramienta de inteligencia artificial para combatir la violencia de género en Centroamérica

Esta solución digital de inteligencia artificial innovadora busca dar soporte a las políticas públicas en la región.
El asistente digital que brinda información y orientación ante el riesgo de sufrir violencia contra las mujeres, niñas y adolescentes.



Presentación de la Estrategia Estatal para combatir las violencias machistas 2022-2025

 

La ministra de Igualdad, Irene Montero, la secretaria de Estado de Igualdad y contra la Violencia de Género, Ángela Rodríguez, y la delegada del Gobierno contra la Violencia de Género, Victoria Rosell, presentan la Estrategia Estatal para combatir las violencias machistas 2022-2025.




domingo, 9 de junio de 2024

BIBLIOTECA DE RECURSOS Y MATERIALES

 Espacio digital de herramientas para la igualdad.

Este espacio reúne herramientas, recursos y materiales realizados por la Iniciativa Spotlight en Argentina, en conjunto con el Estado, la sociedad civil, instituciones académicas y actores del mundo del trabajo para que cada vez más mujeres, niñas y diversidades puedan acceder a una vida libre de violencias.


BIBLIOTECA DE RECURSOS Y MATERIALES

Accedé a publicaciones y producciones desarrolladas por la Iniciativa Spotlight Argentina en conjunto con otras organizaciones/instituciones.


Explorá los recursos




sábado, 8 de junio de 2024

"Violencia Masculina en Argentina"

                                      


El libro "Violencia Masculina en Argentina" es una obra que recopila una serie de trabajos que fueron presentados en la primera jornada de la Red de Equipos de Trabajo y Estudio en Masculinidades (RETEM) que tuvo lugar el 29 de octubre de 2014. La RED remite a una agrupación que cuenta con profesionales especializados en el abordaje de la violencia masculina en el país, quienes se han reunido de manera regular desde 2011.

El prólogo del libro corre a cargo del Lic. Mario Andrés Payarola, quien explica que el libro es el resultado de una experiencia de construcción colectiva en el marco de la RED. En sus palabras, el libro "se constituirá en una fuente de consulta para aquellos profesionales interesados en la temática", ya que ofrece desde este momento algunos elementos teóricos relativos a la violencia masculina en Argentina. Payarola señala que, en comparación con las primeras experiencias que vivió la agrupación en los años 90, el escrutinio crítico en la materia cuenta hoy con mayores referentes nacionales que permiten una mayor contextualización y adecuación a la realidad local.

En el libro se abordan algunas cuestiones fundamentales relativas a la comprensión de la violencia masculina en el país. Desde la apertura de la jornada, se invita a reflexionar sobre la construcción social del género y la internalización de los comportamientos violentos en los varones que ejercen violencia de género. Además, se examina la eficacia de la cultura patriarcal mediatizada por las instituciones y su incidencia en el comportamiento cotidiano de las personas.

En la obra se discuten algunos casos destacados de grupos psico-socio-educativos para varones que han operado en el país. Estos grupos han buscado generar instancias en las cuales se figuran nuevos modelos de la masculinidad, que antepongan el respeto y el diálogo ante cualquier tipo de situación conflictiva, ya que se considera que la erradicación total de la violencia masculina es un problema complejo que no puede pensarse en términos individuales.

En este sentido, la obra explora algunos principios básicos que deben regir el abordaje de la violencia masculina en el país. Entre ellos, se destacan el compromiso con los derechos humanos y la perspectiva de género. Asimismo, se discuten temas relativos a la prevención, la formación y la capacitación de los profesionales que trabajan en el campo de la violencia masculina.

En resumen, la obra "Violencia Masculina en Argentina" es una fuente de consulta importante para aquellos profesionales que quieren conocer la realidad de la violencia masculina en el país y los avances logrados por la Red de Equipos de Trabajo y Estudio en Masculinidades en términos de construcción de un cuerpo teórico y de prácticas que buscan erradicar la violencia masculina y generar modelos alternativos de masculinidad.

ACCESO AL LIBRO

La inteligencia artificial podría prevenir tres de cada cuatro casos de violencia de género (Ing Miguel Angel Blanco)

 


El estudio realizado por investigadores de la Universidad Loyola demuestra que la IA puede ayudar a prevenir tres cuartas partes de la violencia de género, gracias a su uso en el análisis de textos legales. Los investigadores aplicaron catorce algoritmos de aprendizaje automático en la herramienta para distinguir elementos específicos en 491 casos penales de violencia de género. Se obtuvieron un total de 33 variables independientes, organizadas en tres grupos, sobre conductas delictivas pasadas, situación y entorno en el que se producen los delitos y características de la violencia ejercida por las parejas íntimas de las mujeres.

¿Qué resultados arrojó el análisis de 491 casos penales de violencia de género?

El análisis de 491 casos penales de violencia de género permitió obtener un total de 33 variables independientes organizadas en tres grupos relacionados con conductas delictivas pasadas y sanciones impuestas, situación y entorno en el que se producen los delitos y características de la violencia ejercida por las parejas íntimas de las mujeres. Los resultados demostraron que la predicción es más precisa si se tiene en cuenta una amplia gama de variables. Esto puede aportar datos relevantes para conocer mejor una serie de patrones de delincuencia y, por ende, ayudar a prevenirla. 

¿Cómo mejora la IA la predicción de delitos de violencia de género?

La inteligencia artificial (IA) puede ayudar a prevenir tres cuartas partes de violencia de género gracias al uso que se le puede dar para analizar textos legales. En el caso específico del análisis de sentencias de tribunales penales relativas a agresiones a mujeres dentro de la pareja, se utilizaron catorce algoritmos de aprendizaje automático para identificar elementos específicos en los textos legales y se implementaron en una herramienta que dividió los 491 casos en dos conjuntos a los que se aplicaron de menos a más las variables mencionadas de los tres grupos, permitiendo así mejorar la precisión de las predicciones. 

¿Cómo se organizaron las variables obtenidas en el estudio de la Universidad Loyola sobre la violencia de género?

Las 33 variables independientes obtenidas en el estudio de la Universidad Loyola sobre la violencia de género se organizaron en tres grupos. El primer grupo incluía variables sobre conductas delictivas pasadas y sanciones impuestas. El segundo grupo incluía variables relacionadas con la situación y el entorno en el que se producen los delitos, tanto los que llegan a asesinato como los que no. Y el tercer grupo incluía variables referidas a las características de la violencia ejercida por las parejas íntimas de las mujeres. Todos los delitos analizados fueron perpetrados contra mujeres por hombres que eran sus ex parejas, compañeros, ex maridos o esposos.

ACCEDER AL ARCHIVO  👈

ARTICULO PERIODISTICO 👈

La otra cara de la Inteligencia Artificial: Sesgos de Género y Violencia Machista (Lic María Marta Elustondo)

 


La inteligencia artificial (IA) se ha erigido como una fuerza transformadora en diversos ámbitos, prometiendo una nueva era de eficiencia y precisión sin precedentes. Desde los avances en medicina hasta las sofisticadas herramientas financieras, la IA parece estar destinada a revolucionar nuestras vidas. Sin embargo, detrás de esta fachada de progreso, se esconden problemáticas profundamente arraigadas que amenazan con socavar los beneficios de esta tecnología.

Uno de los desafíos más preocupantes que enfrenta la IA es la perpetuación de los sesgos de género y la violencia machista. Estos sesgos no son simples fallas técnicas, sino reflejos de las desigualdades y prejuicios presentes en nuestra sociedad, que se filtran en los sistemas de IA a través de los datos y algoritmos utilizados para crearlos.

Los ejemplos de estos sesgos son numerosos y alarmantes. Desde sistemas de reconocimiento facial que tienen dificultades para identificar rostros de mujeres con tez oscura, hasta herramientas de evaluación de riesgos que califican injustamente a los hombres negros como "de alto riesgo", la IA ha demostrado una tendencia preocupante a reflejar y amplificar los estereotipos y las desigualdades existentes.

En mi experiencia como docente de Violencia de Género, es difícil deconstruír los estereotipos y prejuicios que están arraigados fuertemente en la comunidad y se perpetúan sin revisión y reflexión en éste sentido. Es sencillo declamar derechos y equidad, pero a la hora de deponer algunos privilegios que se asientan en esos desequilibrios, los discursos se acaban y vuelven a aparecer las desigualdades.

Respecto al tema que nos ocupa, los sesgos de género no se limitan a los algoritmos. Incluso los asistentes virtuales, diseñados para interactuar con los usuarios, han sido objeto de críticas por su lenguaje y comportamiento denigrante hacia las mujeres. En 2016, el chatbot Tay de Microsoft tuvo que ser retirado después de solo 16 horas en línea debido a que comenzó a generar comentarios misóginos y ofensivos después de interactuar con usuarios de Internet.

Estos incidentes no son meros contratiempos técnicos; son síntomas de un problema más profundo enraizado en la forma en que se diseñan, desarrollan e implementan los sistemas de IA. Si no se abordan adecuadamente, estos sesgos pueden conducir a decisiones discriminatorias y perpetuar la violencia simbólica y estructural contra las mujeres y otros grupos históricamente marginados.

Es crucial que los desarrolladores de IA sean conscientes de estos sesgos y tomen medidas proactivas para mitigarlos. Esto implica diversificar los conjuntos de datos utilizados para entrenar los algoritmos, implementar auditorías de ética y equidad, y fomentar una mayor participación de mujeres y otros grupos subrepresentados en el campo de la IA.

Además, es esencial que los usuarios finales sean críticos y cuestionen los resultados y recomendaciones generados por los sistemas de IA, en lugar de aceptarlos ciegamente como verdades objetivas. La IA es una herramienta poderosa, pero no es infalible ni está libre de sesgos.

Solo con iniciativas como las del Municipio de Lleida, se podrán abordar estos problemas de manera proactiva y colaborativa, podremos garantizar que la IA sea una herramienta verdaderamente inclusiva y equitativa, en lugar de perpetuar las desigualdades existentes. La responsabilidad recae en todos nosotros, desde los desarrolladores hasta los usuarios finales, para exigir sistemas de IA éticos y libres de prejuicios.

Educar en Igualdad




Qué es Educar en Igualdad

Educar en Igualdad es el proyecto que Fundación Mujeres dirigido a favorecer el desarrollo de la coeducación y el apoyo a una educación para la igualdad entre mujeres y hombres y para la prevención de la violencia contra las mujeres desde la escuela. Nuestra experiencia en la materia se remonta al año 2000 y desde entonces, nos hemos dedicado a la recopilación de materiales y experiencias de interés para toda la comunidad educativa.

Esta WEB recoge esta experiencia y quiere poner a disposición de toda la comunidad educativa, profesorado, familias y otros agentes de la educación no formal, diferentes recursos para facilitar su labor en materia de coeducación y de prevención de la violencia contra las mujeres y educación para la igualdad en su quehacer cotidiano.

En educarenigualdad.org podrás encontrar tanto materiales de referencia y guías de apoyo para la programación de actividades, como otro tipo de recursos complementarios que apoyen un mayor conocimiento sobre la educación para la igualdad y la integración de la igualdad en los centros educativos, en las familias y en los espacios de educación no formal.

Te ofrecemos:

  • Herramientas didácticas: Una selección de guías y materiales que os ayudarán en la programación y desarrollo de actividades educativas para la igualdad y la prevención de la violencia contra las mujeres.
  • Creciendo en Igualdad. Contenidos audiovisuales juegos y lecturas que fomenten la igualdad desde los espacios de la educación no formal.
  • Materiales de apoyo. Contenidos de interés para la reflexión y el aprendizaje en materia de educación para la igualdad en la comunidad educativa.

Nuestra experiencia nos ha demostrado que el mayor recurso de educación para la igualdad son los propios agentes educativos, las personas comprometidas con la igualdad que actúan desde sus espacios para fomentar la igualdad y la no violencia. Por eso queremos también establecer un diálogo con toda la comunidad educativa favoreciendo un intercambio de experiencias y aprendizaje mutuo.

En educarenigualdad.org podrás:

  • Estar al tanto de las novedades en materia de educación para la igualdad a través de la suscripción al Boletín de Noticias.
  • Pedir asesoramiento y apoyo de nuestro equipo educativo para resolver tus dudas y localizar materiales o experiencias que apoyen vuestro trabajo cotidiano.
  • Compartir tus propias experiencias en materia de igualdad o de prevención de violencia de género que se hayan desarrollado en su centro u organización.

Todo ello recogiendo los criterios que desde Fundación Mujeres hemos construido a partir de nuestra propia experiencia de intervención educativa e incidencia política en materia de educación para la igualdad.

La selección de materiales y de contenidos que podrás encontrar en esta WEB, se ha construido a partir de un enfoque feminista para la defensa de la igualdad y la erradicación de la violencia contra las mujeres. Por lo tanto, los materiales y experiencias que te ofrecemos son aquellos que hemos creído que contribuyen a romper con los estereotipos y roles patriarcales, y favorecen la lucha y reivindicación a favor de la igualdad entre mujeres y hombres y la construcción de una sociedad más justa e igualitaria que elimine la discriminación por razón de sexo y por cualquier otra causa en las generaciones futuras.

https://www.educarenigualdad.org/


“Inteligencia Artificial y Género: Desafios, Perspectivas y Retos"

 

Este evento se enfocó en abrir un debate crítico y constructivo acerca de la interacción entre el género y la inteligencia artificial (IA), abarcando tanto el impacto que la IA tiene en la sociedad respecto a las cuestiones de género, como el papel que estas últimas desempeñan en el desarrollo y aplicación de tecnologías de IA. A través de las ponencias y mesa redonda, se explorarán los retos actuales y futuros, ofreciendo perspectivas multidimensionales que abordan desde sesgos algorítmicos hasta la representación de género en el diseño de sistemas inteligentes.

Ponentes:

Miguel Ángel Presno Linera, Catedrático de Derecho Constitucional, Universidad de Oviedo.
Susana Navas Navarro, Catedrática de Derecho Civil, Universitat Autònoma de Barcelona.
Paz Mercedes de la Cuesta Aguado, Catedrática de Derecho Penal, Universidad de Cantabria.

Podemos ver en el video de la conferencia, un completo desarrollo sobre el tema de la inteligencia artificial y el género, organizada por la unidad de igualdad de la Universidad de Almería en colaboración con el proyecto Ual Transfiere y otros profesores. Se discuten los desafíos, perspectivas y retos que la IA implica en relación con la igualdad de género.

¿Cuál fue el objetivo de la jornada?

El objetivo de la jornada "Inteligencia artificial y género: desafíos, perspectivas y retos" fue poner en relieve la relevancia del análisis de género en la evolución y aplicación de la Inteligencia artificial, un campo en constante expansión y de indudable impacto en nuestras vidas. La jornada tuvo como finalidad explorar cómo la tecnología puede reflejar y en algunos casos exacerbar las desigualdades relacionadas con el género, y cómo estos desafíos pueden ser abordados. El evento representó una magnífica oportunidad para el diálogo y el conocimiento compartido en el ámbito convocante.

¿Cuál es la posición de los organizadores sobre la relación entre la inteligencia artificial y la igualdad de género?

Los organizadores de la jornada "Inteligencia artificial y género: desafíos, perspectivas y retos" tienen un compromiso con la profundización en la intersección crucial y emergente que representa la relación entre la inteligencia artificial y la igualdad de género. Comparten la convicción de que la inteligencia, si bien es producto de la capacidad humana, no está exenta de nuestras imperfecciones, por lo que nos impulsa el deber de cuestionar y corregir los sesgos que pudiera albergar, siempre con el objetivo de erigir una sociedad más justa y equitativa. La reunión es una celebración de los logros obtenidos a través del uso ético y consciente de la tecnología, avances que representan pasos tangibles hacia un mundo donde la igualdad de género no solo es, sino también se construye y se vive.

Vea la conferencia en este link  👈


"Informe preliminar con perspectiva inteserccional sobre sesgos de género en la IA" (Ministerio de Igualdad, Instituto de mujeres, Unión Europea)

 



    "Informe preliminar con perspectiva inteserccional sobre sesgos de género en la IA"  desarrolla un enfoque interseccional y preliminar sobre la influencia de los sesgos de género en la Inteligencia    Artificial y cómo se manifiestan en el ciclo de vida y ecosistema respectivo. Presenta un análisis sobre diferentes sectores de aplicación, como la salud, el empleo, la movilidad, la arquitectura y el trabajo policial. Asimismo, proporciona un panorama normativo y recomendaciones para abordar esta problemática.

¿Cómo se manifiesta la discriminación interseccional de género en los sistemas algorítmicos? ¿Es generado por los datos o por los equipos de programación? 

La discriminación interseccional de género en los sistemas algorítmicos se manifiesta en todas las dimensiones esbozadas, incluyendo en los sistemas mismos, en los que se intenta "optimizar", identificar o evaluar a las personas mediante la creación de una tipología que capte la "esencia" del ser humano. La desviación estadística de todos los que no encajan con el estándar (cuerpo capacitado, blanco y masculino) produce un impacto discriminatorio de género. En cuanto al origen, este tipo de discriminación tiene diferentes orígenes y abarca tanto la actitud patriarcal por parte de la compañía que desarrolla el sistema, como las teorías psicológicas/ sociales/cognitivas en las que se basan dichos sistemas, así como las prescripciones legales o estándares técnicos que co-diseñan esos sistemas de automatización. El impacto discriminatorio depende tanto de los datos como de los algoritmos y el equipo que lo programó. 

¿Existen leyes que regulen el uso de sistemas algorítmicos y datos? 

Sí, se han creado varias leyes para regular el uso de sistemas algorítmicos y datos. Éstas incluyen, entre otras, la Ley de Protección de Datos Personales, la Normativa sobre el tratamiento de los datos sanitarios, la Directiva de Protección de Datos de la UE y el Reglamento General de Protección de Datos (GDPR, en inglés). También hay leyes que prohíben la discriminación, aunque no se refieran específicamente a los sistemas algorítmicos, y están diseñadas para garantizar una protección equitativa y no discriminatoria a todos los individuos, independientemente de su género, etnia, orientación sexual u otras características. Estos marcos regulatorios y leyes circundantes se enfocan en establecer medidas éticas y evaluar la rutina de evaluación de estos sistemas.

¿Qué recomendaciones se ofrecen para abordar la problemática de los sesgos de género en la Inteligencia Artificial? 

Se sugieren tres recomendaciones para abordar la problemática de los sesgos de género en la Inteligencia Artificial:

1. Mantener el statu quo: cuando las soluciones son aún desconocidas, la recomendación es mantener una visión precautoria. Esto significa involucrar a desarrolladores y usuarios de IA en el desarrollo de normas y estándares.

2. Evaluación y corrección: se recomienda evaluar de forma periódica el impacto discriminatorio; desarrollar marcos de análisis interseccional de género en las fases de experimentación; así como corregir y ajustar de manera constante los sistemas para prevenir y contrarrestar los sesgos de género.

3. Visiones: es necesario saber cuál es el desarrollo que se busca alcanzar con la Inteligencia Artificial, y asegurarse de que las visiones sostengan políticas sociales que apunten a erradicar la discriminación de género en la sociedad, y dimensionar los avances y limitaciones de los sistemas algorítmicos. 

ACCESO AL DOCUMENTO 👈






"Redes Sociales en Perspectiva de Género: Guía para Conocer y Contrarrestar las Violencias de Género On-Line"

     


   Se trata de una publicación editada por el Instituto Andaluz de Administración Pública que aborda una aproximación crítica a las redes sociales en relación con el género y las violencias de género on-line.

   La guía se enfoca en temas como privacidad, seguridad, identidades de género, anonimato, feminismo y agresión on-line. 


ACCESO AL DOCUMENTO CITADO  👈

Fuente: Vergés Bosch, N., Hache, A., Manzanares Reyes, G., Escobar, M. M., Quijano Rosado, H., Cornelio, I., & Anamhoo. (2016). Redes sociales en perspectiva de género: Guía para conocer y contrarrestar las violencias de género on-line. Instituto Andaluz de Administración Pública.

Inteligencia artificial feminista y pacifista

  Barcelona alumbra un manifiesto para una inteligencia artificial feminista y pacifista Una veintena de miembros de la comunidad científica...