Mostrando entradas con la etiqueta INTELIGENCIA ARTIFICIAL. Mostrar todas las entradas
Mostrando entradas con la etiqueta INTELIGENCIA ARTIFICIAL. Mostrar todas las entradas

sábado, 20 de julio de 2024

POR UNA INTELIGENCIA ARTIFICIAL DE TODOS Y PARA TODOS

 



Sensibilizar a la ciudadanía y abogar por su participación en el despliegue seguro y ético de la inteligencia artificial es la razón de ser de CIVICAi. La aparición en los últimos meses de aplicaciones de IA que llegan a manos de millones de personas en todo el mundo ha situado en el centro del debate público tanto el impacto social, económico y medioambiental de esta tecnologíacomo sus implicaciones éticas y su trascendencia para el futuro de la humanidad y del planeta. CIVICAi trabaja para convertir esta preocupación ciudadana en acción con los siguientes principios:


1. REGULACIÓN DEMOCRÁTICA DE LA IA. Solicitar a los Gobiernos de Cataluña, España y la Unión Europea que ejerzan, con carácter de urgencia, la implementación práctica (más allá de recomendaciones) de las regulaciones previstas sobre la aplicación social de la IA.


2. PARTICIPACIÓN DE LA SOCIEDAD CIVIL. Involucrar a la sociedad civil, de la manera en que democráticamente se acuerde, en la regulación del despliegue armónico y ético de la IA, más allá de la participación de Expertos, Empresas y Gobiernos.


3. COL·LABORACIÓN I ACCIÓN CON ENTIDADES.  Impulsar el Consejo  Social que hemos constituido con carácter permanente, con el fin de trabajar en la implementación práctica de esta regulación con todas las partes interesadas y asegurar la Participación Ciudadana en todo este proceso.



ACCESO AL DOCUMENTO

lunes, 15 de julio de 2024

Herramientas de inteligencia artificial sin costos

 Lista de 27 herramientas de inteligencia artificial de uso gratuito




El aprovechamiento de la Inteligencia Artificial requiere asegurar otras habilidades básicas

 COMPETENCIAS NECESARIAS PARA EL USO ADECUADO DE LA INTELIGENCIA ARTIFICIAL




REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO - Normas armonizadas en materia de inteligencia artificia

REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO Y DEL CONSEJO

de 13 de junio de 2024

por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial)

El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial (en lo sucesivo, «sistemas de IA») en la Unión, de conformidad con los valores de la Unión, a fin de promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo, «Carta»), incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, proteger frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación. El presente Reglamento garantiza la libre circulación transfronteriza de mercancías y servicios basados en la IA, con lo que impide que los Estados miembros impongan restricciones al desarrollo, la comercialización y la utilización de sistemas de IA, a menos que el presente Reglamento lo autorice expresamente.


ACCESO AL DOCUMENTO

ACCESO A LA NORMATIVA DEL PARLAMENTO EUROPEO 

lunes, 10 de junio de 2024

Inteligencia artificial: Salvar la brecha de igualdad - Consejo de Europa -Ref. DC 042(2024 )


   Esta declaración de la secretaria general del Consejo de Europa, Marija Pejčinović Burić, con motivo del Día Internacional de la Mujer, sobre la brecha de igualdad y los retos actuales y futuros que presenta la inteligencia artificial en materia de igualdad y discriminación. Se abordan temas como la necesidad de entender y aprovechar el potencial de la IA para reducir las desigualdades, y se destaca la importancia de la educación y la formación en competencias digitales más inclusivas.

¿Qué opinión tiene la secretaria general del Consejo de Europa sobre el uso de la inteligencia artificial?

   La secretaria general del Consejo de Europa, Marija Pejčinović Burić, destaca que la IA está dando forma a la vida cotidiana y que, a menos que aprendamos a aprovechar el potencial de la IA para reducir las desigualdades (incluida la desigualdad de género) y prevenir la discriminación, la IA puede convertirse en una fuerza que afiance, perpetúe y amplifique la desigualdad. Señala la necesidad de evaluar el impacto en los derechos humanos a lo largo del ciclo de vida de la IA. Además, aboga por lograr una educación y formación en competencias digitales más inclusiva que favorezca una participación mucho más diversa en la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM). 

¿De qué temas se ocupa la nueva Estrategia para la Igualdad de Género 2024-2029 del Consejo de Europa?

   La nueva Estrategia para la Igualdad de Género 2024-2029 del Consejo de Europa aborda el desafío de abordar los retos que plantean las nuevas tecnologías, como la IA, y establece el alto nivel de compromiso de los Estados miembros para lograr una Europa con igualdad de género para todas las personas. La estrategia reitera la importancia de actuar y de redoblar los esfuerzos para salvar la brecha de igualdad debido a la creciente evolución de los sistemas de IA. 

¿Cuál es la posición del Consejo de Europa en relación a la discriminación en el desarrollo de sistemas algorítmicos?

   Según un reciente estudio del Consejo de Europa, se han señalado las deficiencias de los mecanismos existentes para evitar que se produzca discriminación en el desarrollo de sistemas algorítmicos. El Consejo establece formas de aprovechar la tecnología para promover la igualdad y subraya la necesidad de evaluar el impacto en los derechos humanos a lo largo del ciclo de vida de la IA.

ACCESO AL DOCUMENTO 👈



Sara: La herramienta de inteligencia artificial para combatir la violencia de género en Centroamérica

Esta solución digital de inteligencia artificial innovadora busca dar soporte a las políticas públicas en la región.
El asistente digital que brinda información y orientación ante el riesgo de sufrir violencia contra las mujeres, niñas y adolescentes.



sábado, 8 de junio de 2024

La inteligencia artificial podría prevenir tres de cada cuatro casos de violencia de género (Ing Miguel Angel Blanco)

 


El estudio realizado por investigadores de la Universidad Loyola demuestra que la IA puede ayudar a prevenir tres cuartas partes de la violencia de género, gracias a su uso en el análisis de textos legales. Los investigadores aplicaron catorce algoritmos de aprendizaje automático en la herramienta para distinguir elementos específicos en 491 casos penales de violencia de género. Se obtuvieron un total de 33 variables independientes, organizadas en tres grupos, sobre conductas delictivas pasadas, situación y entorno en el que se producen los delitos y características de la violencia ejercida por las parejas íntimas de las mujeres.

¿Qué resultados arrojó el análisis de 491 casos penales de violencia de género?

El análisis de 491 casos penales de violencia de género permitió obtener un total de 33 variables independientes organizadas en tres grupos relacionados con conductas delictivas pasadas y sanciones impuestas, situación y entorno en el que se producen los delitos y características de la violencia ejercida por las parejas íntimas de las mujeres. Los resultados demostraron que la predicción es más precisa si se tiene en cuenta una amplia gama de variables. Esto puede aportar datos relevantes para conocer mejor una serie de patrones de delincuencia y, por ende, ayudar a prevenirla. 

¿Cómo mejora la IA la predicción de delitos de violencia de género?

La inteligencia artificial (IA) puede ayudar a prevenir tres cuartas partes de violencia de género gracias al uso que se le puede dar para analizar textos legales. En el caso específico del análisis de sentencias de tribunales penales relativas a agresiones a mujeres dentro de la pareja, se utilizaron catorce algoritmos de aprendizaje automático para identificar elementos específicos en los textos legales y se implementaron en una herramienta que dividió los 491 casos en dos conjuntos a los que se aplicaron de menos a más las variables mencionadas de los tres grupos, permitiendo así mejorar la precisión de las predicciones. 

¿Cómo se organizaron las variables obtenidas en el estudio de la Universidad Loyola sobre la violencia de género?

Las 33 variables independientes obtenidas en el estudio de la Universidad Loyola sobre la violencia de género se organizaron en tres grupos. El primer grupo incluía variables sobre conductas delictivas pasadas y sanciones impuestas. El segundo grupo incluía variables relacionadas con la situación y el entorno en el que se producen los delitos, tanto los que llegan a asesinato como los que no. Y el tercer grupo incluía variables referidas a las características de la violencia ejercida por las parejas íntimas de las mujeres. Todos los delitos analizados fueron perpetrados contra mujeres por hombres que eran sus ex parejas, compañeros, ex maridos o esposos.

ACCEDER AL ARCHIVO  👈

ARTICULO PERIODISTICO 👈

La otra cara de la Inteligencia Artificial: Sesgos de Género y Violencia Machista (Lic María Marta Elustondo)

 


La inteligencia artificial (IA) se ha erigido como una fuerza transformadora en diversos ámbitos, prometiendo una nueva era de eficiencia y precisión sin precedentes. Desde los avances en medicina hasta las sofisticadas herramientas financieras, la IA parece estar destinada a revolucionar nuestras vidas. Sin embargo, detrás de esta fachada de progreso, se esconden problemáticas profundamente arraigadas que amenazan con socavar los beneficios de esta tecnología.

Uno de los desafíos más preocupantes que enfrenta la IA es la perpetuación de los sesgos de género y la violencia machista. Estos sesgos no son simples fallas técnicas, sino reflejos de las desigualdades y prejuicios presentes en nuestra sociedad, que se filtran en los sistemas de IA a través de los datos y algoritmos utilizados para crearlos.

Los ejemplos de estos sesgos son numerosos y alarmantes. Desde sistemas de reconocimiento facial que tienen dificultades para identificar rostros de mujeres con tez oscura, hasta herramientas de evaluación de riesgos que califican injustamente a los hombres negros como "de alto riesgo", la IA ha demostrado una tendencia preocupante a reflejar y amplificar los estereotipos y las desigualdades existentes.

En mi experiencia como docente de Violencia de Género, es difícil deconstruír los estereotipos y prejuicios que están arraigados fuertemente en la comunidad y se perpetúan sin revisión y reflexión en éste sentido. Es sencillo declamar derechos y equidad, pero a la hora de deponer algunos privilegios que se asientan en esos desequilibrios, los discursos se acaban y vuelven a aparecer las desigualdades.

Respecto al tema que nos ocupa, los sesgos de género no se limitan a los algoritmos. Incluso los asistentes virtuales, diseñados para interactuar con los usuarios, han sido objeto de críticas por su lenguaje y comportamiento denigrante hacia las mujeres. En 2016, el chatbot Tay de Microsoft tuvo que ser retirado después de solo 16 horas en línea debido a que comenzó a generar comentarios misóginos y ofensivos después de interactuar con usuarios de Internet.

Estos incidentes no son meros contratiempos técnicos; son síntomas de un problema más profundo enraizado en la forma en que se diseñan, desarrollan e implementan los sistemas de IA. Si no se abordan adecuadamente, estos sesgos pueden conducir a decisiones discriminatorias y perpetuar la violencia simbólica y estructural contra las mujeres y otros grupos históricamente marginados.

Es crucial que los desarrolladores de IA sean conscientes de estos sesgos y tomen medidas proactivas para mitigarlos. Esto implica diversificar los conjuntos de datos utilizados para entrenar los algoritmos, implementar auditorías de ética y equidad, y fomentar una mayor participación de mujeres y otros grupos subrepresentados en el campo de la IA.

Además, es esencial que los usuarios finales sean críticos y cuestionen los resultados y recomendaciones generados por los sistemas de IA, en lugar de aceptarlos ciegamente como verdades objetivas. La IA es una herramienta poderosa, pero no es infalible ni está libre de sesgos.

Solo con iniciativas como las del Municipio de Lleida, se podrán abordar estos problemas de manera proactiva y colaborativa, podremos garantizar que la IA sea una herramienta verdaderamente inclusiva y equitativa, en lugar de perpetuar las desigualdades existentes. La responsabilidad recae en todos nosotros, desde los desarrolladores hasta los usuarios finales, para exigir sistemas de IA éticos y libres de prejuicios.

Inteligencia artificial feminista y pacifista

  Barcelona alumbra un manifiesto para una inteligencia artificial feminista y pacifista Una veintena de miembros de la comunidad científica...