"Informe preliminar con perspectiva inteserccional sobre sesgos de género en la IA" desarrolla un enfoque interseccional y preliminar sobre la influencia de los sesgos de género en la Inteligencia Artificial y cómo se manifiestan en el ciclo de vida y ecosistema respectivo. Presenta un análisis sobre diferentes sectores de aplicación, como la salud, el empleo, la movilidad, la arquitectura y el trabajo policial. Asimismo, proporciona un panorama normativo y recomendaciones para abordar esta problemática.
¿Cómo se manifiesta la discriminación interseccional de género en los sistemas algorítmicos? ¿Es generado por los datos o por los equipos de programación?
La discriminación interseccional de género en los sistemas algorítmicos se manifiesta en todas las dimensiones esbozadas, incluyendo en los sistemas mismos, en los que se intenta "optimizar", identificar o evaluar a las personas mediante la creación de una tipología que capte la "esencia" del ser humano. La desviación estadística de todos los que no encajan con el estándar (cuerpo capacitado, blanco y masculino) produce un impacto discriminatorio de género. En cuanto al origen, este tipo de discriminación tiene diferentes orígenes y abarca tanto la actitud patriarcal por parte de la compañía que desarrolla el sistema, como las teorías psicológicas/ sociales/cognitivas en las que se basan dichos sistemas, así como las prescripciones legales o estándares técnicos que co-diseñan esos sistemas de automatización. El impacto discriminatorio depende tanto de los datos como de los algoritmos y el equipo que lo programó.
¿Existen leyes que regulen el uso de sistemas algorítmicos y datos?
Sí, se han creado varias leyes para regular el uso de sistemas algorítmicos y datos. Éstas incluyen, entre otras, la Ley de Protección de Datos Personales, la Normativa sobre el tratamiento de los datos sanitarios, la Directiva de Protección de Datos de la UE y el Reglamento General de Protección de Datos (GDPR, en inglés). También hay leyes que prohíben la discriminación, aunque no se refieran específicamente a los sistemas algorítmicos, y están diseñadas para garantizar una protección equitativa y no discriminatoria a todos los individuos, independientemente de su género, etnia, orientación sexual u otras características. Estos marcos regulatorios y leyes circundantes se enfocan en establecer medidas éticas y evaluar la rutina de evaluación de estos sistemas.
¿Qué recomendaciones se ofrecen para abordar la problemática de los sesgos de género en la Inteligencia Artificial?
Se sugieren tres recomendaciones para abordar la problemática de los sesgos de género en la Inteligencia Artificial:
1. Mantener el statu quo: cuando las soluciones son aún desconocidas, la recomendación es mantener una visión precautoria. Esto significa involucrar a desarrolladores y usuarios de IA en el desarrollo de normas y estándares.
2. Evaluación y corrección: se recomienda evaluar de forma periódica el impacto discriminatorio; desarrollar marcos de análisis interseccional de género en las fases de experimentación; así como corregir y ajustar de manera constante los sistemas para prevenir y contrarrestar los sesgos de género.
3. Visiones: es necesario saber cuál es el desarrollo que se busca alcanzar con la Inteligencia Artificial, y asegurarse de que las visiones sostengan políticas sociales que apunten a erradicar la discriminación de género en la sociedad, y dimensionar los avances y limitaciones de los sistemas algorítmicos.
No hay comentarios:
Publicar un comentario