Confederación Sindical de Comisiones Obreras | 21 noviembre 2024.

REVISTA "TRABAJADORA", N. 84 (NOVIEMBRE DE 2024)

Empleo/ Inteligencia artificial y género, de Raquel Boto Gil

    Raquel Boto, adjunta de la Secretaria Confederal de Acción Sindical y Empleo, escribe sobre Inteligencia artificial y género.

    15/11/2024.
    Fotograma de la película "Pobres criaturas" (2023), de Yorgos Lanthimos, que homenajea a María, la protagonista de "Metrópolis", de Fritz Lang (1927).

    Fotograma de la película "Pobres criaturas" (2023), de Yorgos Lanthimos, que homenajea a María, la protagonista de "Metrópolis", de Fritz Lang (1927).

    LA INTELIGENCIA ARTIFICIAL (IA) ha sido galardonada este año con dos premios Nobel, el de Física y el de Química”. Este titular se leía hace más de un mes en varios medios de información. Evidentemente, los premios no fueron recogidos por científicos “virtuales”, sino por personas “de carne y hueso” (1). El uso de la personificación como recurso literario no sería trascendente, si no fuera porque transmite la errónea percepción de la IA como ente consciente con objetivos y deseos propios. Sus resultados se obtienen a través de algoritmos -fórmulas computacionales- que se alimentan de datos, desarrollados y proporcionados respectivamente por personas. Sin embargo, no tiene creatividad, ni entiende de causalidad y carece de comprensión emocional. Aún se está lejos de una inteligencia artificial parecida a la humana.

    No obstante, la IA está en continua evolución y avanza de forma exponencial debido a la gran disponibilidad de datos; a la mayor capacidad de almacenamiento y proceso; y a la posibilidad creciente de tomar decisiones complejas “sin intervención humana directa”. Su desarrollo ha generado oportunidades y beneficios para la sociedad y un impacto incesante en empresas y administraciones públicas, perfilándose como un elemento útil e indispensable en la mayoría de sectores productivos (salud, banca, transporte, agricultura…). Además, se encuentra presente en el día a día: asistentes de voz, móviles, mensajería, domótica, redes sociales, sistemas de geolocalización, Internet, aplicaciones de “chatbot”, dispositivos sensoriales y un largo etcétera. En definitiva, se ha convertido en un pilar esencial de la cuarta revolución industrial. No obstante, la IA plantea preocupaciones y riesgos para los derechos humanos (la igualdad de género, entre ellos) y los valores democráticos. Su despliegue en el ámbito laboral ha comportado luces y sombras, y si ha mejorado muchos procesos, igualmente se ha visto afectado por decisiones injustas y discriminatorias para las personas trabajadoras.

    Es fundamental, no olvidar que los sistemas de inteligencia artificial no son “imparciales” por sí mismos, a pesar de que se dé credibilidad a todo lo que proviene de la tecnología. Esta creencia inconsciente se ha interiorizado en muchas personas y ha dado lugar al denominado sesgo de automatización. Se nos ha inducido a pensar-, que la “máquina es neutra” y no se pone en duda la veracidad de la información porque procede de Internet o de las redes sociales. No obstante, sin control, la IA y sus algoritmos no evitan el error y los prejuicios humanos, sino que pueden reforzar estereotipos y discriminaciones que se intentaban evitar con su uso, puesto que las decisiones algorítmicas afectan a muchas más personas. Por ejemplo, Amazon utilizó IA en la selección de personal. El algoritmo empleado encontró un patrón en los puestos de responsabilidad -sólo ocupados por hombres- y lo aplicó en los currículos presentados, penalizando cualquier referencia femenina, directa o indirecta. El resultado: ninguna mujer fue elegida para esos puestos.

    ¿Y qué ocurre con los sesgos de género?

    A LA HORA de detectar sesgos de género en la IA, que puedan provocar resultados o decisiones discriminatorios para las mitad de la población, se debe tener en cuenta que una buena parte proviene de los datos aportados por personas que poseen sus propios prejuicios, incluso de forma inconsciente. Si no se realiza un buen diseño, la IA reflejará los enfoques y los valores de quienes la proveen de datos y la desarrollan, reproduciendo sesgos arraigados en el proceso de socialización.

    Uno de los sesgos de género más relevante entronca con la brecha de género que existe en las profesiones STEM, que incluyen ciencia, tecnología, ingeniería y matemáticas. Las mujeres están subrepresentadas en todas estas materias, pero especialmente en el mundo de la programación, en el que se impone una visión masculina. Este sesgo de homogeneidad de grupo, por ejemplo, llevó a que los desarrolladores de un sistema de seguimiento de la salud de Apple, no incluyera la menstruación entre los factores de rastreo porque: “No era parte de su realidad”.

    La forma de evitar estos sesgos es formar equipos diversos en la programación de IA que representen visones, experiencias y necesidades diferentes. Es paradójico que hace dos siglos fuese una mujer, Ada Lovelace, quien desarrollara el “primer algoritmo digital” y previera la capacidad de las máquinas para ir más allá de simples cálculos numéricos (IA).

    Sería esencial eliminar los estereotipos socioculturales sobre las capacidades propias de mujeres y hombres, para que se equilibrara la presencia de ambos en el sistema educativo. Además, urge formar a las personas que desarrollen IA en el reconocimiento de sesgos de género. CCOO insiste, en la Guía Negociación colectiva y digitalización (2020), en que toda persona que programe o adquiera algoritmos de gestión sea formada por la empresa para conocer debidamente los riesgos de parcialidad y discriminación y adoptar medidas para reducirlos. Un criterio que el Reglamento de Inteligencia Artificial (RIA), primera norma europea que legisla directamente sobre esta materia, también ha considerado prioritario.

    Otro sesgo al que prestar atención es el de selección. Aunque cada vez sea más viable, por ahora es imposible trabajar con todos los datos disponibles, por lo que es decisivo realizar una selección representativa del universo al que se dirige el algoritmo. Los datos digitales respecto a mujeres están infrarrepresentados debido a las discriminaciones generalizadas que sufren en el acceso a la tecnología y la formación, una peor situación económica, menos tiempo libre, consideración social, etc. Por el momento, la alternativa será compensar la muestra hasta revertir la grave brecha digital de representación. Como ejemplo, es esclarecedor un estudio publicado en Circulation que descubrió que los algoritmos utilizados para diagnosticar enfermedades cardíacas eran entrenados con datos de pacientes masculinos, lo que equivalía a un 50% más de probabilidad de tener un diagnóstico erróneo para las mujeres.

    Los sesgos no están sólo en los datos, sino durante todo el proceso algorítmico: ensu despliegue, si los sistemas de IA se aplican en contextos distintos al de su desarrollo; en la retroalimentación posterior, especialmente, cuando se basan en opiniones de personas usuarias; o en su aprendizaje, en la elección de un procedimiento que favorece de forma sesgada ciertas entradas desde el principio. La UNESCO alertó sobre el papel que las “voces femeninas” de los programas de asistencia virtual (Siri, Alexa, Cortana…) juegan en la perpetuación de roles de género, ya que expresan el mensaje de que las mujeres son ayudantes complacientes y disponibles al apretar un botón, o que responden a indicaciones bruscas como ‘Hey’ u ‘OK’.

    Desgraciadamente, existen muchos más ejemplos de sesgos de género, que perpetúan la desigualdad.

    La inteligencia artificial no es una cuestión solo ética, hay que exigir que se aplique la legislación existente y aquella necesaria según evolucione la tecnología, para evitar que se vulneren derechos y valores fundamentales. De hecho, el RIA ya prohíbe aquellas prácticas que puedan comportar riesgos inaceptables para las personas. Tampoco es una mera cuestión técnica, sino un asunto con implicaciones sociolaborales y políticas, en el que el determinismo tecnológico, “el hacer porque es posible”, no tiene cabida. Los seres humanos deben decidir democráticamente el rumbo (y la velocidad) de esta tecnología. Es incuestionable su participación en todos los espacios en que la IA actúe (2). Para ello, se requerirá trasparencia -datos, desarrollo y uso-, control y evaluación. La responsabilidad es grande: construir una IA feminista para que el mundo -digital y analógico- sea justo.

    Concluyo enlazando con el tema que iniciaba este artículo.Las mujeres galardonadas con un premio Nobel apenas representan el 6% del total –la mayoría en categorías no científicas-, a pesar de existir suficientes candidatas merecedoras. Con estos datos y un mal diseño del algoritmo, ¿cuántas mujeres creéis que serían elegidas por la IA para recibir un premio Nobel el próximo año?

    Raquel Boto es adjunta de la Secretaria Confederal de Acción Sindical y Empleo.

    1) Los premiados en estas dos categorías fueron hombres: el físico John Hopfield y el psicólogo experimental Geooffrey Hinton. El premio de química fue para David Baker y los informáticos: Demis Hassabis y John Jumper.

    (2) En el ámbito laboral es innegable la participación de las personas trabajadoras y de la RLTP, a través del diálogo social y la negociación colectiva.