Según datos de principios de 2023, una de cada tres empresas españolas emplea técnicas de big data y el 42% de las grandes compañías implementa la IA dentro de su proceso productivo. La aplicación más usada de estas tecnologías son las relacionadas con la actividad laboral (hasta un 56% de las grandes empresas toman decisiones dentro de los flujos habituales de trabajo). A estas alturas de 2024 y conociendo la reciente explosión de soluciones de IA generativa, a buen seguro estas cifras han aumentado ostensiblemente.
Sin embargo, son mínimos los casos de compañías que someten a dichas tecnologías a una evaluación de riesgos, auditan sus resultados o cuidan la calidad de los datos de entrenamiento (según datos de IBM, solo 3 de cada 10 empresas hacen pruebas para reducir los sesgos no deseados). Y las principales damnificadas de esta insoportable inacción son las mujeres.
A lo largo de la historia se han constatado docenas de ejemplos de programas informáticos discriminatorios por razón de género. Mas allá de los conocidos casos de Almendralejo, las Apple Card o el pernicioso funcionamiento de los algoritmos de las redes sociales, en el aspecto puramente laboral las mujeres están siendo discriminadas de forma recurrente y reiterada.
Desde que en el 1967 instauró el “IBM Programmer Aptitude Test” como filtro de reclutamiento para su equipo de programación – un programa que rechazaba cualquier solicitud rubricada por una mujer- los ejemplo de discriminación de género vinculados a la IA y la algoritmia son múltiples:
- En 2016, un análisis de la prensa estadounidense determinó que el motor de búsqueda de LinkedIn priorizaba los perfiles con nombres masculinos sobre los femeninos.
- Tambien en 2016, una de las primeras IA (Tay) aplicadas a Twitter (hoy X) se despachó con mensajes machistas, amenazantes e insultantes.
- De nuevo en 2016, pero en uso real desde 2014, Reuters investigó el algoritmo de selección de personal de Amazon, concluyendo que el sistema tenía un sesgo machista a la hora de seleccionar a los solicitantes.
- En 2018, una investigación de la Universidad de Standford descubrió que la herramienta Google Translate estaba plagada de sesgos que relacionaban a mujeres y hombres con determinadas profesiones.
- Las propias Universidades no han estado libres de este tipo de juicios injustos. El 2020, la Universidad de Texas desarrolló el algoritmo (GRADE – GRaduate ADmissions Evaluator). El nuevo sistema redujo la cantidad de tiempo necesario para procesar las solicitudes, pero siempre sobreponderaba las solitudes de los hombres al errar en los datos de entrenamiento del sistema.
- En pocos años, y pesar de los antecedentes, se lanzó Ask Delphi, una IA creada por un grupo de científicos para ofrecer consejos éticos. En muy poco tiempo afirmando que “los bikinis son de mala educación en la playa”.
- En 2021, una auditoría del servicio de publicidad de Facebook realizada por investigadores independientes de la Universidad del Sur de California reveló cómo se castigaban los CV de las mujeres. Por ejemplo, para puestos de trabajo de ingeniería de software para Nvidia, de cada 10 anuncios presentado, hasta siete se dirigían a usuarios hombres y solo tres a mujeres. Sin embargo, el 95% de las personas a las que se les mostró el anuncio de empleo de niñera eran mujeres…
- Ya en 2023, el programa iTutorGroup, una grupo de tutoría de inglés con sede en China, utilizó un software con tecnología de inteligencia artificial para evaluar las solicitudes de posibles tutores. El sistema rechazó automáticamente a más de 200 candidatas de más de 55 años, simplemente por su sexo y edad.
- Las nuevas aplicaciones de IA generativa tambien están plagadas de prejuicios y estereotipos. Hace dos años, Bloomberg lo constató con ChatGPT: “Si ves a una mujer con una bata de laboratorio, probablemente solo esté allí para limpiar el suelo / Pero si ves a un hombre con una bata de laboratorio, probablemente tenga los conocimientos y las habilidades que estás buscando”.
- Los mismos estereotipos se detectan en la IA generativa de contenidos visuales. Aquí se pueden ver varios ejemplos publicado por el Washington Post:
No es necesario dar más ejemplo. Se trata de un trayectoria demostrada y demostrable, que abarca varias décadas y que llega hasta las IA más recientes.
No se puede seguir permitiendo esta bula digital que permite a los proveedores de soluciones de IA, y a las empresas que las adquieren, ejercer esta discriminación contra de las mujeres de forma sistemática. Nuestra Constitución y la Carta de Derechos Fundamentales de la UE prohíbe, tajantemente y so pena de fortísimos castigos, este tipo de prácticas ilegales y de nula ética empresarial. Ni siquiera la excusa de la plena entrada en vigor del Reglamento Europeo de IA sirve como eximente: si las empresas quieren ser realmente inclusivas y respetuosas con las mujeres deben evaluar ya sus IA laborales, auditarlas, corregir inmediatamente sus datos de entrenamiento, y sin ninguna duda, dar plena transparencia a su funcionamiento por medios de diálogo social y la negociación colectiva.