¿LA INTELIGENCIA ARTIFICIAL ES MACHISTA?

 13115531855?profile=RESIZE_400x

En la era de la inteligencia artificial, la tecnología no solo está transformando la manera en que interactuamos, sino también moldeando las normas y los sesgos que han sido parte de nuestra sociedad durante siglos. La IA, tan revolucionaria como puede parecer, no está exenta de arrastrar los mismos prejuicios y estereotipos que han existido en el mundo real, y esto es particularmente relevante desde la perspectiva de género. Sin un enfoque consciente y riguroso en la creación de algoritmos y modelos de IA, corremos el riesgo de replicar y perpetuar patrones de desigualdad, reforzando los sesgos de género en lugar de desafiarlos.

¿Por qué es necesaria una perspectiva de género en la IA?

Una investigación reciente de la UNESCO ha reconocido que los sistemas de IA, lejos de ser neutrales, pueden discriminar si se alimentan de datos sesgados o se diseñan sin tener en cuenta la equidad de género. ¿Por qué? Porque la IA aprende de la información que le damos, y si esta información ya contiene prejuicios, como sucede en sectores laborales donde las mujeres históricamente han sido infrarrepresentadas o estereotipadas, la IA tenderá a "aprender" esos mismos patrones.

Un ejemplo  es el de los asistentes virtuales, como Siri o Alexa, que a menudo están diseñados con voces femeninas. Estos programas han sido criticados por reforzar el estereotipo de la mujer como servicial y obediente. Pero los problemas van más allá: en herramientas de reclutamiento impulsadas por IA, se ha detectado que los algoritmos han excluido a candidatas mujeres para ciertas posiciones, basándose en datos históricos de contrataciones masculinas. Estos sesgos, aunque no siempre son intencionados, reflejan una falta de inclusión en el desarrollo y supervisión de los sistemas de IA.

En este sentido, los principales retos a los que nos enfrentamos para diseñar una IA igualitaria son: 

  1. Falta de diversidad en el sector TEC: Según datos de la UNESCO, solo el 22% de los profesionales de IA en todo el mundo son mujeres. Esto no solo implica una menor representación femenina, sino que también influye en un desarrollo de algoritmos que carecen de la experiencia y perspectiva de las mujeres, aumentando el riesgo de sesgos.

  2. Datos sesgados: La IA aprende de grandes cantidades de datos, que muchas veces reflejan una realidad desigual. Si estos datos provienen de un mundo donde los estereotipos de género persisten, los modelos de IA perpetúan estos sesgos. Un estudio de la Universidad de Princeton encontró que los algoritmos que procesaban grandes volúmenes de texto en Internet reproducían estereotipos de género al asociar ciertas características o profesiones con hombres y otras con mujeres.

  3. Falta de supervisión y regulación ética: En muchos casos, los desarrolladores no evalúan los efectos de los sesgos de género en sus modelos, y aunque algunos sectores tecnológicos están comenzando a incluir herramientas para detectar y corregir estos sesgos, aún hay un largo camino por recorrer. La regulación ética de la IA está en pañales y, aunque la Unión Europea ha dado algunos pasos, la regulación específica en torno al género es limitada.

  4. Impacto en la economía y el mercado laboral: La automatización de trabajos impulsada por la IA afecta de manera desigual a hombres y mujeres. Las mujeres tienen el doble de probabilidades de perder sus trabajos por automatización en comparación con los hombres, debido a la prevalencia femenina en roles administrativos y de servicio, que son los primeros que se automatizan.

¿Qué podemos hacer?

La IA no es un ente con vida propia, sino que las personas somos quienes la estamos diseñando y tenemos la responsabilidad de mejorarla para evitar que en el ámbito virtual se repliquen los mismos sesgos machistas que en la vida real. En este sentido, la inclusión de mujeres y personas diversas en los equipos de desarrollo de la IA es fundamental. De este modo, no sólo se mejora la perspectiva del producto final sino que también reduce la posibilidad de sesgos. Google y Microsoft son ejemplos de buenas prácticas ya que han comenzado a implementar programas de diversidad en sus departamentos de IA. 

Por otro lado, la ética de datos debe ser una prioridad, ya que la recopilación de los datos más representativos y la supervisión constante pueden ayudar a corregir los sesgos. En este sentido, organizaciones como la Unión Europea están desarrollando marcos regulatorios para evaluar el impacto de la IA en términos de género. Además, las organizaciones y gobiernos deben fomentar la educación en IA con perspectiva de género para que tanto desarrolladores como personas usuarias sean conscientes de cómo se pueden introducir estos sesgos y de las implicaciones que conllevan.

Y, por último, es fundamental que las empresas implementen y publiquen sus propios informes de impacto de género en los algoritmos de IA, asegurando una mayor transparencia.Aí, nos aseguramos también que aquellas organizaciones comprometidas en este ámbito sean referentes para aquellas otras que aún no han comenzado a introducir la diversidad e inclusión en sus departamentos. En este sentido, organismos como ONU Mujeres están trabajando en iniciativas que exigen a las empresas un desarrollo ético de sus sistemas de IA.

Como reflexión final me gustaría subrayar que la inteligencia artificial con perspectiva de género no es solo una meta deseable, sino una necesidad urgente. Si no abordamos esta cuestión ahora, corremos el riesgo de perpetuar y amplificar desigualdades históricas en un entorno digital y automatizado que se expande cada día. Así, al trabajar por una IA que represente y respete a todas las personas, estamos abriendo las puertas a un futuro más justo, en el que la tecnología sea realmente una herramienta de progreso para todas y todos.

 

 

Enviadme un correo electrónico cuando las personas hayan dejado sus comentarios –

¡Tienes que ser miembro de Retos Femeninos para agregar comentarios!

Join Retos Femeninos