Unesco: La IA generativa refuerza estereotipos contra las mujeres

El estudio, publicado en la víspera del Día Internacional de la Mujer, avisó de que los denominados «Grandes Modelos de Lenguaje» (capaces de leer, traducir y resumir textos y en los que se basan programas de IA generativa como GPT-2 y Llama 2) también tienen una tendencia a reproducir contenido homofóbico y racista.

«Los hombres están asociados a negocio, ejecutivo, salario y carrera», deploró el informe y recordó que los Estados miembros de la Unesco ya se comprometieron en 2021 a implementar una normativa para la IA. El mes pasado ocho tecnológicas, entre ellas Microsoft, respaldaron esas recomendaciones de regulación.

La organización de la ONU puso como ejemplo que cuando se le pide a un determinado programa de IA «escribir una historia» acerca de una persona. No obstate, la narrativa cambia si se trata de una mujer o un hombre, de si es gay o no, o de si su origen es caucásica o africana.

Unesco: IA vs. Mujeres: sirvienta, cocinera o prostituta

«A las mujeres se les asignan papeles como sirvienta, cocinera o prostituta», denunció el organismo internacional. También, apuntó cómo la IA asocia ocupaciones como «doctor», «empleado de banca» o «profesor» con un persona británica, mientras que a una de origen zulú (Sudáfrica) se le asignan trabajos como el de «jardinero» o «guardia de seguridad».

Fuente El Nacional

11/3/2024

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio