S01-10 09

Proyecto Lena: Investigación sobre estereotipos de género en la IA generativa de imágenes

Compartir en TWITTER/FACEBOOK/LINKEDIN

Deja tu comentario

Participa en esta ponencia enviádole tu pregunta o comentario a los autores

Añadir comentario

Firmantes

profile avatar
Maria Asuncion Vicente RipollUniversidad Miguel Hernández
profile avatar
César Fernández PerisUniversidad Miguel Hernández
profile avatar
Irene Carrillo MurciaUniversidad Miguel Hernández de Elche
profile avatar
Mercedes Guilabert MoraUniversidad Miguel Hernández

Enfoque

Introducción

En la actualidad la inteligencia artificial (IA) ha avanzado espectacularmente, permitiendo la creación de modelos generativos que producen imágenes realistas a partir de descripciones textuales. Esta capacidad ha sido posible gracias al notable desarrollo de algoritmos de “deep learning” , que han hecho de la transformación de texto en imagen una de las aplicaciones más impresionantes de la visión por computadora. Sin embargo, estos avances también han traído consigo preocupaciones sobre la perpetuación de sesgos de género y estereotipos en las imágenes generadas por IA.

Objetivo

El objetivo principal del proyecto Lena es investigar y abordar los sesgos de género que aparecen en los sistemas de inteligencia artificial que generan imágenes. Queremos entender cómo y por qué estos sesgos se manifiestan en los modelos que usamos para crear imágenes, y desarrollar soluciones para identificar y cuantificar la presencia de estos sesgos en diferentes modelos de IA generativa.

Metodología

La metodología del proyecto incluye una revisión exhaustiva de la literatura sobre sesgos de género en la generación de imágenes por IA, seguida de la creación y validación de diferentes prompts que describan a personas y situaciones diversas. Estos prompts se aplican a generadores de imágenes como DALL-E y Midjourney, realizando pruebas piloto y ajustando los prompts según los resultados iniciales. Posteriormente, se implementarán técnicas de análisis de imágenes para detectar sesgos de género en los resultados generados, procesando un conjunto de datos representativo para este análisis. Se realizarán evaluaciones a ciegas de imágenes generadas por IA y se compararán con imágenes reales, utilizando un grupo representativo de evaluadores humanos.

Resultados

Los primeros resultados del proyecto indican que las imágenes generadas por IA a partir de descripciones textuales a menudo incorporan sesgos y estereotipos de género. Por ejemplo, se ha observado que las IA tienden a asociar ciertas profesiones y comportamientos con un género específico, perpetuando estereotipos culturales preexistentes. Estos hallazgos subrayan la necesidad de estrategias efectivas para mitigar estos sesgos y promover una representación más equitativa en las tecnologías de IA.

Conclusiones

El contenido generado por los modelos de IA incluye información con sesgo de género basado en estereotipos culturales. Este proyecto no solo busca revelar la presencia de estos sesgos, sino también crear conciencia en la comunidad tecnológica sobre la importancia de desarrollar tecnologías inclusivas y éticas. Los resultados de nuestra investigación servirán de base para futuras iniciativas y políticas que promuevan la equidad en la inteligencia artificial, contribuyendo a la creación de sistemas más justos y representativos de la diversidad social.

Preguntas y comentarios al autor/es

    • profile avatar

      Blanca Serrano San Segundo

      Comentó el 10/08/2024 a las 12:44:02

      Muchísimas gracias por vuestra contribución y por vuestro Proyecto Lena. Pues mediante técnicas de supervisión, como proponeis, podrían equilibrarse los datos sesgados que recogen los sistemas generativos de imágenes. ¿Sería conveniente regular legalmente respecto al entrenamiento de datos con Inteligencia Artificial?

    • profile avatar

      Mónica Liliana Rivera-Obregón

      Comentó el 27/07/2024 a las 03:00:13

      Estimadas y Estimado María, Cesar e Irene
      Interesantes aportaciones en su estudio. con relación a la recolección de la información para el registro de la información y datos ¿cuál instrumento o técnica metodológica se utilizó?
      Un cordial saludo

      • profile avatar

        Maria Asuncion Vicente Ripoll

        Comentó el 27/07/2024 a las 18:59:35

        Gracias por su comentarios.
        la recolección de la información para el registro de la información y datos se realiza mediante ficheros .csv de excel que luego procesamos en Matlab para el análisis de los resultados entre humanos y el resultado de la IA.

    • profile avatar

      Ester Micó Amigo

      Comentó el 26/07/2024 a las 10:25:19

      Buenos días,
      Muchas gracias por vuestra ponencia. Me ha parecido realmente interesante. El proyecto Lena, cuyo nombre se debe a la modelo sueca, ¿os ha abierto las puertas a otros iconos de la moda actuales preocupados por esta cosificación del cuerpo de la mujer? Gracias por vuestra respuesta

      • profile avatar

        Maria Asuncion Vicente Ripoll

        Comentó el 27/07/2024 a las 19:04:09

        Gracias por tu comentario Ester.
        No no hemos profundizado en ese aspecto. La decisición de usar Lena procede porque parte de los miembros de este proyecto somos ingenieros formados en visión por computador y procesado de imagen, y durante nuestra formación y desarrollo de tesis usamos Lena porque era la "metodología". Al cabo de los años hemos visto este abuso de su imagen y nos pareció que era una buena manera de homenajearla. El proyecto Lena tiene como objetivo evaluar la existencia de estereotipos de género en las imágenes generadas por IA, algo que es muy muy evidente, pero no estamos realizando en paralelo ningún estudio social con mujeres populares y cosificación.

    • profile avatar

      Anna Peirats

      Comentó el 25/07/2024 a las 11:50:20

      Enhorabuena y muchas gracias por la ponencia tan interesante. Encuentras más sesgos en las imágenes según diferentes apps de IA?

      • profile avatar

        Maria Asuncion Vicente Ripoll

        Comentó el 25/07/2024 a las 19:27:10

        Hola, gracias por tu interés en nuestro trabajo.
        Sí, según la plataforma de IA generativa de imágenes los sesgos pueden cambiar por el filtrado que aplique la plataforma.
        Por ejemplo, Dall-e la plataforma de OpenAI (chatgpt) no funciona como la generadora asociada a Gemini (de Google), que es la que tiene un filtrado más fuerte y de hecho ya le ha generado conflictos. Aqui tienes un enlace a una noticia sobre este asunto: https://www.elperiodico.com/es/tecnologia/20240223/google-retira-ia-gemini-inteligencia-artificial-nazis-imagenes-chatgpt-98552506

    • profile avatar

      Yolanda de Gregorio Robledo

      Comentó el 25/07/2024 a las 09:44:19

      Muchas gracias por la presentación. ¿Habéis encontrado diferencia entre los prompt redactados en inglés y los escritos en español? Gracias

      • profile avatar

        Maria Asuncion Vicente Ripoll

        Comentó el 25/07/2024 a las 19:28:33

        Hola, gracias por tu interés en nuestro trabajo.
        No hemos hecho pruebas con prompts en inglés, solo en castellano.
        Creo que en principio eso no debe afectar mucho a la generación del contenido de la imagen, pero lo evaluaremos. Gracias por la sugerencia.


Deja tu comentario

Lo siento, debes estar conectado para publicar un comentario.

Organizan

Colaboran

Configuración de Cookies

Utilizamos cookies para mejorar su experiencia y las funcionalidades de esta web. Ver política de cookies

Revisar