El efecto de los sesgos LGBTIQ+ en la IA: “Nos vemos obligados a evitar la palabra ‘queer’ en los mensajes”

Registrado
27 Sep 2024
Mensajes
40
3MBF7LZ4LNHVZEZYFC3JGDNOHI.jpg

Arjun Subramonian (Estados Unidos, 24 años) creció por casualidad en California, un lugar conocido por el glamour de Hollywood y sobre todo por ser la meca de la innovación tecnológica. El Estado Dorado es cuna de cientos de industrias informáticas aglutinadas en Silicon Valley, un ambiente que le llevó a imaginar en su infancia cómo los ordenadores impulsarían vanguardistas automóviles que los humanos conducirían en el futuro. Pero algo cambió en la percepción de Subramonian cuando cursaba la carrera de Ciencias de la Computación en la Universidad de California. En esa época se declaró abiertamente gay y pensaba a diario en la marginación del colectivo LGBTIQ+, que figura un 20% menos en el espacio tecnológico. “Hay grandes modelos de lenguaje entrenados con información de Internet. Y todos sabemos, que si eres mujer, negro u homosexual, ese lugar será muy tóxico para ti”, reflexiona sobre los sesgos algorítmicos o de machine learning, una serie de prejuicios no deseados que afectan a los sistemas de inteligencia artificial (IA) generativa.

Seguir leyendo

Arjun Subramonian es doctor en Ciencias de la Computación de la Universidad de California (UCLA).
Retrato de Ilia S. con la última versión de Midjourney. A menudo, la IA suele interpretar su rostro como alguien mayor aunque tiene 29 años.
Cristina Aranda es doctora en Lingüística Teórica y Aplicada por la Universidad Autónoma de Madrid.
Adio Dinika, es investigador de DAIR. La empresa fue fundada por Timnit Gebru, una ex trabajadora de Google que en 2020 fue despedida al plantear problemas éticos relacionados con el racismo en la IA.


 

Miembros conectados

No hay miembros conectados.
Atrás
Arriba