#M10 - La caja negra de los algoritmos
Manage episode 332022129 series 3363335
La primera temporada de Cuidado con las macros ocultas se despide poniendo el foco en la ética y el sesgo algorítmico. El primer caso discriminatorio se detectó en los años 80 en la Escuela de Medicina del Hospital St. George de Londres. El investigador en justicia algorítmica y ética de datos, Manuel Portela, nos acerca a este caso para saber qué hemos aprendido 40 años después. ¿Las organizaciones evalúan suficientemente los riesgos que puede provocar la automatización de decisiones con sistemas de aprendizaje automático? La CEO de Eticas, Gemma Galdón, nos ayuda a entender qué es una auditoría de algoritmos y por qué se deberían realizar. Y la presidenta de OdiseIA, Idoia Salazar, nos explica cómo las empresas pueden anticiparse y ajustarse a la legislación que está por venir en ética e inteligencia artificial.
Para más información visita www.cuidadoconlasmacrosocultas.com
See omnystudio.com/listener for privacy information.
Luvut
1. #M10 - La caja negra de los algoritmos (00:00:00)
2. Primer caso de sesgo algorítmico (00:00:24)
3. Manuel Portela Pd.H en justicia algorítmica (00:00:55)
4. Gemma Galdón, CEO y fundadora de Eticas (00:06:00)
5. Idoia Salazar, presidenta de OdiseIA (00:25:49)
6. Gemma Galdón: falta de práctica en ética (00:30:27)
7. Joy Boulamwini: sesgo algorítmico (00:40:45)
38 jaksoa