Las empresas deben considerar las consecuencias no deseadas para la sociedad, no sólo lograr la precisión técnica. Las pandemias están históricamente asociadas con el racismo, la xenofobia y el conflicto de clases. El despliegue azaroso de algoritmos discriminatorios puede empeorar una situación trágica.
Consideraciones clave para el desarrollo de la IA imparcial
- ¿Cómo se diseña un sistema de IA que sea imparcial si nuestras sociedades son sistémica e institucionalmente sesgadas?
- ¿Cuáles son las implicaciones para nuestra sociedad si las empresas despliegan algoritmos sesgados en un mundo ya plagado de discriminación?
- ¿Cómo podemos asegurarnos de que las tecnologías emergentes no se desplieguen injustamente contra los grupos vulnerables?
- ¿Qué medidas deberían tomar las empresas para minimizar el riesgo de sesgo algorítmico?
- ¿Qué derechos debe tener una víctima de discriminación algorítmica para reparar la injusticia?
Resumen
El impacto desproporcionado de la pandemia COVID-19 en las comunidades minoritarias y desfavorecidas, tanto en lo que respecta a los costos sanitarios como a los económicos, ha puesto de manifiesto las desigualdades sistémicas por motivos raciales y étnicos en muchas sociedades. Las empresas se están viendo obligadas a reevaluar sus responsabilidades sociales, incluida la de garantizar que el despliegue de tecnologías de inteligencia artificial (IA) sea justo e imparcial.