Blackfriday

🎉 50% OFF on Membership fees FOREVER
🔥 Only 30 Memberships — First Come, First Served!
🕛 Starting Midnight 29.11
Volver a Insight

¿Quién es culpable cuando los sistemas de IA discriminan?

Quién debe rendir cuentas cuando los sistemas de IA discriminan en este perspicaz artículo.
Technology Frontiers
|
20 de junio de 2023

La inteligencia artificial (IA) se ha convertido en una parte indispensable de nuestras vidas, desde los asistentes virtuales como Siri y Alexa hasta los coches de conducción. Sin embargo, a medida que aumenta el uso de sistemas de IA, también lo hace la posibilidad de discriminación. ¿Quién debe ser considerado responsable de esta discriminación? ¿Es culpa del propio sistema de IA o también son culpables los desarrolladores, programadores, empresas y organizaciones?

Comprender la IA y la discriminación

Para determinar quién es culpable de discriminación por IA, es importante entender primero en qué consiste. La discriminación por IA se produce cuando un sistema muestra prejuicios contra un determinado grupo de personas en función de características específicas como la raza, el sexo o el estatus socioeconómico. Los algoritmos de aprendizaje automático están diseñados para identificar patrones y utilizarlos para hacer predicciones y tomar decisiones. Sin embargo, si estos algoritmos se basan en conjuntos de datos sesgados, el resultado del sistema de IA puede perpetuar ese sesgo.

¿Qué es la discriminación por IA?

La discriminación por IA no es un fenómeno nuevo. Históricamente, se ha sabido que los sistemas de IA discriminan a las comunidades marginadas. Por ejemplo, la IA dermatológica puede no funcionar tan bien en tonos de piel más oscuros o la tecnología de reconocimiento facial tiene dificultades para reconocer rostros de personas de determinadas razas. El sesgo también puede ser más sutil, como que ciertos anuncios de trabajo se muestren sólo a determinados géneros o razas. Este tipo de discriminación perpetúa las desigualdades sistémicas y agrava las injusticias sociales.

Cómo aprenden los sistemas de inteligencia artificial

Los sistemas de IA pueden aprender prejuicios de los datos que se les proporcionan. Por ejemplo, si un sistema de IA se entrena con datos sesgados en contra de un grupo concreto, el sistema perpetuará ese sesgo y producirá resultados sesgados. Las redes neuronales recurrentes (RNN) son especialmente vulnerables a la discriminación por aprendizaje porque utilizan datos históricos que pueden reflejar prejuicios pasados, en lugar de la realidad actual. Además, los sistemas de IA podrían captar prejuicios implícitos en los datos históricos, como estereotipos negativos y prejuicios inconscientes.

Es importante señalar que los sistemas de IA no discriminan de por sí. Más bien, el sesgo es el resultado de los datos que se introducen en el sistema. Por lo tanto, es crucial garantizar que los conjuntos de datos utilizados para entrenar los sistemas de IA sean diversos y representativos de todos los grupos de la sociedad.

 Fondo digital de matriz azul. Concepto distorsionado del ciberespacio. Los personajes se caen.
Sistemas de IA que operan en un entorno virtual en el que pueden surgir sesgos e influir en sus procesos de toma de decisiones.

Ejemplos reales de discriminación por IA

No es difícil encontrar ejemplos reales de discriminación por IA. Uno de los casos más conocidos de discriminación por IA ocurrió en 2018, cuando se descubrió que la herramienta de contratación de Amazon impulsada por IA estaba sesgada contra las mujeres. El sistema de IA fue programado para aprender de los currículos enviados a la empresa durante un período de 10 años. Como resultado del sexismo profundamente arraigado en la industria tecnológica, los currículos de los solicitantes masculinos tenían más probabilidades de ser preseleccionados que los currículos de las solicitantes femeninas. De este modo, el sistema de IA aprendió a perpetuar la discriminación contra las mujeres.

Otro ejemplo de discriminación por IA es el uso de la policía predictiva. Los algoritmos pol iciales predictivos utilizan datos históricos de delincuencia para predecir dónde es probable que se produzcan delitos en el futuro. Sin embargo, estos datos suelen estar sesgados en contra de las comunidades de color, que son un objetivo desproporcionado de las fuerzas del orden. Como resultado, los algoritmos de predicción policial perpetúan la discriminación contra estas comunidades al dirigir los recursos policiales a sus barrios, lo que conduce a un aumento de la vigilancia y el acoso.

Los sistemas de IA también pueden utilizarse para perpetuar la discriminación en el lugar de trabajo. Por ejemplo, si un sistema de IA se utiliza para evaluar candidatos a un puesto de trabajo, puede discriminar inadvertidamente a determinados grupos basándose en sus currículos o perfiles en las redes sociales. Esto puede tener graves consecuencias para la diversidad y la inclusión en el lugar de trabajo.

En general, está claro que la discriminación en la IA es un problema grave que debe abordarse. Es crucial que los sistemas de IA se diseñen y entrenen de forma justa e imparcial para evitar que se perpetúen las desigualdades sistémicas y las injusticias sociales.

El papel de los desarrolladores y programadores

Los desarrolladores y programadores son los principales creadores de los sistemas de IA. Como tales, deben responsabilizarse de eliminar la discriminación de la IA. Desempeñan un papel crucial a la hora de garantizar que los algoritmos de IA estén diseñados para ser justos e imparciales.

Diseñar sistemas de IA teniendo en cuenta la equidad

Los desarrolladores y programadores deben estar atentos al diseño de algoritmos que no conduzcan a la discriminación sistémica y deben aplicar principios explicables de IA y transparencia de datos. Deben crear diversos conjuntos de datos y supervisar los resultados para detectar signos de discriminación. Por ejemplo, un algoritmo utilizado en la evaluación de préstamos debe evitar impactos dispares al evaluar la solvencia de las personas, es decir, evitar que penalice excesivamente a las personas por motivos de raza, religión o sexo.

Prejuicios inconscientes en el desarrollo de la IA

Los prejuicios inconscientes pueden impregnar fácilmente los procesos de desarrollo de la IA, dando lugar a suposiciones humanas que se incrustan en los algoritmos desarrollados por los programadores. Los programadores deben ser conscientes de sus prejuicios implícitos y tomar medidas para mitigar su impacto en los sistemas de IA. Una forma de abordar estos problemas es implicar a personas de diversos orígenes en los proyectos de desarrollo de IA. No sólo aportarían su perspectiva diversa, sino que también señalarían los casos de posible sesgo.

La importancia de los equipos de desarrollo diversos

El equipo de desarrollo es responsable de construir y entrenar los sistemas de IA. Un equipo de desarrollo diverso puede ayudar a identificar posibles sesgos y garantizar que los sistemas de IA se diseñan de forma justa. La diversidad de perspectivas y experiencias vividas por los miembros del equipo puede contribuir a la aparición de puntos ciegos y prejuicios.

Un equipo multiétnico colabora en un proyecto informático
Un equipo de desarrollo diverso identifica los prejuicios y garantiza un diseño justo de los sistemas de IA mediante la incorporación de diversas perspectivas y experiencias.

La responsabilidad de las empresas y organizaciones

Las empresas y organizaciones que utilizan sistemas de IA deben asegurarse de que están libres de prejuicios y discriminación. Deben ser transparentes en sus procesos de desarrollo y adquisición de IA para garantizar que los sistemas de IA se ajustan a normas aceptables.

Aplicación de políticas éticas de IA

Las empresas y organizaciones deben aplicar políticas éticas de IA que exijan que los sistemas de IA no sean discriminatorios. Las políticas deben aplicarse a todas las personas y grupos, independientemente de su raza, sexo, religión u orientación sexual. Deben tener directrices claras para la gestión responsable de los datos y la protección de la privacidad. Las políticas éticas también garantizarán que las empresas promuevan la transparencia y la responsabilidad en el uso de los sistemas de IA.

Control de los sistemas de IA para detectar la discriminación

Las organizaciones deben supervisar continuamente sus sistemas de IA para detectar indicios de discriminación. Deben utilizar métricas para identificar el impacto discriminatorio. Esta supervisión requeriría integrar la IA en diversos flujos de trabajo, facilitando a las organizaciones la extracción de datos pertinentes para fundamentar las decisiones. Deben responder a los retos de la imparcialidad de la IA mediante una combinación de sistemas de alerta, supervisión humana y revisión de los resultados de la IA por expertos que garanticen que la IA no discrimina a grupos de personas.

Pantalla de desarrollo de código java script real. Flujo de trabajo de programación algoritmo abstracto.

Abordar la discriminación en las decisiones basadas en la IA

Las organizaciones también deben garantizar que las decisiones tomadas por los sistemas de IA sean transparentes y auditables. Si se cuestiona una decisión tomada por un sistema de IA, debe existir un mecanismo para revisar la decisión. Del mismo modo, las organizaciones deben inculcar la transparencia en sus decisiones y sus razones para implantar sistemas de IA.

Marco jurídico y reglamentario

Los marcos jurídicos y normativos deben ponerse al día con los retos técnicos y éticos que plantea la discriminación por IA. No existe un enfoque único para combatir la discriminación por IA en los distintos sectores, por lo que los marcos jurídicos tendrán que ser ágiles para adaptarse a todos los escenarios.

Leyes y normativas vigentes sobre discriminación en el ámbito de la IA

Por el momento, hay pocas leyes y normativas que aborden explícitamente la discriminación por IA. Existen algunos principios básicos, como el Reglamento General de Protección de Datos (RGPD), cuyo objetivo es proteger la privacidad y la propiedad de los datos personales, y las Directrices Éticas de la IA de la Comisión Europea, que exigen que los sistemas de IA respeten los derechos fundamentales. Sin embargo, se necesitan normativas más exhaustivas y específicas que promuevan el uso justo y ético de la IA en diferentes ámbitos, especialmente el funcionamiento de los algoritmos de IA.

Derecho de la IA
Los marcos jurídicos deben adaptarse a los retos técnicos y éticos de la discriminación por IA, lo que requiere agilidad para abordar diversas industrias.

Necesidad de una nueva legislación

Los expertos sugieren que se introduzca una nueva legislación centrada en la normativa antidiscriminación de los sistemas de IA. Las leyes deberían tener en cuenta la diversidad de los grupos y la interseccionalidad de los rasgos de identidad, y considerar diferentes tipos de aplicaciones de IA. La legislación podría tener como objetivo garantizar que cualquier discriminación intencionada o no intencionada que surja cuando se desplieguen sistemas de IA se evite o se aborde lo antes posible.

Esfuerzos internacionales para combatir la discriminación de la IA

Diversas organizaciones internacionales, como la OCDE, la UNESCO y la UE, han reconocido la necesidad de combatir la discriminación en la IA. La OCDE ha pedido a los gobiernos que adopten normas sobre divulgación de datos para proteger a las personas contra la discriminación oculta en los sistemas basados en IA. Este es sólo uno de los muchos esfuerzos encaminados a crear un marco regulador internacional que mejore la fiabilidad de la IA y garantice la equidad y el uso ético en todo el mundo.

Conclusión

El crecimiento de los sistemas de IA tiene implicaciones para el futuro del trabajo, la economía y los derechos humanos. Sin embargo, la IA debe ser justa e imparcial para garantizar que todos disfruten de sus beneficios. Los desarrolladores y programadores deben liderar el diseño y despliegue de algoritmos de IA que no perpetúen la discriminación y los prejuicios sistémicos, pero las empresas y organizaciones tienen un papel fundamental a la hora de garantizar que sus sistemas de IA estén libres de discriminación y que los utilicen de forma ética y transparente. Los gobiernos y las organizaciones internacionales deben colaborar para establecer marcos jurídicos adecuados que garanticen un uso justo y ético de la IA. Sólo un esfuerzo de colaboración garantizará que, cuando los sistemas de IA discriminen, se tomen medidas rápidas y todos los responsables rindan cuentas por la IA discriminatoria.