Día Internacional de la Mujer: Eliminar el sesgo de género en las finanzas

Sharon Lee, 19 de Marzo de 2021

El trastorno causado por la pandemia ha impulsado un importante cambio hacia las plataformas online y digitales. Nuestro mundo ya estaba cada vez más interconectado, pero en el último año este cambio se ha acelerado drásticamente, creando enormes cantidades de datos en torno a nuestros hábitos bancarios diarios. LaInteligencia Artificial (IA) y el Aprendizaje Automático (ML) han dotado a los bancos e instituciones financieras de capacidades críticas para actuar de forma instantánea en el acelerado mundo digital actual. No hace mucho tiempo, a mucha gente le habría parecido alucinante que estas herramientas digitales fueran capaces de detectar actividades sospechosas y potencialmente fraudulentas en una enorme cantidad de datos en tiempo real.

Sin embargo, si bien estas herramientas son excepcionales para el reconocimiento de patrones en big data y la automatización de la toma de decisiones, como la detección de actividades fraudulentas y la posterior aplicación de medidas de seguridad adicionales, otras tareas que utilizan las tecnologías han suscitado preocupación. Por ejemplo, en 2019 la tarjeta de crédito de Apple fue tildada de "sexista " cuando se reveló que los algoritmos utilizados para determinar los límites de crédito estaban sesgados contra las mujeres. En un caso, Steve Wozniak, cofundador de Apple, recibió una oferta casi diez veces superior a la de su esposa.

Esto demuestra que, aunque las herramientas de IA y ML pueden ser rentables y aumentar en gran medida la eficiencia operativa, todavía hay que trabajar más para garantizar que la tecnología no discrimine a ciertos grupos minoritarios, como las mujeres. Para empezar a entender cómo podemos mejorar el uso de la IA y el ML en las finanzas, debemos aprender de los ejemplos del pasado en la industria, así como de la sociedad en general.

Casos de tecnología sesgada en la sociedad

La IA y la tecnología ML ya desempeñan un papel importante en las empresas y en la sociedad en general, y se prevé que su uso siga creciendo durante la próxima década. A medida que aumenta la adopción, es necesario centrarse más en minimizar el riesgo de discriminación y sesgo de la manera más eficaz posible.

El problema ahora mismo es que los modelos de IA y ML se alimentan de datos masivos que podrían estar sesgados en primer lugar, porque los datos pueden no ser una muestra representativa del mundo real, o simplemente capturan los sesgos de nuestra sociedad. Los modelos de ML son capaces de reconocer patrones en los datos, incluidos los sesgos, y por lo tanto discriminar a un grupo específico de personas por su género. Esto también se aplica a factores como la edad, el nivel económico y la raza. Por ejemplo, las universidades que utilizan la tecnología de IA para la selección de candidatos pueden seleccionar negativamente a los futuros estudiantes en función de su información personal, como la raza, la ciudad de origen o los ingresos del hogar. También pueden darse sesgos algorítmicos similares en el procesamiento de las solicitudes de empleo.

Los algoritmos de IA y ML no entienden lo que es la discriminación, por lo que las organizaciones deben ser conscientes de los posibles sesgos de la IA y desarrollar una estrategia para detectar y mitigar su capacidad de hacerlo, o para entender mejor por qué toman ciertas decisiones basadas en datos. Obtener esta comprensión permitirá a los bancos y a las instituciones financieras crear mejores modelos que sean más capaces de eliminar los sesgos de las tecnologías de IA y ML.

Mejorar las tecnologías de la IA para dar forma a un futuro igualitario

Para empezar a crear un futuro justo y equitativo utilizando las tecnologías de IA y ML, tenemos que establecer una comprensión de por qué una herramienta de IA toma una determinada decisión. ¿Por qué el algoritmo de las tarjetas de crédito de Apple ofrecía a una mujer menos crédito que a un hombre, incluso cuando los activos y el historial crediticio de ambos eran iguales? Las organizaciones que automatizan sus operaciones utilizando estas tecnologías necesitan una forma transparente y responsable de garantizar que los casos de sesgos de la IA que podrían conducir a la discriminación se identifiquen y traten rápidamente.

Se ha empezado a trabajar en modelos de IA explicable (XAI) para ayudar a arrojar luz sobre los procesos de toma de decisiones de dichos algoritmos. Algunas organizaciones ya están trabajando en este tipo de tecnología. En el ámbito de las finanzas, la adquisición de estos conocimientos permitirá a los bancos y a las instituciones financieras identificar las posibles causas de discriminación, como los prejuicios de género. Las tecnologías de IA y ML pueden ciertamente reducir los costes y mejorar la eficiencia operativa, pero sigue siendo necesario que haya un elemento humano en estos procesos para garantizar que nadie esté en desventaja por su género, o cualquier otra característica identificable.

Los reguladores tienden a ir a la zaga de la promulgación de legislación para estas tecnologías innovadoras, pero rápidamente se está haciendo evidente la necesidad de un marco legal que guíe la aplicación en la vida real de las tecnologías de IA y ML. Dado que ya se utilizan ampliamente en diferentes sectores, es probable que los gobiernos y los organismos industriales se ocupen de ello en un futuro próximo. Mientras tanto, como industria será importante seguir colaborando con las organizaciones del sector privado y público para crear un mercado transparente y una sociedad justa para todos.

Análisis de riesgos para la prevención del fraude: principales casos de uso en la banca
Whitepaper

Análisis de riesgos para la prevención de fraudes: Principales casos de uso en banca

Para ayudar a los directivos bancarios a comprender mejor el valor de un sistema de análisis de riesgos impulsado por «machine learning», este documento técnico explica el monitoreo continuo del fraude y la evaluación dinámica de riesgos en el contexto de los casos de uso más comunes en la banca.

Descargar ahora

Este blog, escrito por Sharon Lee, directora de investigación e innovación del Centro de Innovación de Cambridge, OneSpan, se publicó por primera vez en GlobalBankingandFinance.comel 8 de marzo de 2021.

Sharon es directora de investigación e innovación en el Centro de Innovación OneSpan, en Cambridge, Reino Unido. Sharon se doctoró en ingeniería en la Universidad de Cambridge y se licenció en ingeniería electrónica en la Universidad China de Hong Kong.