Journée internationale de la femme: éliminer les préjugés sexistes dans la finance

Sharon Lee, mars 19, 2021

La perturbation causée par la pandémie a entraîné un changement majeur vers les plateformes en ligne et numériques. Notre monde devenait déjà de plus en plus interconnecté, mais au cours de l'année écoulée, ce changement s'est considérablement accéléré, créant de grandes quantités de données autour de nos habitudes bancaires quotidiennes. Intelligence artificielle (IA) et apprentissage automatique (ML) ont donné aux banques et aux institutions financières des capacités essentielles pour agir instantanément dans le monde numérique en évolution rapide d'aujourd'hui. Il n'y a pas si longtemps, il aurait semblé ahurissant à de nombreuses personnes que ces outils numériques soient capables de détecter en temps réel des activités suspectes et potentiellement frauduleuses dans une énorme quantité de données.

Cependant, bien que ces outils soient exceptionnels pour la reconnaissance de formes dans le Big Data et l'automatisation de la prise de décision, comme la détection d'activités frauduleuses et la mise en œuvre ultérieure de mesures de sécurité supplémentaires, d'autres tâches utilisant les technologies ont soulevé des préoccupations. Par exemple, en 2019 La carte de crédit d'Apple a été qualifiée de `` sexiste '' lorsqu'il a été révélé que les algorithmes utilisés pour déterminer les limites de crédit étaient biaisés à l'encontre des femmes. Dans un cas, Steve Wozniak, co-fondateur d'Apple, s'est vu offrir près de dix fois le montant de sa femme.

Cela démontre que, bien que les outils d'IA et de ML puissent être rentables et augmenter considérablement l'efficacité opérationnelle, il reste encore du travail à faire pour garantir que la technologie ne discrimine pas certains groupes minoritaires tels que les femmes. Pour commencer à comprendre comment nous pouvons améliorer l'utilisation de l'IA et du ML dans la finance, nous devons apprendre des exemples passés dans l'industrie ainsi que dans la société en général.

Instances de la technologie des biais dans la société

Les technologies de l'IA et du ML jouent déjà un rôle majeur dans les entreprises ainsi que dans la société en général, et leur utilisation devrait continuer de croître au cours de la prochaine décennie. À mesure que l'adoption augmente, il faut se concentrer davantage sur la minimisation du risque de discrimination et de partialité aussi efficacement que possible.

Le problème à l'heure actuelle est que les modèles d'IA et de ML sont alimentés en données massives qui pourraient être biaisées en premier lieu, car les données peuvent ne pas être un échantillon représentatif du monde réel, ou elles capturent simplement les préjugés dans notre société. Les modèles ML sont capables de reconnaître des modèles dans les données, y compris les biais, et donc de discriminer un groupe spécifique de personnes en raison de leur sexe. Cela s'applique également à des facteurs tels que l'âge, le contexte économique et la race. Par exemple, les universités qui utilisent la technologie de l'IA pour la sélection des candidats peuvent sélectionner de manière négative des étudiants potentiels en fonction de leurs informations personnelles telles que la race, la ville d'origine, le revenu du ménage. Des biais algorithmiques similaires peuvent également se présenter dans le traitement des candidatures.

Les algorithmes d'IA et de ML ne comprennent pas ce qu'est la discrimination, les organisations doivent donc être conscientes des biais potentiels de l'IA et développer une stratégie pour détecter et atténuer leur capacité à le faire, ou pour mieux comprendre pourquoi elles prennent certaines décisions basées sur des données. Acquérir cette compréhension permettra aux banques et aux IF de créer de meilleurs modèles plus capables d'éliminer les biais dans les technologies d'IA et de ML.

Améliorer les technologies d'IA pour façonner un avenir égal

Pour commencer à créer un avenir juste et équitable à l'aide des technologies d'IA et de ML, nous devons comprendre pourquoi un outil d'IA prend une certaine décision. Pourquoi l'algorithme de carte de crédit d'Apple a-t-il offert à une femme moins de crédit qu'un homme, même lorsque leurs actifs et leurs antécédents de crédit étaient les mêmes? Les organisations qui automatisent leurs opérations à l'aide de ces technologies ont besoin d'un moyen transparent et responsable de s'assurer que les cas de biais de l'IA qui pourraient potentiellement conduire à une discrimination soient rapidement identifiés et traités.

Des travaux ont commencé sur des modèles d'IA explicables (XAI) pour aider à éclairer les processus de prise de décision de ces algorithmes. Certaines organisations travaillent déjà à ce type de technologie. Dans le domaine de la finance, cette compréhension permettra aux banques et aux IF d'identifier les causes potentielles de discrimination telles que les préjugés sexistes. Les technologies d'IA et de ML peuvent certes réduire les coûts et améliorer l'efficacité opérationnelle, mais il faut toujours qu'un élément humain soit présent dans ces processus pour garantir que personne ne soit désavantagé en raison de son sexe ou de toute autre caractéristique identifiable.

Les régulateurs ont tendance à être à la traîne de la législation relative à ces technologies innovantes, mais il devient rapidement évident qu'un cadre juridique est nécessaire pour guider l'application réelle des technologies d'IA et de ML. Comme ils sont déjà largement utilisés dans différents secteurs, il est probable que nous verrons les gouvernements et les organismes de l'industrie traiter dans un avenir prévisible. En attendant, en tant qu'industrie, il sera important de continuer à collaborer avec les organisations des secteurs privé et public pour créer un marché transparent et une société juste pour tous.

Analyse des risques pour la prévention de la fraude: principaux cas d'utilisation dans le secteur bancaire
Whitepaper

Analyse des risques pour la prévention de la fraude: principaux cas d'utilisation dans le secteur bancaire

Pour aider les dirigeants bancaires à mieux comprendre la valeur d'un système d'analyse des risques piloté par l'apprentissage automatique, ce livre blanc explique la surveillance continue de la fraude et l'évaluation dynamique des risques dans le contexte des principaux cas d'utilisation dans le secteur bancaire.

Télécharger

Ce blog, rédigé par Sharon Lee, responsable de la recherche et de l'innovation, Cambridge Innovation Center, OneSpan, a été publié pour la première fois sur GlobalBankingandFinance.com le 8 mars 2021.

Sharon est responsable de la recherche et de l'innovation au OneSpan Innovation Center, Cambridge UK. Sharon a obtenu son doctorat en ingénierie à l'Université de Cambridge et ses diplômes de maîtrise en philosophie et de maîtrise en génie électronique à l'Université chinoise de Hong Kong.