3 façons de démystifier efficacement la boîte noire de l'IA

OneSpan Team,

Une meilleure compréhension de la technologie peut conduire à une plus grande transparence dans le fonctionnement du système, ce qui laisse moins de place à la remise en question des processus d'intelligence artificielle.

L'intelligence artificielle s'est révélée extrêmement prometteuse lorsqu'il s'agit d'appliquer l'apprentissage automatique au traitement global de vastes ensembles de données, en particulier dans le secteur des services bancaires et financiers. Soixante pour cent des sociétés de services financiers ont mis en œuvre au moins une forme d'IA, allant des assistants virtuels communiquant avec les clients et de l'automatisation des flux de travail à la gestion de la fraude et de la sécurité des réseaux.

Malgré ces progrès en matière d'efficacité et d'automatisation, la complexité du fonctionnement interne des modèles d'IA crée souvent un problème de "boîte noire". Cela est dû en grande partie à un manque de compréhension du fonctionnement du système et à une préoccupation constante concernant l'opacité, la discrimination injuste, l'éthique et les dangers pour la vie privée et l'autonomie. En fait, le manque de transparence dans le fonctionnement du système est souvent lié à des préjugés cachés.

Bien qu'ils soient souvent involontaires, il existe de nombreux types de biais dans l'IA, notamment les biais liés aux algorithmes, aux échantillons, aux préjugés, aux mesures et à l'exclusion. Ces biais peuvent accroître les frictions avec les consommateurs, entraîner un mauvais service à la clientèle, une baisse des ventes et des revenus, des comportements injustes ou illégaux et une discrimination potentielle.

L'évaluation du crédit par l'IA est un exemple clé de la manière dont les institutions financières utilisent l'identité numérique ou les médias sociaux pour déterminer les habitudes de consommation d'un consommateur ou sa capacité à rembourser ses dettes. En fin de compte, l'objectif est d'éliminer les biais dans les algorithmes d'IA afin de créer des notations de crédit précises.

Alors, comment pouvons-nous, en tant qu'industrie, surmonter ces biais inhérents ?

Voici trois façons de démystifier la boîte noire de l'IA et d'éviter les biais :

Établir une IA digne de confiance

Comprendre le fonctionnement du système d'IA permet aux utilisateurs de comprendre en toute confiance les biais et de mieux s'en affranchir. Les institutions financières peuvent y parvenir en mettant en place une IA digne de confiance, selon laquelle l'IA atteindra son plein potentiel une fois que la confiance sera développée à tous les niveaux du processus. Pour réussir, l'IA digne de confiance nécessite plusieurs éléments, notamment la protection de la vie privée, la robustesse et l'explicabilité.

Pour que l'IA soit digne de confiance, il faut l'examiner de près et être capable d'identifier les facteurs qui contribuent à chaque biais afin de prendre une décision plus éclairée sur les mesures à prendre après l'identification. Il est indéniable que l'IA digne de confiance est un domaine à plusieurs niveaux qui nécessite une sensibilisation accrue. À ce titre, les organisations doivent mettre en lumière la nécessité d'une sensibilisation accrue à l'éthique de l'IA pour ceux qui examinent et travaillent avec l'IA, ainsi que comprendre les risques et l'impact potentiel de l'IA et les moyens d'atténuer les risques.

Comprendre l'IA explicable

L'IA explicable (XAI) permet d'éliminer les biais inhérents à l'évaluation des risques basée sur l'IA. Les parties prenantes impliquées dans le cycle de vie d'un système d'IA peuvent être en mesure de déterminer pourquoi l'IA a pris certaines décisions et où elle aurait pu agir différemment. Par exemple, lors de l'examen d'une alerte concernant une transaction ou une identification à l'aide de l'évaluation des risques et de la détection des fraudes basées sur l'IA, il est nécessaire de comprendre et d'interpréter facilement la raison pour laquelle un événement a été détecté comme frauduleux.

Avec la mise en œuvre de systèmes d'IA explicables, il est essentiel que les responsables de l'information évaluent le niveau de compréhension requis de la part des parties prenantes au fur et à mesure du développement des technologies d'IA, car il est fort probable qu'ils devront rendre leurs plateformes d'IA explicables à leurs ingénieurs, à leur équipe juridique, à leurs responsables de la conformité et à leurs auditeurs. En fait, Gartner prévoit que, d'ici 2025, 30 % des contrats passés par les gouvernements et les grandes entreprises pour des produits et services d'IA imposeront l'utilisation d'une IA explicable et éthique.

Créer des réglementations claires

Pour parvenir à une réglementation et à une normalisation efficaces des risques potentiels de l'IA, nous avons besoin de l'implication de parties prenantes essentielles au sein des gouvernements, de l'industrie et du monde universitaire. Les gouvernements lancent de nouvelles initiatives en matière de réglementation de l'IA, telles que les lignes directrices de la Commission européenne pour une IA digne de confiance, publiées au début de cette année. Ces lignes directrices expliquent comment rendre les systèmes d'IA équitables, sûrs, transparents et bénéfiques pour les utilisateurs.

En outre, le National Institute of Standards and Technology des États-Unis élabore des normes et des outils pour vérifier la fiabilité de l'IA. Grâce à ces nouveaux efforts de normalisation, la technologie de l'IA peut être mieux comprise et gérée pour aider à réguler les biais créés involontairement dans les systèmes d'IA. Il en résulte une plus grande transparence dans le fonctionnement du système, ce qui laisse moins de place à la remise en question des processus d'IA.

Le secteur des services financiers n'a cessé de faire des progrès pour démystifier la boîte noire de l'IA. En apprenant à naviguer entre ces biais actuels grâce à une sensibilisation accrue à l'IA éthique, à la compréhension de l'IA explicable et à l'instauration de réglementations et de lignes directrices claires pour garantir l'équité des systèmes, le secteur des services financiers peut surmonter ces biais inhérents, ce qui nous rapproche d'une IA digne de confiance.

Une IA digne de confiance : pourquoi nous en avons besoin et comment y parvenir
Blog

Une IA digne de confiance : pourquoi nous en avons besoin et comment y parvenir

Apprenez trois stratégies pour naviguer et contrer les préjugés dans l'intelligence artificielle. Le progrès passe par une meilleure compréhension de l'intelligence artificielle et de son fonctionnement.

Lire la suite

Ce blog, rédigé par Ismini Pschoula, chercheur à OneSpan, a été publié pour la première fois sur BAI.org le 11 mars 2022.

The OneSpan Team is dedicated to delivering the best content to help you secure tomorrow's potential. From blogs to white papers, ebooks, webinars, and more, our content will help you make informed decisions related to cybersecurity and digital agreements.