Les expériences alimentées par l'IA sont inévitables. Voici les principales considérations à prendre en compte pour garantir l'intégrité et l'authenticité.

Ajay Keni,

Une récente lettre ouverte d'experts en intelligence artificielle (IA) et en technologie a appelé à une pause immédiate et minimale de six mois sur la formation de systèmes d'IA plus puissants que le GPT-4. Le catalyseur déclaré de cette lettre est "les risques profonds pour la société et l'humanité" : "des risques profonds pour la société et l'humanité"

Si l'histoire nous a appris quelque chose, c'est que les innovations émergentes sont difficiles à contenir une fois qu'elles sont introduites dans la nature. Pensez à l'introduction de l'automobile ou de l'internet, qui ont tous deux eu des détracteurs et des adeptes de la première heure. En tant que société mondiale, nous avons rarement fait une pause lorsque nous nous trouvions au bord d'un progrès perçu, d'une opportunité commerciale ou d'un avantage politique. Ce n'est probablement pas ce qui va se passer aujourd'hui.

D'une part, une telle pause devrait se produire à l'échelle mondiale afin d'empêcher certaines nations de tirer profit d'une interruption de la part d'autres pays. Compte tenu de la situation géopolitique actuelle - et de toute situation géopolitique, en fait - il n'est peut-être pas réaliste de s'attendre à cela. Par ailleurs, une grande partie des travaux de recherche et de développement menés dans le domaine de l'IA générative a déjà été rendue disponible par le biais de modèles à code source ouvert, ce qui la rend encore plus difficile à contenir.

Dans une récente interview accordée à 60 Minutes, Sundar Pichai, PDG de Google, a déclaré que la société devait s'adapter pour rendre l'IA sûre pour le monde. "Ce n'est pas à une entreprise de décider", a-t-il déclaré. "C'est pourquoi je pense que le développement de cette technologie doit inclure non seulement des ingénieurs, mais aussi des spécialistes des sciences sociales, des éthiciens, des philosophes, etc

Le potentiel de transformation de l'IA

Les applications positives de l'IA générative sont porteuses d'une promesse historique d'aide aux populations du monde entier, qu'il s'agisse de l'éducation, des soins de santé, du changement climatique, de la sécurité alimentaire, de la cybersécurité ou d'autres domaines encore. Ma question n'est pas de savoir si, mais, à l'instar de M. Pichai de Google, comment nous devrions procéder pour maximiser les avantages et contenir les risques d'abus ou d'applications corrompues.

Selon le World Justice Project, par exemple, 83 % des personnes interrogées en Inde qui ont signalé des problèmes juridiques n'ont pas été en mesure d'obtenir les informations, les conseils ou la représentation nécessaires Cette situation est aggravée par un arriéré massif dans le système juridique, le gouvernement ayant fait état l'année dernière d'environ 40 millions d'affaires en suspens dans les tribunaux indiens. L'IA a le potentiel de transformer cette réalité en aidant les gens à comprendre leurs droits, à trouver des informations pertinentes et à localiser l'assistance juridique. Pour les avocats et les magistrats, l'IA peut simplifier les recherches juridiques complexes, contribuant ainsi à réduire massivement le nombre d'affaires en attente, avec d'énormes avantages sociaux à la clé. En effet, si l'internet a un jour tenu une promesse rédemptrice d'inclusivité et d'accessibilité, il se pourrait bien que l'IA contribue à la réaliser.

L'IA fournit déjà des outils pour atténuer les risques d'aujourd'hui, alors que nous nous adaptons aux assauts émergents de demain sur l'identité et l'authenticité. Les organisations utilisent l'IA pour renforcer les mesures de sécurité, Microsoft ayant récemment lancé un produit basé sur le Chat GPT-4. Security Copilot est un outil de cybersécurité qui permet aux administrateurs de sécurité d'avoir une vue d'ensemble structurée des menaces possibles pour l'infrastructure informatique d'une entreprise, "à la vitesse et à l'échelle de l'IA" Naturellement, comme tout outil basé sur l'IA, Security Copilot ne fait pas toujours tout correctement, et Microsoft prend la peine d'articuler ce que les gros titres passent souvent sous silence : "Le contenu généré par l'IA peut contenir des erreurs"

Il s'agit d'une reconnaissance importante, sur laquelle nous reviendrons.

Évaluer les menaces

Parlons maintenant des "risques profonds pour la société"

Le premier d'entre eux est le potentiel de fraude surpuissant. Grâce aux outils basés sur l'IA, il est facile pour de mauvais acteurs de créer une identité en ligne complète et entièrement synthétique. Si l'on ajoute à cela la technologie "deepfake" qui a fait couler beaucoup d'encre, le danger est clair et bien présent : Il n'est plus facile de discerner si c'est un fraudeur qui vous appelle au téléphone, ou même par vidéoconférence. Cette situation est particulièrement dangereuse dans le contexte de l'énorme quantité d'informations personnelles identifiables (IPI) qui ont été divulguées, récoltées ou volées au cours des dernières années. Si vous avez des conversations sensibles, avec qui que ce soit, ce risque doit être une priorité.

À plus grande échelle, les systèmes génératifs basés sur l'IA ont été utilisés pour générer d'autres contenus malveillants, allant d'attaques de phishing savamment élaborées à de véritables campagnes de propagande et de "fake news".

Des dangers sont également associés à des utilisations plus prosaïques de l'IA générative. L'IA est de plus en plus utilisée à titre expérimental dans des domaines tels que le droit, la science et la médecine, où le problème est que nous ne savons pas toujours ce que nous ne savons pas.

Il s'avère que l'IA ne sait pas non plus ce qu'elle sait. Les développeurs de ChatGPT ont averti que l'outil "écrit parfois des réponses plausibles mais incorrectes ou absurdes" Il s'agit en fait de la principale faiblesse de l'IA : Elle ne sait pas distinguer le vrai du faux. En effet, les robots hallucinés sont un phénomène bien connu.

Ce sont les risques de ce type qui mettent en évidence les dangers auxquels nous sommes réellement confrontés. Considérez le cas d'utilisation où des accords numériques de grande valeur sont fondés sur les résultats de telles hallucinations - comme l'analyse de contrats d'assurance pilotée par l'IA, ou les conditions légales qui pourraient être générées par l'IA pour être incluses dans un prêt hypothécaire ou un achat de biens immobiliers commerciaux. Que faire lorsqu'un robot change d'avis ?

Dans un contexte d'incertitude quant à ce qui est réel et vrai, les interactions numériques doivent être sécurisées de manière à ce que chaque étape soit inattaquable et incontestable, depuis l'identification initiale des parties jusqu'à l'enregistrement distribué de l'interaction et de ses artefacts. En bref, l'idée est de sécuriser le plein potentiel des interactions entre humains.

Étant donné que ce potentiel peut être amplifié par l'IA, il est vraiment logique de mettre des garde-fous au développement d'outils génératifs basés sur l'IA, plutôt que de l'interrompre purement et simplement. Ces garde-fous, fondés sur la réglementation et l'audit, devraient en fin de compte garantir que les avantages l'emportent largement sur les inconvénients.

Prochaines étapes recommandées

Dans le cadre d'un plan de lutte contre la fraude basée sur l'IA, les entreprises doivent se concentrer sur la vérification de l'identité et l'authentification universelle continue pour garantir l'intégrité de leurs interactions, transactions et accords.

Les entreprises doivent également évaluer les vulnérabilités spécifiques associées à leurs accords numériques et rechercher des solutions pour surveiller et détecter les menaces associées. Par exemple, si les accords numériques sont exécutés dans des environnements vidéo, il peut être nécessaire d'intégrer une preuve d'identité dans l'environnement vidéo. Une approche similaire serait recommandée pour d'autres environnements, tels que les virements électroniques ou les applications mobiles.

Digipass CX personal security device
OneSpan's DIGIPASS CX personal security devices

En outre, étant donné le pouvoir de l'IA de "falsifier" l'authenticité des accords commerciaux et des artefacts de transaction, et potentiellement de "falsifier en profondeur" tout ce qui va d'un contrat commercial à un acte de propriété, la blockchain aura un rôle crucial à jouer lorsqu'il s'agira de prouver et de défendre l'identité.

Une dernière remarque concernant la protection de l'intégrité des accords numériques, en relation avec une IA susceptible de changer d'avis. Le défi fondamental auquel nous sommes confrontés est le suivant : si l'IA vous dit une chose un jour et quelque chose de différent le lendemain, comment pouvez-vous savoir ce qui est vrai ?

La réponse se résume à la capacité de stocker la preuve de ce qui a été communiqué à l'origine par le biais de mesures d'archivage sécurisées. Que la communication initiale ait été véridique ou non, la capacité d'accéder à des preuves non réfutables de ce qui a été fait, par qui, quand et comment, sera le nouveau pétrole dans un monde dominé par l'IA.

Catalogue de cas d'utilisation du produit OneSpan
E-book

Catalogue de cas d'utilisation

Notre portefeuille de solutions permet à vos clients de bénéficier d'expériences sécurisées et simples de bout en bout. Découvrez comment.

Lire la suite

Ajay Keni is OneSpan’s Chief Technology Officer. Ajay brings more than 20 years of experience as a technologist and software engineer leading teams to build world-class products and services focused on delivering an exceptional customer experience and security in the cloud.