L'IA s'est généralisée - Innovons et réglementons

Will LaSala,

Il y a environ deux mois, certains poids lourds de l'industrie technologique, tels qu'Elon Musk et Steve Wozniak, ont publié une lettre ouverte appelant à une pause dans la recherche et le développement de l'IA. Cette lettre a été signée par plus de 1 000 dirigeants et chercheurs du secteur technologique.

Malgré les appels à une pause, la lettre n'a manifestement pas arrêté la progression de l'IA. En fait, elle n'a même pas arrêté certains de ses signataires, puisque Elon Musk a annoncé le développement de TruthGPT, son propre rival de ChatGPT. Cependant, comme de nombreux chercheurs, experts en technologie et consommateurs sont préoccupés, la question reste de savoir comment nous pouvons nous assurer que l'IA générative ne pose pas de risque pour la société, l'humanité et la sécurité

Pouvons-nous réellement mettre en pause le développement de l'IA générative ? La réponse courte est non. Récemment, le créateur de ChatGPT, Sam Altman, a témoigné devant le Congrès en mai pour discuter de cette question, appelant à une réglementation généralisée. L'IA existe depuis de nombreuses années et alimente déjà une grande partie de nos activités. Jusqu'à la publication de ChatGPT à la fin de l'année dernière, personne ne comprenait vraiment le pouvoir de transformation de l'IA générative. Maintenant que les entreprises et les particuliers commencent à comprendre son potentiel et que les obstacles à l'accessibilité ont été levés, nous avons vu s'accélérer l'adoption de l'IA et la recherche dans ce domaine, ainsi que les discussions sur la réglementation de son utilisation. L'analyse des données et les réponses basées sur des règles ont été les roues d'entraînement de l'industrie de l'IA et, maintenant que nous avons progressé, il est impossible de revenir en arrière.

En outre, tenter de mettre en pause les progrès de l'IA n'est pas sans conséquences, en particulier du point de vue de la sécurité. Si les entreprises étrangères poursuivent le développement de l'IA générative, les utilisateurs américains finiront par utiliser les versions étrangères à mesure qu'elles deviendront plus performantes. Cela pourrait mettre des informations potentiellement sensibles entre les mains d'entreprises étrangères dont les règles de sécurité sont plus souples, ce qui entraînerait des risques supplémentaires pour la vie privée et l'identité dans notre pays.

Quels sont les risques de l'IA ?

Pour bien comprendre pourquoi certains experts demandent une pause dans le développement de l'IA, il est important de comprendre d'abord les risques que présente l'IA générative. D'un point de vue cybernétique, nous voyons déjà des pirates utiliser des outils d'IA générative pour créer des attaques de phishing plus réalistes, imitant les marques et le ton ou traduisant plus facilement les textes en plusieurs langues, ce qui les rend plus difficiles à identifier et permet aux pirates d'entrer facilement en contact avec des publics internationaux.

Les attaquants peuvent également utiliser la technologie de l'IA pour créer des "deepfakes". La capacité à faire la différence entre le réel et l'artificiel - qu'il s'agisse d'informations, de vidéos, de musique ou autre - continuera à brouiller les pistes pour les consommateurs. D'un point de vue macroéconomique, cette technologie a la capacité d'éroder davantage la confiance sur l'internet et de contribuer à la diffusion de fausses informations. Les internautes devront constamment se demander si l'image, la vidéo ou l'information qu'ils trouvent est "réelle". Récemment, une image du pape générée par l'IA, avec un manteau blanc et un crucifix orné de bijoux, est devenue virale, trompant des milliers de personnes. Bien qu'il s'agisse d'un exemple relativement bénin, les attaquants peuvent également utiliser la technologie pour créer de fausses images ou des clips vidéo ou audio qui ruinent la réputation de personnes très en vue.

Quels sont les avantages de l'IA ?

Malgré les risques, l'IA générative a le potentiel de changer la donne. Les tâches personnelles ont déjà commencé à passer dans le monde de l'IA, certains utilisant l'IA générative pour créer des plans de repas, des itinéraires de voyage et des emplois du temps professionnels, permettant ainsi aux utilisateurs de se concentrer sur d'autres tâches plus prioritaires.

L'IA générative peut également servir d'outil "low-code" ou "no-code". Les organisations peuvent l'utiliser pour créer des produits entièrement nouveaux qui sont décrits par l'homme au lieu d'être développés par un codeur. Cela réduit considérablement le coût et les barrières techniques à l'entrée pour de nombreux produits. Certains diront que cela permet aux acteurs de la menace de générer rapidement des logiciels malveillants. Toutefois, la fonctionnalité de l'IA générative rendra les applications plus sûres et plus difficiles à pénétrer pour les acteurs de la menace. Nous devons tirer parti de l'IA pour lutter contre l'IA.

L'IA générative peut analyser le code à la recherche de vulnérabilités de sécurité plus rapidement et plus efficacement, libérant ainsi les experts en sécurité pour des tâches moins fastidieuses et moins chronophages. Nous voyons déjà des entreprises technologiques, telles que Microsoft, intégrer des assistants IA dans des applications de sécurité afin d'aider les équipes chargées des produits, du développement et de la sécurité à détecter, identifier et hiérarchiser les menaces. Idéalement, cette technologie devrait créer moins de vulnérabilités, et non plus, car l'IA détectera et corrigera les problèmes avant que les acteurs de la menace ne les exploitent. Et comme l'IA générative apprend davantage au fur et à mesure que les humains lui fournissent des données, les équipes de sécurité peuvent l'intégrer dans leur processus de développement pour créer un code de plus en plus sûr.

Nous sommes à la pointe de cette technologie et nous n'avons pas encore pleinement conscience de ce qu'elle peut faire. Comme pour la plupart des technologies, la question de savoir si nous considérons l'IA comme un avantage ou un inconvénient pour la société dépend de la manière dont elle est utilisée.

Nous ne pouvons pas revenir sur l'IA générative. Les acteurs de la menace et les cybercriminels ne cesseront pas d'utiliser l'IA en raison d'une interdiction. Nous devons continuer à développer la technologie et à l'utiliser à des fins positives. Bien que l'IA présente certains défis pour la société en termes de pertes d'emplois potentielles qui pourraient entraîner certaines perturbations, il est possible de coordonner ces avancées techniques avec une surveillance raisonnable : nous l'avons déjà fait à maintes reprises.

Ce blog, rédigé par Will LaSala, Field CTO chez OneSpan, a été publié pour la première fois sur SC Media le 24 mai 2023.

Innovation numérique

La sécurité repensée

Alors que l'innovation numérique nous propulse vers l'avant, les entreprises devront adapter leurs processus d'affaires pour saisir le potentiel du moment.

EN SAVOIR PLUS

Will LaSala est le directeur des solutions de sécurité chez OneSpan.Il a rejoint l'entreprise en 2001 et apporte plus de 25 ans d'expérience dans les logiciels et la cybersécurité. Depuis qu'il a rejoint OneSpan, Will a été impliqué dans tous les aspects de la mise en œuvre des produits et de la direction du marché au sein des institutions financières.