03/23/2026 | Press release | Distributed by Public on 03/23/2026 11:49
Le contenu du présent rapport reflète les points de vue et les idées des conférenciers et des participants du FIASSF. Le rapport ne doit pas être interprété comme une orientation de la part de la Banque du Canada, du ministère des Finances Canada, de l'Agence de la consommation en matière financière du Canada, du Centre d'analyse des opérations et déclarations financières du Canada, du Bureau du surintendant des institutions financières ou de tout autre organisme de réglementation, et il ne reflète pas nécessairement les points de vue actuels ou futurs de ces entités.
Avant-propos
Cette phase du FIASSF vise à mieux comprendre la façon dont les technologies d'intelligence artificielle transforment le secteur d'aujourd'hui et de demain. Il s'agit tout autant de saisir les occasions que d'élaborer des stratégies efficaces de gestion des risques liés à l'intelligence artificielle, deux éléments de plus en plus importants pour le secteur. [Traduction libre]
Trois ans se sont écoulés depuis que le Bureau du surintendant des institutions financières (BSIF) et le Global Risk Institute (GRI) ont lancé le Forum sur l'intelligence artificielle dans le secteur des services financiers (FIASSF), qui réunit des experts du secteur financier, du milieu universitaire et des organismes de réglementation ainsi que des décideurs.
Aujourd'hui, le rythme rapide de l'évolution technologique et de l'adoption de l'intelligence artificielle (IA) met en évidence la nécessité d'une collaboration renouvelée entre les secteurs public et privé, ce qui a mené à la phase II du FIASSF, dont l'objectif général est composé des deux points suivants :
Ce rapport final de la deuxième édition du FIASSF décrit les risques et les possibilités liés à l'IA soulevés lors des ateliers du forum et présente le cadre AGILE qui aidera les intervenants du secteur financier à faire face à l'évolution des répercussions de l'IA.
Les organisateurs souhaitent exprimer leur profonde gratitude aux plus de 170 participants qui ont fait connaître leur point de vue tout au long des discussions lors de la deuxième édition du FIASSF. Parmi les participants figuraient des représentants de banques, des assureurs, des gestionnaires d'actifs, des sociétés non financières, des défenseurs des droits des consommateurs, des universités, des instituts de recherche, des organismes gouvernementaux et des organismes de réglementation. Tous se sont engagés à trouver un juste équilibre entre les possibilités et les risques inhérents à la progression continue de l'IA au sein des services financiers et dans le contexte plus vaste qui touche le secteur.
Global Risk Institute
Bureau du surintendant des institutions financières
Ministère des Finances Canada
Centre d'analyse des opérations et déclarations financières du Canada
Agence de la consommation en matière financière du Canada
Banque du Canada
Renseignements généraux
La première phase des discussions abordées durant le FIASSF portait sur les risques internes associés au développement, au déploiement et à l'utilisation de l'IA au sein des institutions financières. Selon le rapport de la première édition du FIASSF, Une perspective canadienne sur l'intelligence artificielle responsable,Note de bas de page 1 les principes EDGE (Explicabilité, Données, Gouvernance et Éthique) sont les piliers d'une adoption responsable de l'IA dans l'ensemble du secteur financier. Le rapport encourage l'adoption de règlements harmonisés qui reflètent les valeurs canadiennes tout en favorisant l'innovation. Le respect des principes EDGE implique une explicabilité et une divulgation appropriées; des approches axées sur le consommateur qui respectent les valeurs éthiques et protègent la vie privée; et une gouvernance solide fondée sur le risque appuyée par de saines pratiques en matière de données et une collaboration multidisciplinaireNote de bas de page 2.
Les participants étaient d'avis que les institutions financières canadiennes se sont généralement alignées sur les principes EDGE. Evident Insights, une entreprise indépendante qui analyse l'utilisation de l'IA dans le secteur bancaireNote de bas de page 3 et le secteur des assurancesNote de bas de page 4, a classé les cinq plus grandes banques du Canada et deux assureurs canadiens parmi les quinze premières organisations à l'échelle mondiale pour ce qui est de la transparence des activités d'IA responsable en 2025.
Depuis la première édition du FIASSF, les risques liés à l'IA ont dépassé la portée des principes EDGE en raison de l'adoption rapide de l'IA dans le secteur financier, des progrès technologiques importants et des répercussions croissantes de l'IA sur l'environnement de risque externe. C'est pourquoi, lors de la deuxième édition du FIASSF, des discussions approfondies ont été menées sur l'escalade des cybermenaces, le risque lié aux tiers, les répercussions sur le bien-être financier et la protection des consommateurs, la criminalité financière et les répercussions sur la stabilité financière.
La deuxième édition du FIASSF traduit bien l'engagement commun du secteur, du gouvernement et des organismes de réglementation à miser sur la collaboration pour réaliser des progrès. Entre mai et novembre 2025, quatre ateliers parrainés par le GRI conjointement avec le BSIF, le ministère des Finances, le Centre d'analyse des opérations et déclarations financières du Canada (CANAFE), l'Agence de la consommation en matière financière du Canada (ACFC) et la Banque du Canada ont permis aux participants d'examiner les risques, les mesures d'atténuation et les possibilités liés à l'IA. Les rapports provisoires portaient sur les sujets suivants :
Ce rapport final, éclairé par les ateliers respectifs et les points de vue des participants, décrit les risques critiques et affirme que l'adoption continue et responsable de l'IA est nécessaire à la fois pour la résilience concurrentielle et la gestion efficace des risques inhérents à l'IA ainsi que pour une défense accrue contre les menaces externes sophistiquées. Les principes EDGE demeurent le fondement d'une adoption responsable, tandis que la « souplesse » est apparue comme un thème central pour orienter un secteur qui doit évoluer de façon dynamique afin de permettre de saisir les avantages de l'IA tout en réagissant aux risques qui évoluent rapidement.
Sommaire
L'IA est une force de transformation à la fois impressionnante et potentiellement dangereuse. Son effet réel dépendra d'une innovation disciplinée et responsable ainsi que d'une solide collaboration sectorielle et internationale.
L'IA est en voie de transformer les services financiers à l'échelle mondiale, et redéfinit les modèles d'exploitation et la dynamique concurrentielle. L'automatisation et l'augmentation humaine peuvent accroître l'efficacité, améliorer les décisions et renforcer la compétitivité, mais seulement lorsque l'innovation s'aligne sur une gouvernance fondée sur des principes pour maintenir la confiance et la résilience. Le secteur financier canadien, qui dispose de solides bases de données et d'une culture disciplinée en matière de risque, est particulièrement bien placé pour orienter de manière responsable l'adoption de l'IA tout en favorisant une productivité et une croissance importantes. Parallèlement, l'IA transforme le paysage du risque, ce qui pourrait avoir des répercussions systémiques. Plus important encore, l'IA permet aux fraudeurs et aux cybercriminels de mener leurs activités à une vitesse, à une échelle et avec une sophistication sans précédent. Les institutions ont de plus en plus besoin d'IA non seulement pour soutenir la concurrence, mais aussi pour renforcer leurs défenses et leur gestion des risques.
Les discussions de la deuxième édition du FIASSF ont fait ressortir un ensemble plus vaste de secteurs critiques qui nécessitent une attention particulière. Les institutions doivent gérer les risques stratégiques face aux pressions concurrentielles, aux risques d'exécution et aux défis de gouvernance liés à l'adoption rapide de l'IA. De plus, l'IA intensifie les menaces à la sécurité des organisations, qu'il s'agisse du harponnage automatisé ou de l'utilisation d'identités synthétiques visant à infiltrer les organisations dans le cadre du processus d'embauche. Les applications destinées aux consommateurs comportent leurs propres risques, car les lacunes en matière de transparence, d'explicabilité et de responsabilité peuvent exposer les consommateurs à des biais, à la fraude et à d'autres préjudices. En même temps, les pénuries de talents et le perfectionnement inégal des compétences peuvent ralentir l'innovation responsable. La dépendance croissante à l'égard d'un petit nombre de fournisseurs d'IA et à des chaînes d'approvisionnement en IA opaques accentue la fragilité systémique. De façon plus générale, les perturbations opérationnelles causées par l'IA, les comportements commerciaux corrélés et les répercussions potentielles du risque de crédit créent de nouveaux défis d'instabilité financière.
Dans cette optique, le rapport de la deuxième édition du FIASSF présente le cadre AGILE - Awareness (prise de conscience), Guardrails (garde-fous), Innovation (innovation), Learning (apprentissage), Ecosystem Resiliency (résilience des écosystèmes) - et suggère la mise en œuvre de priorités pour gérer les risques et saisir les occasions liées à l'IA :
Le secteur financier canadien se trouve à un moment charnière. Les choix stratégiques faits maintenant façonneront la concurrence, la résilience et la confiance pour les années à venir. Les avantages de l'IA sont à portée de main, mais seulement grâce à des mesures délibérées permettant d'établir l'équilibre entre l'innovation et une solide gestion des risques et la confiance des consommateurs.
En adoptant un cadre AGILE, le secteur peut renforcer la croissance tout en préservant la stabilité et le bien-être des consommateurs. C'est l'occasion pour le secteur financier canadien de jouer un rôle de chef de file dans l'innovation en matière d'IA et d'établir une norme nationale en matière de confiance, de sécurité et de productivité.
L'environnement en évolution des risques liés à l'IA
L'IA engendre de plus en plus de risques critiques, tant à cause de l'adoption croissante de l'IA au sein des institutions que des effets généraux de l'IA sur l'environnement de risque externe. L'urgence de gérer ces risques permet de reconnaître qu'une adoption responsable et continue de l'IA est nécessaire, tant pour assurer la résilience concurrentielle que pour se défendre contre les menaces plus sophistiquées liées à cette technologie. Bien que les risques décrits ci-dessous représentent un aperçu des risques au moment des ateliers, les intervenants du secteur s'attendent à ce que le paysage des risques évolue rapidement et de manière imprévue.
1. Risques stratégiques
Le plus grand risque est de ne pas en faire assez.
Rythme d'adoption : Adopter trop rapidement l'IA sans une gestion adéquate des risques peut entraîner des préjudices potentiels pour les activités et les consommateurs. À l'inverse, une approche trop lente peut entraîner des occasions manquées et des désavantages concurrentiels (par exemple, des perturbations potentielles causées par des entreprises technologiques et d'autres nouveaux venus).
Approche fragmentée ou à court terme : Une stratégie d'IA précipitée, incomplète ou rigide peut entraîner des lacunes importantes dans les données, les technologies, les infrastructures, les modèles d'affaires et les résultats pour les consommateurs (y compris la protection des consommateurs et leur bien-être financier). La mise en œuvre isolée de systèmes d'IA risque de créer des problèmes à long terme et augmente le risque d'exécution. Il s'agit souvent du résultat de déploiements poussés par l'engouement, où l'IA est adoptée sans planification stratégique à long terme appropriée ni mesures de réussite. Des attentes irréalistes de la part de la haute direction peuvent amplifier ce risque, tout comme le fait de se concentrer sur l'obtention de résultats rapides plutôt que sur l'intégration de l'IA à long terme.
Ressources limitées : L'adoption efficace de l'IA nécessite une expertise, une infrastructure et des capitaux importants. Un sous-investissement dans l'IA limite la capacité du secteur à détecter les cybermenaces, la fraude, les crimes financiers et les risques systémiques émergents. Cela réduit également les possibilités d'utiliser l'IA pour améliorer la productivité dans les activités de base et pour libérer des capacités de façon à accroître la valeur de la gestion des risques, de la supervision et de l'innovation. La concurrence pour les budgets d'investissement et de recherche et développement est féroce, les petites institutions et les entités du secteur public étant particulièrement mises à rude épreuve dans ce domaine.
Stratégie et qualité des données : La performance de l'IA dépend d'une stratégie de données efficace qui accorde la priorité à la gouvernance et à la qualité des données. Dans un rapport sur l'IA publié en 2024 par le BSIF et l'ACFC, les institutions financières fédérales ont indiqué que les risques liés aux données constituaient une des principales problématiques entourant le déploiement de l'IANote de bas de page 5. Des données incohérentes ou incomplètes et fragmentées entre les plateformes (y compris celles de tiers et de stockage à l'étranger) peuvent susciter des préoccupations accrues en matière de souveraineté des données, des risques d'atteinte à la vie privée des consommateurs et des défis en matière de surveillance réglementaire. Des flux de travail de données complexes sans traçabilité et gouvernance appropriées ne font qu'aggraver ces problèmes. La qualité inférieure aux normes des données mine les gains d'efficience et augmente la probabilité de résultats préjudiciables (p. ex. préjudice causé aux consommateurs, perte de confiance et défaillances dans les rapports sur la lutte contre le blanchiment d'argent).
Incertitude réglementaire liée à l'IA : La réglementation du secteur financier au Canada couvre 14 administrations, créant une multitude de lignes directrices, de règlements et de lois qui doivent être respectés, ce qui pourrait créer des coûts opérationnels indirects. De plus, de nombreuses institutions financières au Canada exercent également leurs activités à l'étranger. Bien que le nombre d'orientations propres à l'IA par les organismes de réglementation financière canadiens ait été limité, les institutions financières peuvent hésiter à investir dans l'IA et à la déployer s'il y a une incertitude perçue quant aux obligations de conformité ou à la possibilité de contraintes réglementaires futures.
2. Menaces à la sécurité et à la cybersécurité
L'intelligence artificielle permet une détection plus intelligente de la fraude, des enquêtes plus rapides et une conformité plus adaptative. Cependant, elle introduit également de nouveaux risques qui évoluent tout aussi rapidement que la technologie elle-même. [Traduction libre]
Piratage psychologique et fraude à l'identité synthétique : Comme l'a fait remarquer Michael Barr du Conseil des gouverneurs de la Réserve fédérale américaine en avril 2025 : « Les attaques d'hypertrucage se sont multipliées par vingt au cours des trois dernières années. »Note de bas de page 6 L'IA peut permettre de réaliser des hypertrucages percutants avec un minimum d'information, souvent obtenue sur les médias sociaux. L'essor de ces attaques a accru l'importance de l'identification et de l'authentification numériques sécurisées. Le Canada, comme la plupart des pays, ne dispose pas d'une identité numérique sécurisée universellement adoptée, de sorte que l'identité pourrait être une source d'attaque clé dans les environnements d'intégration, de canaux de consommation et de travail à distance. Dans un cas notable, les identités synthétiques générées par l'IA ont permis à des agents étrangers d'obtenir un emploi à distance dans des entreprises nord-américaines, ce qui leur a permis d'accéder à des systèmes et à des données internesNote de bas de page 7.
Usurpation de la voix et fraude en tant que service : Une enquête menée en 2024 dans le secteur a révélé que 91 % des institutions financières dans le monde remettent en question les systèmes de vérification vocale en raison des capacités de clonage vocal de l'IANote de bas de page 8. Les centres d'appels et les services d'assistance informatique sont également vulnérables, car l'IA peut permettre de se faire passer pour des employés ou des clients de manière convaincante afin de demander de nouveaux appareils, de réinitialiser des mots de passe ou d'obtenir des identifiants d'accès. L'IA a également accéléré l'utilisation de la fraude en tant que service, grâce à laquelle les criminels peuvent acheter des outils clés en main alimentés par l'IA, ce qui augmente considérablement l'ampleur, la vitesse et la sophistication de la fraude financière.
Cyberattaques assistées par l'IA : L'IA permet aux auteurs de menaces d'automatiser, d'accélérer et de personnaliser plus facilement les cyberattaques. Les obstacles à l'accès sont moins élevés et les capacités sont plus grandes. Simultanément, la surface d'attaque globale s'est élargie à mesure que les institutions financières mettent en œuvre de plus en plus de systèmes d'IA orientés vers l'extérieur. Les vulnérabilités potentielles s'étendent aux organismes de réglementation et au gouvernement parce qu'ils possèdent des données sensibles importantes. Les groupes organisés peuvent utiliser l'IA pour intensifier les cyberopérations et les opérations de fraude et pour faciliter le blanchiment d'argent et le contournement de sanctions. Les agents de l'IA pourraient automatiser des attaques en plusieurs étapes de bout en bout, ce qui réduirait davantage les obstacles et leur ispermettrait de déployer des attaques à plus grande échelle. En 2025, la société d'intelligence artificielle Anthropic a fait savoir qu'elle avait interrompu une opération orchestrée par un groupe parrainé par un État dans le but de manipuler l'un des modèles de la société pour s'attaquer de façon autonome à des entreprises et des gouvernementsNote de bas de page 9.
Désinformation et mésinformation : La désinformation et la désinformation peuvent se répandre rapidement en raison de l'omniprésence des médias sociaux et de l'environnement politique de plus en plus polarisé. L'utilisation de l'IA peut permettre le déploiement à grande échelle d'une campagne de désinformation malveillante, qui pourrait ensuite être amplifiée par la désinformation. Par exemple, l'hypertrucage et les robots automatisés peuvent permettre de diffuser des allégations fausses ou trompeuses sur la solvabilité d'une banque, des mesures réglementaires ou la stabilité du système, des actions qui peuvent rapidement miner la confiance.
3. Risques pour les consommateurs
[Cet atelier] est une façon de vérifier que l'innovation sur les marchés financiers est non seulement tournée vers l'avenir et efficace, mais aussi fondée sur l'équité, la transparence et un engagement ferme envers la protection des consommateurs. [Traduction libre]
Confiance et bien-être des consommateurs : Les applications d'IA qui ont une incidence sur les consommateurs - comme les recommandations de produits, la prise de décision en matière de crédit, la souscription et les conseils en matière de placements - sont de plus en plus répandues. À mesure que de telles applications augmentent et deviennent de plus en plus intégrées aux activités internes des institutions financières canadiennes, les piliers de la confiance des consommateurs que sont la transparence, l'explicabilité et la responsabilisation prennent de plus en plus d'importance. De nombreux consommateurs ne savent peut-être pas quand l'IA est en cause ou peuvent s'interroger sur la façon dont ces systèmes parviennent à prendre des décisions. Cet enjeu s'intensifie avec l'IA générative et l'IA agentique, qui peuvent faire en sorte qu'il est plus difficile d'expliquer l'ensemble des décisions. La divulgation et le consentement sont étroitement liés à l'explicabilité et à la transparence, tandis que les cadres de responsabilisation et le traitement des plaintes doivent suivre le rythme des services axés sur l'IA afin de réduire la possibilité de résultats négatifs pour les consommateurs. Ces défis s'intensifient lorsque les consommateurs utilisent des outils et des produits libre-service alimentés par l'IA, qui offrent moins de possibilités de surveillance humaine.
Biais et sécurité des données : Des résultats injustes découlant de données incomplètes ou biaisées risquent d'éroder la confiance des consommateurs à l'égard des systèmes d'IA. L'utilisation de données inférées ou provenant d'autres sources pour personnaliser les produits peut créer des variables de substitution cachées pour des renseignements identifiables, exposant ainsi les consommateurs à un profilage non intentionnel. Cette dynamique peut amplifier les biais indésirables dans la prise de décision fondée sur les technologies et désavantager systématiquement les consommateurs à grande échelle. Des flux de données de plus en plus complexes, qui comprennent souvent de multiples systèmes tiers, augmentent les vulnérabilités auxquelles les consommateurs sont exposés en ce qui concerne la confidentialité et la sécurité. Le risque est augmenté par les cadres de gouvernance des données qui accusent un retard dans l'adoption de l'IA.
Exposition accrue aux tentatives de fraude : L'IA élargit la portée et la sophistication de la fraude et des activités criminelles connexes. Les fraudes personnalisées exploitent les données sur les consommateurs et les comportements de ceux-ci, ce qui les rend plus persuasives et plus difficiles à détecter. Il peut être de plus en plus difficile pour les consommateurs de distinguer les communications légitimes des fraudes générées par l'IA, ce qui les expose à un risque accru et érode la confiance générale dans le secteur financier canadien. L'ampleur réelle du problème est inconnue, car le Centre antifraude du Canada (CAFC) estime que de 90 à 95 % des fraudes ne sont pas signaléesNote de bas de page 10. En l'absence de mesures proactives pour contrer ces menaces, certains consommateurs peuvent avoir l'impression que leur institution financière ne les protège pas suffisamment.
Inégalité d'accès : L'IA pourrait creuser le fossé numérique entre les personnes qui ont accès aux technologies numériques et celles qui n'y ont pas accès. Même parmi les personnes qui y ont accès, le manque de savoir-faire et de confiance en ce qui concerne l'IA peut limiter la capacité à tirer parti des services axés sur cette technologie. En l'absence d'une approche réfléchie, l'IA pourrait exacerber les inégalités existantes auxquelles font face certains groupes, notamment les personnes et les ménages à faible revenu, les nouveaux arrivants au Canada, les communautés autochtones, les personnes âgées et les Canadiens en situation de handicap.
4. Lacunes en matière de connaissances et de talents
Alors que les technologies continuent d'évoluer rapidement, il est important pour nous d'accueillir de nouveaux diplômés qui sont fondamentalement à l'aise avec le numérique et qui apportent de nouvelles perspectives. Nous accordons également la priorité à l'apprentissage et au perfectionnement continus de nos employés, de nos dirigeants et des membres de notre conseil d'administration, pour que chacun comprenne les outils les plus récents et sache comment les utiliser pour tirer parti des occasions émergentes. [Traduction libre]
Pénuries de talents en IA : Alors que l'IA devient de plus en plus essentielle pour les services financiers, la rareté des talents exceptionnels dans ce domaine constitue une menace potentiellement importante pour la capacité d'une entreprise à mener ses activités en toute sécurité, à exécuter sa stratégie et à être concurrentielle. Elle met également en péril la capacité de réglementation nécessaire pour encadrer l'évolution rapide du secteur et les risques systémiques complexes amplifiés par l'IA. Bien que les universités canadiennes forment des milliers de spécialistes en IA chaque année, l'offre demeure insuffisante, surtout en ce qui concerne les personnes qui possèdent également des connaissances dans le secteur financier. Les institutions financières canadiennes peuvent avoir de la difficulté à rivaliser avec les régimes de rémunération considérablement plus élevés offerts par les entreprises technologiques étrangères. De même, les organismes de réglementation sont limités dans leur capacité d'égaler la rémunération du secteur privé ou de fournir un accès à des technologies de pointe. L'expertise en IA est concentrée dans les grandes institutions; les petites entreprises peuvent n'en avoir que peu ou pas du tout.
Lacunes dans l'apprentissage de l'IA : La lenteur à perfectionner les compétences de la main-d'œuvre ou l'incapacité à le faire pourrait entraver la capacité des institutions à prospérer dans un monde de plus en plus dominé par l'IA. Par ailleurs, une connaissance et une confiance limitées de l'IA parmi les consommateurs, en particulier les groupes vulnérables, pourraient les empêcher de profiter des services améliorés par l'IA et les exposer à un plus grand risque d'être victimes d'escroquerie ou de fraude.
Utilisation potentiellement abusive de l'IA : Un grand modèle de langage (GML) peut générer des renseignements entièrement fabriqués qui semblent faire autorité (ce que l'on appelle des hallucinations). Il y a eu des incidents où des chiffres, des références et des relevés non vérifiés générés par un GML ont mené à des erreurs importantes. La méconnaissance de l'hallucination de l'IA et d'autres lacunes dans les connaissances sur cette technologie représentent un risque évident pour les consommateurs et les organisations.
Décalage de la vitesse d'apprentissage : Les GML qui semblaient révolutionnaires en 2023 sont maintenant considérés comme primitifs. Les personnes et les organisations peuvent avoir de la difficulté à suivre le rythme du changement. Lorsqu'une institution met au point une formation complète sur l'IA, la technologie a peut-être déjà évolué. Par exemple, le rythme des progrès réalisés par les auteurs de menaces dans leurs techniques de piratage psychologique dépasse rapidement celui des programmes de formation internes. De même, les techniques de blanchiment d'argent fondées sur l'IA évoluent souvent plus rapidement que les capacités de détection et que l'élaboration et le déploiement des formations connexes.
5. Risques liés à la concentration des tiers et à la chaîne d'approvisionnement
À mesure que l'adoption de l'IA s'accélère, la concentration des tiers et la dépendance à la chaîne d'approvisionnement deviennent des sources fondamentales de risque systémique. Les institutions financières ne doivent pas se contenter d'évaluer la résilience individuelle des fournisseurs; elles doivent comprendre où les dépendances communes, la visibilité limitée et les points de défaillance uniques pourraient amplifier les perturbations dans l'ensemble du système. [Traduction libre]
Risque lié à la chaîne d'approvisionnement de l'IA et à la concentration des tiers : La dépendance croissante à l'IA englobe les données, les modèles, les composants logiciels (y compris le code source ouvert) ainsi que l'infrastructure informatique et infonuagique. Les tiers fournisseurs de services d'IA dépendent souvent d'autres parties par l'intermédiaire de chaînes d'approvisionnement complexes ou à plusieurs niveaux. Les perturbations ou les compromissions à n'importe quel niveau peuvent se propager à l'ensemble des institutions. De plus, l'adoption de l'IA accroît la dépendance des institutions financières à l'égard d'un petit groupe de tiers fournisseurs de technologies. La panne attribuable à la société CrowdStrike en juillet 2024 a entraîné une perte financière estimée à 5,4 milliards de dollars pour les entreprises du classement Fortune 500 (à l'exclusion de Microsoft)Note de bas de page 11, ce qui illustre les répercussions systémiques des points de défaillance uniques. Les petites et moyennes institutions peuvent être plus exposées parce qu'elles dépendent souvent proportionnellement davantage des fournisseurs externes.
Manque de visibilité et de contrôle : Les risques découlent de la visibilité et de la transparence limitées des contrôles et des pratiques de tiers en ce qui concerne les données, la gouvernance, la sécurité et les risques liés aux modèles. Les institutions financières sont responsables de l'utilisation des services de tiers, mais elles ont peu de contrôle pour s'assurer que ceux-ci respectent leurs attentes. Un échec de la sécurité causé par un modèle d'IA tiers peut exposer des données sensibles, accroître la vulnérabilité aux attaques antagonistes et entraîner la perte de propriété intellectuelle tout en érodant la confiance des consommateurs. Compte tenu de la taille et de l'influence de certains tiers fournisseurs, même les plus grandes institutions financières du Canada peuvent avoir une influence limitée en ce qui a trait aux conditions contractuelles, à la transparence opérationnelle ou aux délais de correction. La visibilité des relations avec les quatrièmes et les cinquièmes parties est particulièrement limitée dans le contexte des services d'IA, où les institutions financières manquent souvent de précisions sur la façon dont les modèles ont été formés, les données utilisées et les autres entités intégrées à la chaîne d'approvisionnement. On s'attend à ce que l'introduction d'un système bancaire ouvert élargisse davantage l'écosystème des tiers et des « nièmes parties », augmentant à la fois la complexité et l'ampleur du risque que les institutions doivent gérer.
Souveraineté et surveillance des fournisseurs essentiels : De nombreux fournisseurs essentiels exercent leurs activités à l'extérieur du périmètre réglementaire financier, ce qui limite la capacité de déterminer la probabilité et les répercussions possibles de défaillances du système et ce qui complique la surveillance réglementaire. Les architectures infonuagiques mondiales et l'infrastructure nationale limitée signifient que de nombreux services d'IA et les données connexes se trouvent à l'étranger, ce qui expose les institutions aux régimes juridiques étrangers et aux risques géopolitiques.
6. Risques pour la stabilité financière
[Nous devons] mieux comprendre l'IA et son rôle dans le secteur financier et atténuer les risques que cette technologie représente pour la stabilité financière. Mieux comprendre ces points peut dissiper des craintes non fondées et ainsi permettre aux décideurs politiques d'aligner leurs efforts de surveillance sur les vulnérabilités liées à l'IA les plus importantes. » [Traduction libre]
Chocs opérationnels : L'incidence des pannes de système internes, des incidents portant atteinte à la réputation et des fuites de données peut être amplifiée par la croissance rapide de l'IA. À mesure que les systèmes fondés sur l'IA sont intégrés aux processus essentiels, les institutions sont davantage exposées à des risques, tels que les défaillances des modèles, la corruption des données et les mauvais comportements des systèmes, y compris les fournisseurs d'infrastructures essentielles qui soutiennent le secteur (p. ex. les paiements et les télécommunications). Les risques liés à la lutte contre le blanchiment d'argent (LBA) peuvent également être élevés parce que les institutions ne voient souvent qu'une certaine partie des réseaux criminels qui couvrent les marchés financiers, les casinos, les fournisseurs de services de paiement et les flux transfrontaliers.
Volatilité des marchés : De nombreux algorithmes et modèles de négociation alimentés par l'IA sont entraînés sur des données similaires, ce qui peut intensifier la volatilité des marchés, en particulier à court terme. Si les modèles de négociation fondés sur l'IA évoluent de concert, cela pourrait entraîner des changements procycliques sur les marchés financiers en période de crise. Les participants des marchés non réglementés qui utilisent des outils d'IA peuvent miner davantage la résilience systémique. Les marchés boursiers et les dérivés négociés en bourse sont des secteurs de vulnérabilité possibles.
Interruption du travail et des activités : Le Fonds monétaire international (2024) estime que 60 % des emplois dans les économies avancées seront touchés par l'automatisation de l'IANote de bas de page 12. Selon une étude de Citi (2024), 54 % des emplois du secteur financier pourraient disparaître en raison de l'IA, soit le pourcentage le plus élevé parmi les principaux secteursNote de bas de page 13. Alors que les transformations technologiques ont historiquement permis de créer de nouveaux rôles, la vitesse sans précédent des progrès réalisés dans le domaine de l'IA suggère que la disparition de certains emplois pourrait se produire plus rapidement que le recyclage de la main-d'œuvre, créant ainsi une période de transition cruciale. L'automatisation pilotée par l'IA aura également une incidence sur les entreprises des secteurs de la fabrication, de la vente au détail, des transports, des services professionnels et d'autres secteurs qui constituent l'épine dorsale de l'économie canadienne. Cette perturbation à l'échelle de l'économie pose des risques systémiques pour les institutions financières, notamment en ce qui concerne l'augmentation du risque de crédit pour les entreprises et les particuliers touchés. Cela pourrait conduire à une économie en forme de K, où certains prospèrent tandis que d'autres ont de moins en moins d'occasions, un scénario selon lequel les prêteurs pourraient faire face à un risque de défaut accru.
Lacunes dans l'échange de renseignements sur les menaces : Il existe actuellement des canaux établis par lesquels les renseignements sur les menaces circulent entre les institutions financières, d'autres secteurs essentiels et les organismes gouvernementaux. Cependant, divers facteurs peuvent entraver la circulation optimale de ces renseignements. Par conséquent, les auteurs de menaces peuvent vraisemblablement attaquer plusieurs institutions et secteurs avant que les mécanismes de défense n'aient le temps de s'adapter. Les canaux actuels d'échange de renseignements peuvent connaître des retards dans l'anonymisation des renseignements, ce qui limite leur capacité à faciliter des interventions en temps réel en cas de fraude, de cyberattaques ou d'incidents impliquant des tiers. La dynamique concurrentielle et les obligations en matière de protection des renseignements personnels limitent davantage l'échange de renseignements.
Vulnérabilités des mécanismes d'intervention en cas de crise : Les dispositions actuelles du Canada en matière d'intervention en cas d'incident et de coordination de crise fournissent une base solide, mais des angles morts peuvent exister face à des menaces sans précédent liées à l'IA. L'information, l'accès et les systèmes peuvent être fragmentés entre les organismes ou selon les mandats des organismes chargés d'intervenir en cas d'incident. Au niveau institutionnel, il se peut que les processus de continuité des activités ne prévoient pas de cas précis de défaillance dans les systèmes ou les modèles d'IA. Les nouvelles stratégies d'attaque rendues possibles par l'IA pourraient comprendre des attaques sur plusieurs fronts à une vitesse et à une échelle que les mécanismes actuels de réponse aux crises ne sont pas conçus pour gérer. Les récentes pannes technologiques et infonuagiques, comme les incidents CrowdStrike ou AWSNote de bas de page 14, ont également illustré l'écart qui peut exister entre les plans sur papier et la préparation pratique, en particulier dans des scénarios nouveaux ou sans précédent.
L'IA agentique et les risques émergents pour la stabilité financière : Les systèmes d'IA agentique peuvent agir de manière autonome, prendre des décisions en plusieurs étapes et déclencher des mesures financières à vitesse machine concernant les marchés et les institutionsNote de bas de page 15. Au fur et à mesure que ces systèmes gagnent du terrain, leur comportement peut devenir de plus en plus difficile à prévoir, à surveiller ou à encadrer. Les agents qui investissent pour le compte de clients particuliers, par exemple, peuvent réagir simultanément à des sources de données ou à des indices de marché similaires, ce qui amplifie la volatilité à court terme et intensifie les pressions sur les liquidités en cas de crise. Les agents de trésorerie pourraient rapidement réaffecter des dépôts en réaction à l'actualité, au sentiment sur les médias sociaux ou à l'évolution des taux. En période de crise, cela pourrait accélérer les sorties de fonds et déstabiliser les bilans des banques. À mesure que les agents sont déployés dans un plus grand nombre de cas d'utilisation liés au domaine de la finance, les risques peuvent évoluer davantage de façon inattendue. D'autres technologies émergentes transforment aussi les profils de risque. L'IA accélère les progrès vers des systèmes quantiques insensibles aux défaillances, ce qui laisse entrevoir des percées qui pourraient renverser les hypothèses actuelles en matière de cybersécurité.
Saisir les occasions suscitées par l'intelligence artificielle
L'IA offre une occasion stratégique de renforcer le système financier du Canada. Le secteur financier canadien génère de 7 à 8 % du PIB du paysNote de bas de page 16 et emploie près de 850 000 CanadiensNote de bas de page 17. À l'heure actuelle, c'est un important utilisateur de l'IA. À l'échelle mondiale, dans un large éventail de secteurs industriels, les services financiers se classent au troisième rang pour ce qui est de l'utilisation de l'IA au travail (72 %) et au deuxième rang pour ce qui est du soutien organisationnel (75 %)Note de bas de page 18. De façon plus générale, on prévoit que le déploiement continu de l'IA pourrait ajouter 298 milliards de dollars au PIB cumulé de 2025 à 2035 et générer en moyenne 41 500 nouveaux emplois par annéeNote de bas de page 19. Les institutions financières canadiennes qui exploitent l'IA avec succès pourraient capter une grande partie de cette création de valeur potentielle.
La capacité de l'IA à traiter de vastes ensembles de données et à cerner les tendances en fait un puissant outil de gestion des risques. Les institutions financières peuvent surveiller l'activité du marché, repérer les anomalies et anticiper les scénarios de crise avant qu'ils ne s'aggravent, ce qui améliore la résilience et réduit les vulnérabilités systémiques. Les organismes de réglementation peuvent également tirer parti de l'IA pour améliorer la surveillance systémique, harmoniser les directives et améliorer la capacité de surveillance. Au-delà de l'atténuation des risques, l'IA peut générer d'importants gains de productivité. Les applications liées à la conformité, à la détection de la fraude et aux flux de travail opérationnels peuvent libérer les tâches de professionnels qualifiés, qui pourront consacrer leur temps à des priorités de plus grande valeur. Ces gains d'efficience se traduisent par des économies de coûts qui peuvent être réinvesties dans l'innovation, les infrastructures et le perfectionnement des talents, lesquels sont essentiels pour stimuler la concurrence à long terme.
L'IA offre également des possibilités de transformation pour le bien-être financier, la protection des consommateurs et la prévention de la criminalité financière. L'authentification avancée, l'analyse comportementale et la détection des anomalies aident à prévenir le vol d'identité, les prises de contrôle de compte et la fraude par hypertrucage et à renforcer la confiance dans les écosystèmes financiers numériques. Parallèlement, l'IA démocratise l'accès aux conseils financiers grâce à un accompagnement personnalisé à grande échelle. Les plateformes conversationnelles et les moteurs de recommandation peuvent mettre des renseignements sophistiqués à la disposition des populations mal desservies, ce qui peut favoriser une inclusion financière et des connaissances financières de qualité. Dans la lutte contre la criminalité financière, les modèles d'IA peuvent analyser de vastes réseaux d'opérations en temps réel, détecter des tendances suspectes et permettre une intervention proactive afin de réduire la fraude, le blanchiment d'argent et d'autres menaces émergentes.
Si elle est adoptée de manière responsable et à grande échelle, l'IA peut renforcer la capacité concurrentielle du Canada dans le monde et servir de catalyseur pour un système financier plus intelligent, plus sûr et plus inclusif. Pour atteindre cet équilibre entre l'innovation et la gestion des risques, il faut adopter une approche commune et pratique de l'adoption de l'IA dans l'ensemble du secteur.
Le cadre AGILE
Le cadre AGILE (prise de conscience, garde-fous, innovation, apprentissage et résilience des écosystèmes) peut aider à orienter l'adoption responsable de l'IA, l'innovation et la résilience dans l'ensemble du secteur financier canadien. Élaboré à partir des renseignements recueillis lors des ateliers, ce cadre permet aux intervenants de tirer parti des avantages de l'IA tout en gérant efficacement les risques.
Prise de conscience des menaces et des risques émergents
La prise de conscience est essentielle pour le secteur financier canadien, car l'IA transforme de plus en plus le paysage du risque, et le secteur élargit son utilisation de l'IA. Les intervenants doivent comprendre comment l'IA peut modifier l'environnement de risque et comment d'autres développements, comme l'IA agentique ou les perturbations macroéconomiques attribuables à l'IA, peuvent avoir une incidence sur eux.
Adapter l'identification et la gouvernance des risques en réponse aux changements technologiques
Aborder les risques liés à l'IA au niveau de la haute direction et du conseil d'administration
Se préparer aux nouvelles technologies
Surveiller les perturbations attribuables à l'IA qui affectent le marché du travail et les entreprises
Surveiller la volatilité des marchés attribuable à l'IA
Garde-fous pour assurer une adoption responsable de l'IA
Les organisations doivent s'assurer que les systèmes fondés sur l'IA fonctionnent de manière sûre, prévisible et équitable tout au long de leur cycle de vie, en particulier lorsque des défaillances ou une mauvaise utilisation pourraient causer un préjudice aux consommateurs ou présenter un risque systémique. Des garde-fous efficaces en matière d'IA intègrent des pratiques exemplaires fondamentales dans les activités quotidiennes, maintiennent des cadres de contrôle à jour et établissent une responsabilité claire pour les résultats produits par l'IA. Les garde-fous comprennent une surveillance humaine appropriée des décisions à incidence élevée, dans la mesure du possible, pour maintenir la vigilance à l'égard de la qualité des données et des normes rigoureuses pour les tiers.
Se concentrer sur les principes fondamentaux
Mettre en œuvre des cadres de contrôle robustes et souples
Mettre l'accent sur des pratiques inclusives pour assurer le bien-être des consommateurs
Assumer la responsabilité des résultats de l'IA
Renforcer les exigences de diligence raisonnable lors du recours à des tiers
Innovation grâce à l'adoption audacieuse de l'IA
L'adoption responsable de l'IA peut renforcer l'autonomie des effectifs, renforcer la défense contre les menaces en constante évolution, améliorer le bien-être financier des consommateurs et stimuler la croissance de leur chiffre d'affaires et de leurs résultats. Pour adopter l'IA de manière responsable, le secteur doit avoir un état d'esprit axé sur la croissance de l'IA et ne pas considérer cette technologie comme un substitut à l'expertise humaine, mais plutôt comme un outil utile pour sa main-d'œuvre et un catalyseur permettant d'accroître les occasions et l'offre de produits. Il faudra des ressources adéquates, un investissement dans l'infrastructure technologique et l'utilisation délibérée de l'IA pour renforcer la résilience opérationnelle tout en favorisant le bien-être financier des consommateurs, y compris l'accès et la protection.
Adopter un état d'esprit axé sur la croissance de l'IA
Adopter une approche stratégique à l'égard de l'innovation
Moderniser l'infrastructure technologique
Renforcer la résilience opérationnelle grâce à l'innovation en matière d'IA
Améliorer le bien-être financier et la protection des consommateurs grâce à l'innovation en matière d'IA
Faciliter la maîtrise de l'IA
L'éducation et la formation en matière d'IA sont des investissements essentiels pour le secteur financier. Les programmes d'apprentissage continu peuvent aider les institutions à suivre le rythme du changement et, grâce à la collaboration, le secteur peut mettre en commun ses ressources et accélérer les progrès. Il est urgent d'améliorer les programmes d'apprentissage dans des domaines cruciaux, comme la fraude et le piratage psychologique facilités par l'IA afin de protéger les consommateurs et l'intégrité du système financier. Les efforts d'éducation doivent également s'étendre aux consommateurs afin qu'ils comprennent comment fonctionnent les systèmes d'IA, comment leurs renseignements sont utilisés et comment reconnaître les menaces, y compris la fraude facilitée par l'IA, et se protéger en conséquence. Dans un même temps, l'éducation doit mettre en évidence les avantages qu'offre l'IA, notamment des renseignements plus clairs, un accompagnement personnalisé et une gestion financière plus facile au quotidien.
Développer les talents de façon stratégique
Poursuivre un apprentissage continu et complet en matière d'IA
Collaborer à des occasions d'apprentissage
Améliorer la formation des employés en matière d'hameçonnage et de cybersécurité
Sensibiliser les consommateurs à l'utilisation de l'IA dans les services financiers
Résilience des écosystèmes pour un système financier plus solide
L'amélioration de la résilience dans l'ensemble de l'écosystème financier dépendra d'une approche plus coordonnée à l'échelle du système. Les participants du secteur financier devront travailler ensemble pour créer des normes communes et des exigences de divulgation à l'intention des tiers essentiels, et mettre à niveau les cadres d'intervention pour les infrastructures financières essentielles et pour les attaques ou les chocs liés à l'IA. Les secteurs public et privé devront collaborer pour assurer un environnement réglementaire clair, possiblement en établissant des bacs à sable, en améliorant les identités numériques sécurisées et en comblant les lacunes dans l'échange de renseignements et les mécanismes de réponse aux incidents.
Établir des normes et des mécanismes de surveillance communs pour les tiers essentiels
Accroître la certitude réglementaire
Mettre en œuvre l'identification et l'authentification numériques sécurisées
Renforcer les ententes d'échange de renseignements
Mettre à niveau les cadres d'intervention en cas d'incident
Un cadre AGILE : priorités de la mise en œuvre
L'IA continuera d'évoluer rapidement. Le cadre AGILE est conçu pour évoluer avec elle. Ses principes stratégiques perdureront même si la portée et les capacités de l'IA continuent de progresser. Voici quelques exemples des occasions immédiates et à long terme de navigation par l'IA au moyen du cadre AGILE :
Priorités immédiates
À court ou à moyen terme
Conclusion
L'intelligence artificielle transforme le secteur financier à un rythme exigeant à la fois de l'audace et de la discipline. Il existe un vaste potentiel de croissance économique, de gains de productivité, de renforcement des mécanismes de défense, et d'amélioration du bien-être et de la protection des consommateurs et de la résilience systémique. Pourtant, les risques d'inaction ou de faux pas sont tout aussi importants. Pour réussir, il faut trouver un juste équilibre entre l'innovation et l'adoption responsable et la préservation de la confiance des consommateurs, de la résilience organisationnelle et de la stabilité financière.
Le cadre AGILE fournit une feuille de route stratégique pour cette transformation. S'appuyant sur EDGE, ce cadre est conçu pour l'action :
Le présent rapport traduit ce cadre en mesures concrètes, telles que le renforcement de la cyberhygiène, la mise à niveau des connaissances sur l'IA et la modernisation des infrastructures. Ces mesures forment un cadre visant à favoriser le progrès collectif et reflètent une perspective essentielle de l'atelier, à savoir que le plus grand risque de l'IA est de ne pas agir de manière décisive. Les institutions qui hésitent risquent de prendre du retard sur le plan technologique et concurrentiel tout en s'exposant à des menaces amplifiées par l'IA.
Pour réussir, il faut déployer des efforts coordonnés au sein du secteur, des organismes de réglementation et du gouvernement. La collaboration doit devenir la norme grâce à l'échange de renseignements, aux initiatives d'apprentissage et à une plus grande certitude réglementaire. Il faut accorder la priorité à l'investissement dans les talents et les infrastructures pour que le système financier du Canada soit un chef de file en matière d'adoption responsable de l'IA. En opérationnalisant le cadre AGILE, le secteur peut offrir une valeur ajoutée aux consommateurs, renforcer la résilience systémique et renforcer la capacité concurrentielle du Canada à l'échelle mondiale.
Les défis sont urgents, mais la voie à suivre est claire. Grâce à l'agilité, à la prévoyance et à la collaboration, l'écosystème financier du Canada peut tirer parti des promesses de l'IA tout en préservant la confiance et la stabilité dont il dépend.
Glossaire
Architecture à vérification systématique Modèle de cybersécurité qui suppose qu'aucun utilisateur ni appareil n'est intrinsèquement digne de confiance, mais qu'il nécessite une vérification continue, un accès au moindre privilège et une segmentation rigoureuse du système. Attaques antagonistes Techniques utilisées pour induire en erreur ou compromettre les systèmes d'IA, ce qui pourrait miner l'intégrité et la fiabilité des modèles. Auteur de menace Personne ou groupe responsable de cyberactivités malveillantes ou de fraude. Authentification Processus permettant de vérifier l'identité, comme les mots de passe, la biométrie ou l'authentification multifactorielle. Centre de données Installation qui héberge l'infrastructure de TI particulière nécessaire pour entraîner, déployer et offrir l'intelligence artificielle et d'autres applications et services numériques. Conception inclusive Création délibérée de systèmes financiers et d'IA qui garantissent un accès et des résultats équitables pour des populations diverses. Coupe-circuits Mécanismes qui suspendent ou limitent automatiquement les échanges commerciaux ou l'activité du système afin de prévenir l'instabilité ou les défaillances en cascade dans des conditions anormales ou volatiles. Cyberattaques Toute tentative de perturbation ou de compromission de systèmes d'information ou d'accès à ces systèmes sans autorisation. Cybercriminels Personnes ou groupes qui mènent des activités numériques illégales, y compris la fraude et le vol de données. Désinformation Fausse information créée et diffusée délibérément pour induire en erreur, manipuler ou causer un préjudice. Divulgation Communication requise aux organismes de réglementation, aux intervenants ou aux clients au sujet des incidents ou des renseignements importants. Entrants Nouvelles organisations qui entrent sur un marché, y compris les sociétés de technologie financière et de technologie. Explicabilité La mesure dans laquelle les processus décisionnels en matière d'IA peuvent être interprétés et justifiés auprès de différents intervenants. Fraude à l'identité synthétique Fraude commise au moyen d'identités synthétiques dans le but d'ouvrir des comptes ou d'accéder à du crédit. Fraudeur financier Une personne ou un groupe qui mène des activités financières frauduleuses au moyen d'identités volées, synthétiques ou manipulées. Gouvernance Cadre (structures, surveillance et contrôles) permettant de diriger et de contrôler les organisations. Hameçonnage vocal Hameçonnage vocal dans le cadre duquel des pirates prétendent être des personnes ou des institutions de confiance au téléphone afin d'obtenir des renseignements sensibles. Hameçonnage Pratique frauduleuse consistant à envoyer des courriels ou d'autres messages prétendant provenir d'entreprises réputées afin d'inciter des personnes à révéler des renseignements personnels, comme des mots de passe et des numéros de carte de crédit. Harponnage Attaques d'hameçonnage hautement ciblées et personnalisées pour des personnes ou des organisations particulières. Hypertrucage Médias synthétiques générés par l'IA qui imitent de façon convaincante des personnes réelles, augmentant ainsi les risques d'usurpation d'identité et de fraude. IA agentique Systèmes d'IA capables de prendre des mesures ou des décisions de façon autonome. IA générative Intelligence artificielle qui génère du contenu, comme du texte, des images ou des codes, en fonction des tendances tirées de données entraînées. Identité numérique Technologies utilisées pour vérifier l'identité d'un utilisateur par voie électronique, souvent au moyen de documents, de données biométriques ou d'identifiants cryptographiques. Identité synthétique Identité partiellement fabriquée combinant des renseignements réels et fictifs. Informatique quantique Technologie informatique tirant parti de la mécanique quantique pour résoudre des problèmes complexes, avec des répercussions possibles pour la cryptographie. Mécanismes d'arrêt d'urgence Contrôles qui peuvent arrêter instantanément un système d'IA, un processus de négociation ou une opération automatisée pour mettre fin à des actions nuisibles ou involontaires. Médias sociaux Plateformes en ligne où des personnes partagent du contenu. Mésinformation Renseignements faux ou inexacts communiqués sans intention de tromper. Mesures de protection solides Contrôles, politiques et technologies capables de résister à des conditions défavorables ou de les surmonter. Modèles à code source ouvert Modèles d'IA dont l'architecture et la pondération sont accessibles au public, ce qui facilite la collaboration. Mystification Usurpation d'identité d'une entité de confiance dans le but de tromper les utilisateurs et les inciter à divulguer des renseignements sensibles. Nième partie Tout tiers fournisseur indirect plus loin dans une chaîne d'approvisionnement (comme un quatrième ou un cinquième fournisseur) qui soutient un fournisseur sous contrat, mais qui n'est pas engagé directement par l'institution financière. Obstacles à l'accès Facteurs structurels ou réglementaires qui empêchent de nouveaux concurrents d'accéder au marché financier. Piratage psychologique Techniques de manipulation utilisées pour exploiter le comportement humain et obtenir un accès non autorisé à des systèmes ou à des renseignements. Protection des renseignements personnels Assurance que la confidentialité de certains renseignements sur une entité et l'accès à ces renseignements sont protégés. Robots automatisés Agents logiciels qui exécutent des tâches automatiquement. Savoir-faire en matière d'IA Compréhension des capacités, des limites, des risques et de l'utilisation responsable de l'IA. Souveraineté des données Exigence que les données soient stockées et traitées conformément aux lois de l'administration d'où elles proviennent. Stabilité financière La résilience du système financier aux chocs, ce qui assure le fonctionnement continu des marchés et des institutions. Surface d'attaque Tous les points potentiels où des acteurs non autorisés pourraient tenter de compromettre des systèmes ou des données. Systèmes quantiques insensibles aux défaillances Systèmes quantiques conçus pour fonctionner de manière fiable même lorsque les qubits (c'est-à-dire l'unité de base de l'information quantique) rencontrent des erreurs. Vulnérabilité systémique Faiblesse susceptible d'avoir une incidence sur l'ensemble du système financier plutôt que sur une seule institution.