03/24/2026 | Press release | Archived content
Les principes que l'auteur de science-fiction Isaac Asimov avait définis pour ses robots pourraient servir à moraliser l'IA financière
Il est 7 h 45, dans la salle des opérations d'une banque centrale. Les écrans affichent des cartes en couleur du système financier. Dans la nuit, les données transmises par des milliers de banques, de courtiers et de systèmes de paiement ont été analysées par un modèle d'IA qui suit les conditions de liquidité. Un point rouge se met à clignoter à côté du nom d'une banque dont l'activité de paiement vient de chuter. Les analystes lèvent les yeux. La machine a détecté quelque chose d'inhabituel, peut-être une erreur transitoire, ou le signe avant-coureur d'un problème.
Les scènes de ce type sont désormais habituelles dans les places financières du monde entier. L'IA est aujourd'hui le partenaire silencieux de la finance mondiale : elle fait partie intégrante de la notation du crédit, de la détection des fraudes, de la négociation algorithmique et même de l'analyse monétaire. Elle est derrière chaque transaction, balayant de vastes océans de données à la recherche de motifs invisibles pour l'œil humain.
Les promesses sont étourdissantes : une compréhension plus rapide, des alertes plus précoces et des marchés plus efficients. Mais les dangers sont tout aussi vertigineux : les réponses rapides et coordonnées de l'IA peuvent produire des dynamiques systémiques sans équivalent à l'échelle humaine, y compris des boucles de rétroaction absolument incontrôlables. Les systèmes qui rendent la finance plus efficiente sont aussi ceux qui peuvent la fragiliser.
Comment être sûrs que cette nouvelle intelligence serve le système au lieu de le saper ? Curieusement, la réponse pourrait venir d'une vieille idée sortie tout droit de la science-fiction.
Les lois d'Asimov
Dans les années 40, Isaac Asimov a imaginé des robots intelligents régis par trois principes simples : ne pas nuire aux êtres humains, obéir aux ordres légitimes pour peu qu'ils ne contreviennent pas à cette première loi et protéger leur propre existence dans la mesure où cette protection n'entre pas en contradiction avec les deux premières règles. Par la suite, il a ajouté la « loi Zéro », en vertu de laquelle les robots doivent protéger l'humanité en général.
Aujourd'hui, la finance fait face à un défi comparable. Les modèles d'apprentissage automatique influent de plus en plus sur l'attribution des crédits, l'évolution de la composition des portefeuilles et les modalités de détection des risques par les autorités de surveillance. Ils ont une incidence sur la manière dont les informations circulent et les prix s'ajustent dans l'économie.
Réinterprétée pour les besoins de la surveillance financière, la hiérarchie d'Asimov devient une éthique pour l'IA appliquée à la finance : elle doit avant tout ne pas porter atteinte à la stabilité financière ou l'intégrité des consommateurs ; elle doit se conformer aux mandats institutionnels sans compromettre l'équité ou la sécurité ; et elle doit préserver sa propre résilience sans échapper à ses responsabilités. Surtout, elle doit servir un but supérieur, à savoir entretenir la confiance, qui est un pilier de la finance.
Il reste que toute analogie avec les lois d'Asimov est à manier avec prudence. Les systèmes d'IA n'ont pas de conscience morale. Pour une entité générative, il est facile de contourner des principes largement acceptés. Les échecs dans le monde réel montrent la fragilité des contraintes codées en dur.
Ne pas nuire
Les grandes banques commerciales ne sont jamais vraiment fermées. Leurs systèmes continuent de travailler dans les différents fuseaux horaires pour traiter les transactions, mettre à jour les expositions et détecter les anomalies signalant d'éventuelles fraudes ou tensions. Mais des erreurs sont possibles. L'IA peut mal interpréter les motifs, refléter des biais historiques ou renforcer des signaux du marché qui amplifient la volatilité.
La règle d'Asimov consistant à ne pas nuire a un sens opérationnel : l'obligation de ne pas provoquer de dommages s'applique non seulement aux consommateurs, mais aussi à la stabilité du système lui-même, ce qui nécessite des tests rigoureux, une bonne gouvernance des données et surtout des résultats explicables. En effet, quand un algorithme ne peut pas justifier sa décision, l'institution qui en dépend en est également incapable. Les modèles d'IA actuels ne savent pas expliquer leurs raisonnements, seulement produire des narratifs post hoc. L'explicabilité est donc un impératif institutionnel, et non technique.
Les conséquences macrofinancières de l'IA peuvent être importantes. Lorsque des algorithmes réagissent aux nouvelles informations à la vitesse de l'apprentissage automatique, les ajustements de prix et les déplacements de liquidités sont plus soudains et synchronisés que sur les marchés déterminés par l'activité humaine. Des épisodes comme le krach éclair de 2010 montrent comment les systèmes automatisés peuvent influer sur les marchés bien avant que les gouvernants ne puissent intervenir.
L'environnement actuel est encore plus complexe. L'IA ne réagit pas simplement plus vite, elle réagit différemment. Sa logique interne n'a pas pour seul effet d'accélérer la boucle de rétroaction entre information et action, elle la remodèle. Les modèles fondés sur l'IA influencent la tarification du crédit, la répartition des actifs ainsi que les primes de risque, de sorte que ces aspects se renforcent mutuellement. Quand les modèles ajustent collectivement les stratégies, parce qu'ils interprètent les signaux de la même façon ou que leurs routines d'optimisation convergent, ils peuvent modifier la transmission des chocs économiques et la riposte stratégique des banques centrales.
Obéissance et discernement
L'obéissance est inhérente à l'IA. Celle-ci optimise les buts qu'on lui fixe, quels qu'ils soient : rentabilité, exactitude, conformité. Mais l'obéissance aveugle est dangereuse dans le domaine de la finance, où les arbitrages sont tout à la fois moraux et techniques. Un modèle de crédit destiné à réduire au minimum les défaillances peut réagir en excluant des groupes entiers d'emprunteurs à haut risque, creusant ainsi les inégalités au lieu de les gérer. Un algorithme de négociation dont la tâche est d'accroître les rendements au maximum peut exploiter des microsignaux de prix avec tellement d'efficience qu'il déstabilisera les marchés.
Il peut être légitime de recourir à l'IA, mais elle doit rester un outil et ne pas devenir une instance décisionnaire. Elle doit éclairer les prises de décision, et non s'y substituer. La politique monétaire, la surveillance financière et la gestion des crises doivent être laissées à l'appréciation d'agents humains. Les modèles ne peuvent pas piloter ces fonctions, surtout s'ils ont été entraînés avec des données passées et ne peuvent pas prédire les chocs futurs. Et comme l'IA modifie les attentes, elle peut affaiblir les canaux traditionnels de transmission des signaux dont se sert la politique économique. Les humains sont faillibles aussi : comme dit l'adage, la crise à laquelle les responsables des politiques sont le mieux préparés est toujours celle d'avant. La leçon à en tirer n'est pas que les robots échouent ou que les humains agissent, mais qu'ils doivent apprendre les uns des autres, en étant conscients de leurs angles morts respectifs.
Malgré tous les codes et les calculs, la finance demeure une entreprise humaine. Le discernement, l'empathie et la responsabilité ne sont pas automatisables. Les banques centrales, les autorités de réglementation et les institutions financières doivent donc privilégier non seulement le savoir-faire en matière de données, mais aussi l'éducation à l'éthique. L'IA peut améliorer la surveillance, mais la gouvernance reste une tâche morale.
Résilience et responsabilité
La loi d'autopréservation conduit à la résilience. Les systèmes d'IA doivent fonctionner de manière fiable en période critique et les établissements être responsables de leurs algorithmes.
La résilience technique implique des redondances, un suivi et des tests de scénarios extrêmes. La résilience institutionnelle implique l'ouverture : les autorités de réglementation devraient être capables de contrôler les décisions de l'IA, y compris quand des codes propriétaires sont utilisés, ce qui suppose de disposer des compétences et des outils permettant de valider et contester les modèles d'IA des entreprises.
Le Pôle d'innovation de la Banque des règlements internationaux (BRI) a mis au point des prototypes d'outils pour aider les autorités de surveillance à analyser de grands ensembles de données et détecter des anomalies. Ces initiatives sont prometteuses et le principe sous-jacent est simple : si un algorithme a des effets sur la stabilité financière, il doit pouvoir faire l'objet d'un examen par les autorités de surveillance.
Le secret est source de fragilité. Quand les modèles sont des boîtes opaques, les erreurs s'accumulent sans qu'on le remarque. La crise financière mondiale de 2008 nous rappelle que la complexité sans la transparence conduit à la catastrophe. Avec l'IA, l'avertissement vaut aussi, dans sa forme numérique.
La responsabilité s'étend aussi à la gouvernance. Les établissements financiers devraient avoir des responsables chargés des risques liés à l'IA, en plus de leurs responsables de la gestion des risques ou de la conformité, pour veiller à ce que les algorithmes soient explicables et contrôlables. De leur côté, les autorités de réglementation doivent acquérir une maîtrise de l'IA pour pouvoir interpréter et contester les résultats qu'elles reçoivent. Le but n'est pas de ralentir l'innovation, mais de la rendre sûre, équitable et compréhensible.
Une loi supérieure
La loi Zéro (ne pas porter atteinte à l'humanité) trouve son équivalent réel dans la préservation de la confiance. La confiance est l'infrastructure invisible de la finance.
Si, en étant biaisée, instable ou irresponsable, l'IA sape cette confiance, elle menace les fondements du système. En revanche, quand elle coïncide avec l'intérêt public, l'IA peut renforcer la confiance. Elle permet de détecter les fraudes plus rapidement, d'exercer une surveillance plus proactive et d'ouvrir l'accès aux financements à ceux qui en ont longtemps été exclus.
La loi supérieure de l'IA est donc de servir le contrat social de la monnaie, c'est-à-dire d'œuvrer pour plus de confiance, d'équité et de stabilité. Chaque établissement utilisant l'IA devrait être jugé à l'aune du critère de la confiance : celle-ci en sort-elle renforcée ou affaiblie ?
Les effets de l'IA sont particulièrement visibles dans les pays émergents, où la finance numérique évolue rapidement et où l'insuffisance des données limite depuis longtemps l'accès au crédit et aux services publics. Au lieu de remplacer les outils numériques existants, l'IA amplifie ce que ces systèmes sont capables de faire en extrayant de grands ensembles de données non structurés des motifs que les modèles traditionnels ne savent pas interpréter.
Au Ken ya, par exemple, les écosystèmes d'argent mobile comme M-Pesa produisent un très grand nombre d'empreintes de transactions de plus en plus souvent analysées par des modèles de notation fondés sur l'IA. Les schémas de comportement et les régularités de trésorerie qui se dessinent permettent aux créanciers d'évaluer les risques associés à des emprunteurs sans antécédents formels. L'accès au crédit a pu ainsi être élargi à de petits entrepreneurs et des populations non bancarisées. En Inde, les systèmes d'identité numérique et les plateformes en temps réel sont associés à des outils d'apprentissage automatique afin de mieux cibler les transferts de l'État et d'élargir l'accès au microcrédit.
Mais l'IA peut aussi aggraver l'exclusion. En cas de pénurie de données (limitées ou biaisées), ce sont des catégories entières qui échappent aux algorithmes. Si les femmes, les populations rurales ou les travailleurs du secteur informel sont sous-représentés dans les ensembles de données, ils le seront également dans les résultats.
Les organisations internationales montent au créneau. Le FMI et la Banque mondiale intègrent de plus en plus souvent des aspects concernant la finance numérique et la gouvernance de l'IA dans leurs programmes de renforcement des capacités.
Coordination mondiale
L'IA va plus vite que la réglementation et traverse les frontières plus vite que l'argent. Mais les responsables de la politique économique peuvent faire déjà beaucoup dans le cadre des mandats et cadres juridiques existants, en attendant que la législation suive. La coordination transfrontalière est essentielle pour empêcher la fragmentation et permettre l'émergence d'une conception mondiale de la réglementation de l'IA financière, qui se fondera sur les évolutions en cours des meilleures pratiques internationales.
Le Conseil de stabilité financière, la BRI et le FMI réfléchissent à des cadres possibles pour une IA responsable. Un ensemble de principes défini à l'échelle mondiale, comme les Principes fondamentaux de Bâle pour la banque, pourrait en assurer la cohérence, tout en autorisant la flexibilité. Un tel cadre mettrait l'accent sur l'équité, l'explicabilité, la responsabilité et la proportionnalité.
Le FMI, au moyen de sa surveillance et de son assistance technique, pourrait aider les pays à identifier les risques financiers liés à l'IA, à échanger les meilleures pratiques et à éviter un fossé numérique en matière de contrôle. Il devrait, pour ce faire, attirer des professionnels qualifiés venant de la recherche et des technologies financières. La BRI pourrait héberger un registre d'algorithmes de surveillance qui permettrait aux autorités de réglementation de travailler ensemble sur des modèles à code source libre.
La Banque mondiale et les institutions de développement régionales peuvent compléter ces efforts en renforçant les capacités d'IA et l'infrastructure numérique dans les pays émergents. Grâce à l'assistance technique, au dialogue et aux instruments de financement, elles peuvent aider les pays à concevoir des cadres pour une IA responsable favorisant l'inclusion financière, à renforcer la gouvernance des données et à intégrer les normes éthiques de l'IA dans les écosystèmes financiers numériques.
Ensemble, ces institutions peuvent garantir que les pays avancés ne seront pas les seuls à bénéficier des avantages procurés par l'IA. Le but est le multilatéralisme numérique : l'IA doit être au service de tous les pays, et aucun d'entre eux ne peut gérer seul cette dynamique.
Les lois de l'IA financière
Les lois d'Asimov synthétisent une question morale complexe en priorités claires : protéger les individus, obéir dans certaines limites, protéger de manière responsable et servir l'humanité. Dans un monde où la technologie évolue plus vite que le droit, une telle simplicité n'a pas de prix.
Il ne s'agit pas de choisir entre progrès et prudence, mais entre une gouvernance intelligente et une automatisation aveugle, en se souvenant que, même si les machines apprennent, les responsabilités demeurent humaines. L'avenir de la finance s'écrira de plus en plus en code. Toutefois, les principes qui la sous-tendent doivent rester humains. Un système dans lequel la sécurité passe avant l'obéissance, la transparence avant le secret et la confiance avant le profit n'éliminera pas le risque, mais le rendra gérable et moral.
Si les banques centrales, les autorités de réglementation et les établissements financiers adhèrent à ces principes, l'IA pourrait devenir un facteur de stabilisation plutôt que de fragilité. Elle pourrait améliorer l'inclusion financière et le contrôle et renforcer la légitimité des systèmes monétaires .
Ces mêmes principes doivent être consolidés grâce à une coopération internationale : il faut veiller à ce que l'IA favorise un système financier non seulement plus sûr et plus juste, mais aussi plus cohérent à l'échelle mondiale. Tant au niveau de la surveillance que des politiques, le défi est de garantir que, à mesure que l'intelligence devient artificielle, le discernement reste bien réel.
Les machines sont en train d'apprendre. Nous devons en faire autant.