INRIA – Institut National de Recherche en informatique et automatique

02/13/2026 | Press release | Archived content

Sécurité de l’IA et souveraineté : l’INESIA dévoile sa feuille de route 2026-2027

Mis à jour le 16/02/2026

Pilier de la stratégie nationale en intelligence artificielle, l'INESIA franchit une étape clé avec la validation de ses orientations pour les deux prochaines années. Aux côtés de la DGE, du SGDSN, de l'ANSSI, du LNE et du PEReN, Inria y apporte son expertise scientifique pour bâtir une capacité souveraine d'évaluation des systèmes d'IA avancés.
© taa22 - stock.adobe.com

Le paysage mondial de l'intelligence artificielle évolue à une vitesse sans précédent, plaçant la sécurité et la confiance au cœur des enjeux de souveraineté. C'est dans ce contexte que l'Institut national pour l'évaluation et la sécurité de l'IA (INESIA) vient de rendre publique sa feuille de route pour la période 2026-2027. Ce document stratégique pose une ambition claire : doter la France d'un cadre d'évaluation de l'IA robuste, capable de garantir une innovation sûre tout en protégeant les citoyens.

Une ambition nationale portée par un écosystème d'experts

Créé en 2025, l'INESIA est le fruit d'un copilotage entre la Direction Générale des Entreprises (DGE) et le Secrétariat général de la Défense et de la Sécurité nationale (SGDSN). Il fédère un écosystème d'acteurs nationaux de premier rang qui associe les compétences d'Inria, de l'ANSSI, du LNE et du PEReN, autour d'un objectif commun : soutenir le développement de l'intelligence artificielle et accompagner la transformation de l'économie qu'elle induit, en étudiant scientifiquement les effets de cette technologie, notamment en termes de sécurité.

À lire : Inria participe à la création de l'Institut national pour l'évaluation et la sécurité de l'intelligence artificielle

Trois pôles thématiques pour répondre aux enjeux de l'IA

La feuille de route adoptée, à laquelle Inria contribue notamment au travers du programme « Évaluation de l'IA » piloté par l'Agence de programmes Numérique, décline l'action de l'INESIA autour de trois pôles thématiques et un axe transverse :

  • Appui à la régulation : ce pôle vise à développer une expertise technique de pointe au service des autorités de réglementation de l'IA. L'INESIA facilitera l'accès aux méthodes et outils d'évaluation, renforcera les capacités de détection des contenus synthétiques pour lutter contre les manipulations de l'information et contribuera au développement de méthodes de certification adaptées à la cybersécurité de l'IA.
  • Risques systémiques : l'objectif de ce pôle est d'approfondir l'expertise nationale sur les risques systémiques que pourraient générer les IA les plus avancées. Des travaux de recherche permettront de mieux les comprendre et de concevoir des méthodes d'atténuation adaptées. L'étude des systèmes agentiques apportera un éclairage précieux sur ce domaine en pleine évolution. Ces travaux contribueront à renforcer l'engagement de la France au sein du réseau international des AI Safety Institutes.
  • Performance et fiabilité : ce pôle a pour mission de stimuler l'innovation et la créativité en encourageant l'émulation entre acteurs, notamment à travers l'organisation de challenges techniques. Dans un esprit de coopétition, ces initiatives créeront une dynamique nécessaire pour faire progresser l'état de l'art.

Un axe transverse dotera les membres de l'INESIA d'outils communs qui faciliteront la conduite de l'ensemble de ses travaux. Un travail sera mené afin de doter l'Institut des moyens techniques de poursuivre ses activités. D'autres initiatives favoriseront le partage des connaissances en son sein, et sa diffusion à l'extérieur pour favoriser les échanges scientifiques sur les thématiques de l'évaluation et de la sécurité de l'IA.

Des travaux déjà amorcés

Sous le pilotage de l'ANSSI, des travaux sont menés en collaboration avec les autres parties de l'INESIA, l'Agence ministérielle pour l'intelligence artificielle de défense (AMIAD) et les centres d'évaluation de la sécurité des technologies de l'information (CESTI) pour concevoir les méthodes d'évaluation qui garantiront demain la cybersécurité des systèmes d'IA et des produits qui les intègrent. Parallèlement, plusieurs initiatives structurantes portées par les membres de l'INESIA viennent enrichir l'expertise nationale.

Viginum et le PEReN ont ainsi conduit conjointement, dans le cadre du Sommet pour l'action sur l'IA, des travaux sur la détection des contenus synthétiques. Leurs résultats ont été rendus publics en janvier 2025. Inria a par ailleurs organisé en juillet 2025 les premières Journées scientifiques de l'INESIA au Centre Inria de Paris, favorisant les échanges entre chercheurs et experts sur les enjeux d'évaluation et de sécurité de l'IA. Inria, le LNE et le PEReN ont également réalisé des exercices d'essais conjoints de modèles d'IA avancés, publiés en juillet 2025 dans le cadre du réseau international des AI Safety Institutes. Ces différentes contributions renforcent la capacité de la France à participer activement à l'élaboration d'un cadre d'évaluation international.

En savoir plus : Consulter la feuille de route sur le site de la Direction Générale des Entreprises (DGE).

INRIA – Institut National de Recherche en informatique et automatique published this content on February 13, 2026, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on February 17, 2026 at 15:04 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]