02/13/2026 | Press release | Archived content
Mis à jour le 16/02/2026
Le paysage mondial de l'intelligence artificielle évolue à une vitesse sans précédent, plaçant la sécurité et la confiance au cœur des enjeux de souveraineté. C'est dans ce contexte que l'Institut national pour l'évaluation et la sécurité de l'IA (INESIA) vient de rendre publique sa feuille de route pour la période 2026-2027. Ce document stratégique pose une ambition claire : doter la France d'un cadre d'évaluation de l'IA robuste, capable de garantir une innovation sûre tout en protégeant les citoyens.
Une ambition nationale portée par un écosystème d'experts
Créé en 2025, l'INESIA est le fruit d'un copilotage entre la Direction Générale des Entreprises (DGE) et le Secrétariat général de la Défense et de la Sécurité nationale (SGDSN). Il fédère un écosystème d'acteurs nationaux de premier rang qui associe les compétences d'Inria, de l'ANSSI, du LNE et du PEReN, autour d'un objectif commun : soutenir le développement de l'intelligence artificielle et accompagner la transformation de l'économie qu'elle induit, en étudiant scientifiquement les effets de cette technologie, notamment en termes de sécurité.
La feuille de route adoptée, à laquelle Inria contribue notamment au travers du programme « Évaluation de l'IA » piloté par l'Agence de programmes Numérique, décline l'action de l'INESIA autour de trois pôles thématiques et un axe transverse :
Un axe transverse dotera les membres de l'INESIA d'outils communs qui faciliteront la conduite de l'ensemble de ses travaux. Un travail sera mené afin de doter l'Institut des moyens techniques de poursuivre ses activités. D'autres initiatives favoriseront le partage des connaissances en son sein, et sa diffusion à l'extérieur pour favoriser les échanges scientifiques sur les thématiques de l'évaluation et de la sécurité de l'IA.
Sous le pilotage de l'ANSSI, des travaux sont menés en collaboration avec les autres parties de l'INESIA, l'Agence ministérielle pour l'intelligence artificielle de défense (AMIAD) et les centres d'évaluation de la sécurité des technologies de l'information (CESTI) pour concevoir les méthodes d'évaluation qui garantiront demain la cybersécurité des systèmes d'IA et des produits qui les intègrent. Parallèlement, plusieurs initiatives structurantes portées par les membres de l'INESIA viennent enrichir l'expertise nationale.
Viginum et le PEReN ont ainsi conduit conjointement, dans le cadre du Sommet pour l'action sur l'IA, des travaux sur la détection des contenus synthétiques. Leurs résultats ont été rendus publics en janvier 2025. Inria a par ailleurs organisé en juillet 2025 les premières Journées scientifiques de l'INESIA au Centre Inria de Paris, favorisant les échanges entre chercheurs et experts sur les enjeux d'évaluation et de sécurité de l'IA. Inria, le LNE et le PEReN ont également réalisé des exercices d'essais conjoints de modèles d'IA avancés, publiés en juillet 2025 dans le cadre du réseau international des AI Safety Institutes. Ces différentes contributions renforcent la capacité de la France à participer activement à l'élaboration d'un cadre d'évaluation international.
En savoir plus : Consulter la feuille de route sur le site de la Direction Générale des Entreprises (DGE).