Cette feuille de route fixe les principales orientations de l’Institut et traduit une ambition nationale : doter la France d’une capacité souveraine d’évaluation des systèmes d’IA avancés, au service d’une innovation sûre et de la protection des citoyens.
Créé en 2025, l’INESIA fédère un écosystème d’acteurs nationaux de premier rang qui associe les compétences de l’ANSSI, d’Inria, du LNE et du PEReN, autour d’un objectif commun : soutenir le développement de l’intelligence artificielle et accompagner la transformation de l’économie qu’elle induit, en étudiant scientifiquement les effets de cette technologie, notamment en termes de sécurité.
La feuille de route adoptée décline l’action de l’INESIA autour de trois pôles thématiques et un axe transverse.
Un pôle « Appui à la régulation » contribuera au développement d’une expertise technique de pointe au bénéfice des autorités de réglementation de l’IA. L’INESIA facilitera l’accès aux méthodes et outils d’évaluation, renforcera la détection des contenus synthétiques pour contrer les manipulations de l’information, et contribuera au développement des méthodes de certification adaptées à la cybersécurité de l’IA.
Un pôle « Risques systémiques » permettra d’approfondir l’expertise nationale sur les risques systémiques liés aux IA les plus avancées qui pourraient émerger. Des travaux de recherche permettront de mieux les comprendre et de concevoir des méthodes d’atténuation. L’étude des systèmes agentiques apportera un éclairage sur un domaine en pleine évolution. Ces travaux contribueront à la poursuite de l’engagement de la France dans les activités du réseau international des AI Safety Institutes.
Un pôle « Performance et fiabilité » stimulera l’innovation et la créativité, en encourageant l’émulation entre acteurs à travers l’organisation de challenges techniques. Dans un esprit de coopétition, ces initiatives créeront un effet d’entraînement nécessaire pour faire progresser l’état de l’art.
Un axe transverse dotera les membres de l’INESIA d’outils communs qui faciliteront la conduite de l’ensemble de ses travaux. Un travail sera mené afin de doter l’Institut des moyens techniques de poursuivre ses activités. D’autres initiatives favoriseront le partage des connaissances en son sein, et sa diffusion à l’extérieur pour favoriser les échanges scientifiques sur les thématiques de l’évaluation et de la sécurité de l’IA.
Les travaux ont d’ores et déjà débuté : l’ANSSI pilote des travaux en lien avec les autres parties de l’INESIA ainsi que l’Agence ministérielle pour l’intelligence artificielle de défense (AMIAD) et les centres d'Évaluation de la Sécurité des Technologies de l'Information (CESTI) afin de concevoir les méthodes d’évaluation qui assureront demain la cybersécurité des systèmes d’IA et des produits intégrant de l’IA. Par ailleurs, plusieurs initiatives structurantes menées par les membres de l’INESIA contribuent à nourrir l’expertise nationale.
Dans le cadre du Sommet pour l’Action sur l’IA, Viginum et le PEReN ont conduit conjointement des travaux sur la détection des contenus synthétiques, dont les résultats ont été rendus publics en janvier 2025. En outre, Inria, le LNE et le PEReN ont mené des exercices d’essais conjoints de modèles d’IA avancés, dont les résultats ont été publiés en juillet 2025, dans le cadre du réseau international des AI Safety Institutes. Ces travaux renforcent la capacité française à contribuer à l’élaboration d’un cadre d’évaluation au niveau mondial.
Avec cette feuille de route, la France confirme la vocation de l’INESIA et la dote d’un cadre clair pour structurer une capacité nationale d’évaluation et de sécurité de l’intelligence artificielle. En orientant ses travaux autour des priorités nationales, elle trace une voie qui lui permettra d’accompagner durablement l’innovation, tout en garantissant la confiance des citoyens dans les technologies les plus avancées.
Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a déclaré : « Avec l’adoption de cette feuille de route 2026-2027, l’Institut national pour l’évaluation et la sécurité de l’IA se dote d’un cap clair et ambitieux. La France fait le choix d’une intelligence artificielle à la fois innovante, sûre et digne de confiance, en se donnant les moyens d’évaluer et de sécuriser les systèmes les plus avancés. En fédérant les expertises de l’ANSSI, d’Inria, du LNE et du PEReN, l’INESIA incarne une approche souveraine et scientifique de la sécurité de l’IA, au service de la protection des citoyens, de la compétitivité de notre économie et de l’excellence de notre recherche. »
Créé en 2025, l’INESIA fédère un écosystème d’acteurs nationaux de premier rang qui associe les compétences de l’ANSSI, d’Inria, du LNE et du PEReN, autour d’un objectif commun : soutenir le développement de l’intelligence artificielle et accompagner la transformation de l’économie qu’elle induit, en étudiant scientifiquement les effets de cette technologie, notamment en termes de sécurité.
La feuille de route adoptée décline l’action de l’INESIA autour de trois pôles thématiques et un axe transverse.
Un pôle « Appui à la régulation » contribuera au développement d’une expertise technique de pointe au bénéfice des autorités de réglementation de l’IA. L’INESIA facilitera l’accès aux méthodes et outils d’évaluation, renforcera la détection des contenus synthétiques pour contrer les manipulations de l’information, et contribuera au développement des méthodes de certification adaptées à la cybersécurité de l’IA.
Un pôle « Risques systémiques » permettra d’approfondir l’expertise nationale sur les risques systémiques liés aux IA les plus avancées qui pourraient émerger. Des travaux de recherche permettront de mieux les comprendre et de concevoir des méthodes d’atténuation. L’étude des systèmes agentiques apportera un éclairage sur un domaine en pleine évolution. Ces travaux contribueront à la poursuite de l’engagement de la France dans les activités du réseau international des AI Safety Institutes.
Un pôle « Performance et fiabilité » stimulera l’innovation et la créativité, en encourageant l’émulation entre acteurs à travers l’organisation de challenges techniques. Dans un esprit de coopétition, ces initiatives créeront un effet d’entraînement nécessaire pour faire progresser l’état de l’art.
Un axe transverse dotera les membres de l’INESIA d’outils communs qui faciliteront la conduite de l’ensemble de ses travaux. Un travail sera mené afin de doter l’Institut des moyens techniques de poursuivre ses activités. D’autres initiatives favoriseront le partage des connaissances en son sein, et sa diffusion à l’extérieur pour favoriser les échanges scientifiques sur les thématiques de l’évaluation et de la sécurité de l’IA.
Les travaux ont d’ores et déjà débuté : l’ANSSI pilote des travaux en lien avec les autres parties de l’INESIA ainsi que l’Agence ministérielle pour l’intelligence artificielle de défense (AMIAD) et les centres d'Évaluation de la Sécurité des Technologies de l'Information (CESTI) afin de concevoir les méthodes d’évaluation qui assureront demain la cybersécurité des systèmes d’IA et des produits intégrant de l’IA. Par ailleurs, plusieurs initiatives structurantes menées par les membres de l’INESIA contribuent à nourrir l’expertise nationale.
Dans le cadre du Sommet pour l’Action sur l’IA, Viginum et le PEReN ont conduit conjointement des travaux sur la détection des contenus synthétiques, dont les résultats ont été rendus publics en janvier 2025. En outre, Inria, le LNE et le PEReN ont mené des exercices d’essais conjoints de modèles d’IA avancés, dont les résultats ont été publiés en juillet 2025, dans le cadre du réseau international des AI Safety Institutes. Ces travaux renforcent la capacité française à contribuer à l’élaboration d’un cadre d’évaluation au niveau mondial.
Avec cette feuille de route, la France confirme la vocation de l’INESIA et la dote d’un cadre clair pour structurer une capacité nationale d’évaluation et de sécurité de l’intelligence artificielle. En orientant ses travaux autour des priorités nationales, elle trace une voie qui lui permettra d’accompagner durablement l’innovation, tout en garantissant la confiance des citoyens dans les technologies les plus avancées.
Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a déclaré : « Avec l’adoption de cette feuille de route 2026-2027, l’Institut national pour l’évaluation et la sécurité de l’IA se dote d’un cap clair et ambitieux. La France fait le choix d’une intelligence artificielle à la fois innovante, sûre et digne de confiance, en se donnant les moyens d’évaluer et de sécuriser les systèmes les plus avancés. En fédérant les expertises de l’ANSSI, d’Inria, du LNE et du PEReN, l’INESIA incarne une approche souveraine et scientifique de la sécurité de l’IA, au service de la protection des citoyens, de la compétitivité de notre économie et de l’excellence de notre recherche. »





