07/04/2025 | Press release | Distributed by Public on 07/04/2025 02:44
L'adoption rapide de l'intelligence artificielle (IA) transforme en profondeur les processus métier et les modes de décision des entreprises. Si cette évolution offre des leviers importants de performance, elle introduit également des risques nouveaux, souvent insuffisamment appréhendés par les dispositifs de cybersécurité traditionnels.
En particulier, les organisations doivent désormais faire face à des menaces qui ne ciblent plus uniquement les systèmes d'information mais exploitent directement les mécanismes cognitifs des collaborateurs. Cette nouvelle réalité appelle une révision des approches classiques de sécurité, au profit des stratégies intégrant pleinement la dimension humaine.
Les systèmes d'IA, notamment générative, permettent aujourd'hui de produire des contenus réalistes en quelques secondes : voix synthétiques, vidéos truquées, recommandations personnalisées, etc. Cette capacité ouvre la voie à des usages malveillants particulièrement sophistiqués, qui peuvent contourner les barrières techniques traditionnelles en s'attaquant directement à la vigilance humaine.
Trois types de scénarios commencent à émerger dans les entreprises :
Ces exemples illustrent un phénomène de plus en plus étudié : le fossé de sécurité cognitive, soit le risque lié à la manipulation de la perception, du jugement et de la confiance humaine.
Notre expert vous décrypte les nouveaux enjeux de cybersécurité induits par l'IA, en mettant en lumière les leviers d'action pour replacer l'humain au cœur des dispositifs de défense.
Jusqu'à présent, la cybersécurité a principalement reposé sur des mesures techniques (firewalls, antivirus, surveillance des accès) et des formations générales de sensibilisation. Mais face aux risques cognitifs liés à l'IA, ces outils ne suffisent plus.
Les cadres de référence évoluent en ce sens. L'AI Risk Management Framework est un cadre développé par le National Institute of Standards and Technology (NIST) pour aider les organisations à évaluer, gérer et réduire les risques liés à l'utilisation de l'intelligence artificielle de manière fiable, transparente et centrée sur l'humain.
Par exemple, le NIST insiste sur l'importance d'une supervision humaine tout au long du cycle de vie des systèmes d'IA. Il invite à articuler les contrôles techniques avec une gouvernance éthique et une responsabilisation renforcée des utilisateurs.
De nombreuses organisations s'interrogent aujourd'hui sur la meilleure façon d'intégrer ces considérations dans leur stratégie de cybersécurité. 5 leviers prioritaires ont été identifiés pour y parvenir :
La transformation des menaces impose une montée en compétence continue des équipes cybersécurité. Au-delà de la veille technologique, il devient nécessaire de se former aux mécaniques de manipulation cognitive, à l'analyse comportementale et aux nouvelles formes d'ingénierie sociale permise par l'IA.
Cette montée en compétence passe par :
Enfin, l'acculturation à ces nouveaux risques doit concerner l'ensemble de l'entreprise, y compris les fonctions RH. Dans les environnements sensibles (finance, juridique, direction générale), les processus de recrutement peuvent intégrer une évaluation des capacités de discernement face à des contenus générés par l'IA.
En parallèle, l'affichage clair des attentes en matière de cybersécurité dès l'intégration permet de poser un cadre partagé. Cette démarche contribue à diffuser une culture proactive et responsable autour des usages de l'IA.
Les entreprises doivent faire de l'humain un acteur clé de la cybersécurité IA. La transformation numérique accélérée par l'IA impose une redéfinition des priorités en matière de cybersécurité. Les organisations les plus résilientes seront celles qui sauront combiner innovation technologique et renforcement des capacités humaines en traitant la sécurité cognitive comme un axe stratégique à part entière.
À travers l'adoption de bonnes pratiques, la mise en place de formations ciblées et l'adaptation des processus internes, il est possible de construire une approche intégrée de la cybersécurité, où l'humain n'est plus un facteur de risque passif, mais un acteur engagé de la défense de l'entreprise face aux menaces de demain.