À l’ère numérique, la cybersécurité est devenue une préoccupation majeure, touchant aussi bien les entreprises que les individus. Alors que la dépendance à la technologie continue d’augmenter, les menaces pesant sur nos systèmes d’information se diversifient et se renforcent. Les cyberattaques, qu’elles soient menées par des criminels isolés ou par des groupes organisés, prennent des formes de plus en plus sophistiquées, exploitant les failles des infrastructures pour infliger des dommages considérables. Comme dans d’autres secteurs, tels que la santé ou l’énergie, la cybersécurité exige une réponse proactive et innovante face à des enjeux en constante évolution. L’émergence de l’intelligence artificielle dans le domaine de la cybersécurité ouvre la voie à des solutions révolutionnaires, tout en soulevant des questions éthiques et pratiques sur la confiance et la responsabilité. L’intégration de systèmes autonomes dans le processus de défense constitue un changement de paradigme, où l’IA agentique, capable d’analyser, de prioriser et de réagir en temps réel, se positionne comme un allié stratégique contre des menaces de plus en plus complexes. Ce tournant technologique ne se limite pas à améliorer les capacités défensives ; il interroge notre conception même de la responsabilité et de la gouvernance à l’échelle sociétale. À mesure que nous avançons vers un futur où la cybersécurité doit non seulement protéger, mais aussi instaurer un climat de confiance entre les utilisateurs et les technologies, il devient crucial de réfléchir à la manière dont nous voulons construire nos environnements numériques. La question ne se limite pas à savoir comment réagir face à une menace, mais aussi à déterminer quel type de société nous souhaitons bâtir, où la cybersécurité est un pilier essentiel de la création de valeur et d’innovation. Cette dynamique de confiance doit être placée au cœur des discussions, car elle façonne les interactions dans un monde où le virtuel et le réel s’entrelacent de plus en plus. L’avenir de la cybersécurité est un enjeu collectif qui mérite une attention particulière, tant pour les décideurs que pour les citoyens.

L’IA agentique et la cybersécurité: vers une nouvelle ère

À l’aube de 2025, la cybersécurité se trouve à un carrefour décisif où l’émergence de l’IA agentique promet de redéfinir l’approche face à des menaces de plus en plus complexes. Le thème des assises de la cybersécurité, “futurs, la cybersécurité au service des métiers et de la création de valeur”, souligne la diversité des trajectoires possibles pour demain. Cette réflexion pousse à interroger le sens des actions dans un contexte où la complexité des menaces ne cesse de croître. Comment aligner sécurité et performance tout en préservant la valeur ?

Constat: la menace s’accélère, la défense s’essouffle

Évolution des menaces

Les menaces cybernétiques ont atteint un niveau sans précédent. Les attaques se caractérisent par leur polymorphisme, leur automatisation et leur persistance. Les campagnes de phishing, désormais industrialisées, ainsi que la professionnalisation des rançongiciels témoignent de cette évolution alarmante. De plus, l’exploitation des vulnérabilités se fait de plus en plus dans le cadre de chaînes d’approvisionnement globales, rendant la situation encore plus critique.

Situation des SOC

Les Security Operations Centers (SOC) sont soumis à une pression constante. Le volume d’alertes à gérer ne cesse d’augmenter, tandis que les environnements techniques deviennent de plus en plus hétérogènes. Face à cette avalanche d’informations, les analystes sont contraints d’arbitrer entre rapidité et profondeur d’analyse, entraînant un épuisement notable des équipes. Parallèlement, la pénurie de talents dans le domaine de la cybersécurité constitue un facteur de risque majeur, fragilisant encore davantage la défense.

Limites de la réponse traditionnelle

La réponse traditionnelle à ces menaces, qui repose sur l’ajout de capteurs, de règles et de supervision accrue, montre ses limites. L’inflation des outils ne garantit pas une plus grande clarté ; au contraire, elle peut engendrer davantage d’opacité et renforcer le bruit de fond, rendant la gestion des alertes encore plus ardue.

Défis liés à l’intelligence artificielle

L’émergence de l’intelligence artificielle pose de nouveaux défis. Des phénomènes tels que le LLM poisoning, qui perturbe les grands modèles de langage, illustrent les risques associés à une confiance aveugle dans ces systèmes. Les biais invisibles et les décisions erronées peuvent se glisser dans les protocoles, menant à des attaques sophistiquées exploitant les propres mécanismes de défense.

Exigences réglementaires

Les exigences réglementaires, telles que DORA, NIS 2, RGPD et IA Act, rappellent que la cybersécurité ne se limite pas à des considérations techniques. Elle est également un enjeu de gouvernance, de conformité et, au final, de confiance sociétale. Ce contexte réglementaire renforce l’idée que la cybersécurité doit être intégrée dans une approche globale, dépassant le cadre technique.

L’IA agentique: une rupture nécessaire

Définition de l’IA agentique

Face à ces défis, il devient clair qu’il ne sera pas possible de répondre aux menaces futures avec les méthodes d’hier. L’IA agentique émerge comme une solution prometteuse. Elle désigne une nouvelle génération de systèmes capables d’agir de manière autonome dans un cadre contrôlé. Contrairement aux programmes traditionnels, limités à des réponses prédéfinies, ces agents reposent sur des modèles de langage avancés, capables de raisonner et de prendre des décisions adaptées.

Apport dans les SOC

Dans le cadre des SOC, l’IA agentique pourrait transformer la gestion des alertes. Là où un analyste humain doit trier des milliers de signaux faibles, l’agent intelligent peut prioriser, corréler et contextualiser ces informations en temps réel. Cette capacité d’analyse permet de déclencher des réponses rapides et proportionnées, réduisant ainsi la charge sur les équipes humaines.

Rôle de l’humain

Il serait erroné de considérer l’IA agentique comme un remplacement de l’humain. Au contraire, elle doit être perçue comme une augmentation des capacités humaines. En agissant comme un copilote, l’IA agentique permet aux experts de se concentrer sur les décisions stratégiques et les cas les plus sensibles, tout en redonnant du sens et de la portée à leur vigilance.

Au-delà de la technique: un projet de société

Cybersécurité comme facteur de confiance

La cybersécurité ne se limite plus à être un rempart invisible ; elle se transforme en un facteur de confiance pour les citoyens, les entreprises et les institutions. Des principes tels que “security by default” et “zero trust” illustrent cette exigence de rigueur et de transparence. Cependant, ils soulèvent également une question essentielle: souhaite-t-on établir des environnements numériques où la confiance est présumée ou ceux où elle doit être méritée et vérifiée en permanence ?

Questions de gouvernance

L’émergence de l’IA agentique confronte à des enjeux éthiques majeurs. Comment déléguer des tâches critiques à des systèmes autonomes tout en maintenant une gouvernance claire et une responsabilité humaine ? Qui sera responsable d’une décision automatisée ayant conduit à un incident ? Ces questions transcendent le cadre technique et touchent à la conception de la responsabilité, de la souveraineté et de la valeur attribuée à la cybersécurité.

Valeur de la cybersécurité

Il est crucial de comprendre que la cybersécurité n’est pas une fin en soi. Elle représente un levier essentiel pour préserver la liberté d’agir, d’innover et de créer de la valeur dans un monde de plus en plus incertain.

Les assises, catalyseur de réflexion collective

Importance du dialogue

Le thème des futurs rappelle que la cybersécurité ne se limite pas à anticiper les menaces ou à prévoir les technologies. Il s’agit également de donner une direction collective aux actions. Les assises de la cybersécurité constituent un espace privilégié où se rencontrent décideurs, experts, chercheurs et praticiens. C’est un lieu où la technique s’entrelace avec la stratégie, et où les enjeux opérationnels se nourrissent d’une vision sociétale.

Nécessité d’encadrer l’adoption de l’IA agentique

L’IA agentique, bien que prometteuse, ne doit pas être pensée dans l’isolement. Son adoption doit être discutée, encadrée et mise en perspective. Elle nécessite des standards, une gouvernance adéquate et une réflexion partagée sur son rôle dans les architectures de cybersécurité de demain.

Vision collective pour plusieurs futurs

Il n’existe pas un seul futur de la cybersécurité, mais plusieurs scénarios possibles. Certains pourraient conduire à une dépendance accrue à des systèmes opaques, tandis que d’autres pourraient ouvrir la voie à une cybersécurité plus résiliente, plus humaine et davantage au service de la création de valeur.

Face à l’évolution rapide des menaces numériques, il est clair que les approches traditionnelles en matière de cybersécurité ne suffisent plus. L’importance croissante de l’intelligence artificielle agentique, capable d’agir de manière autonome et de traiter des volumes d’informations complexes, met en évidence la nécessité d’une transformation dans notre manière de concevoir la défense cybernétique. Ce changement ne se limite pas à une simple amélioration technique, mais interroge également notre rapport à la responsabilité, à l’éthique et à la confiance dans un monde où les interactions numériques deviennent omniprésentes. Les exigences réglementaires, telles que celles imposées par le RGPD ou le NIS 2, soulignent le besoin d’une gouvernance rigoureuse qui ne se contente pas de protéger les systèmes, mais qui vise également à instaurer un climat de confiance. Dans ce cadre, la cybersécurité s’affirme comme un levier essentiel pour la création de valeur et l’innovation, influençant non seulement les entreprises, mais aussi les dynamiques sociales et économiques globales. Les discussions autour des assises de la cybersécurité offrent une plateforme riche pour explorer ces enjeux et envisager des scénarios futurs. Les choix que nous faisons aujourd’hui en matière de cybersécurité façonneront non seulement les environnements numériques de demain, mais aussi les fondements de la confiance sociétale. En réfléchissant à la manière dont nous souhaitons intégrer ces technologies dans notre quotidien, il est primordial de considérer les implications à long terme sur notre liberté d’agir et d’innover. L’exploration de ces questions mérite d’être approfondie, car elles touchent à la fois notre sécurité individuelle et la santé de nos sociétés dans un monde de plus en plus interconnecté. À nous de bâtir un avenir où la cybersécurité n’est pas seulement une nécessité technique, mais un véritable pilier de notre coexistence numérique.

Aller plus loin

Pour un cadre opérationnel et français, commencez par la note de l’ANSSI Développer la confiance dans l’IA par une approche par les risques cyber. Elle synthétise les principaux risques des systèmes d’IA et propose des premières recommandations pratiques pour les maîtriser dans les organisations.

Côté Union européenne, le rapport d’ENISA Securing Machine Learning Algorithms détaille une taxonomie des menaces (poisoning, adversarial examples, exfiltration, etc.) et des contrôles de sécurité tout au long du cycle de vie ML. Utile pour cartographier et prioriser vos mesures.

Pour des règles de développement sécurisées et directement actionnables, appuyez-vous sur les Guidelines for Secure AI System Development publiées par le NCSC (UK) et co-soutenues par de nombreuses agences (dont CISA). Elles couvrent la conception, le développement, le déploiement et l’exploitation.

Aux États-Unis, la CISA centralise ses positions et fiches pratiques sur Artificial Intelligence, en lien avec l’initiative Secure by Design. Vous y trouverez des alertes, feuilles de route et bonnes pratiques pour sécuriser données et modèles dans les environnements critiques.

Pour structurer la gestion des risques, le NIST AI Risk Management Framework 1.0 fournit un référentiel neutre et complet (gouvernance, cartographie, mesures, gestion) transposable à vos cas d’usage, y compris agents, LLM et chaînes d’outils.

Côté menaces spécifiques à l’IA, explorez MITRE ATLAS, la base de connaissances des tactiques et techniques adverses contre les systèmes IA. Parfait pour alimenter vos modèles de menace, vos exercices de red teaming et vos plans de détection.

Pour les applications LLM et agents, l’OWASP propose une vue synthétique avec le Top 10 des risques pour les applications LLM. Idéal pour cadrer audits, exigences produit et garde-fous sur l’orchestration agentique (prompt injection, exfiltration via outils, etc.).

Ces ressources sont autant de portes ouvertes vers une compréhension enrichie des défis de la cybersécurité, permettant de mieux appréhender les enjeux contemporains et futurs qui nous concernent tous.