Découvrez les fiches pratiques détaillées pour comprendre et vous protéger contre les menaces actuelles
Le Credential Stuffing est une attaque qui exploite la réutilisation des mots de passe volés pour compromettre des comptes en ligne. Découvrez son fonctionnement, des exemples célèbres et les meilleures...
A2A10:2025 - Trust Boundary Violations
06 April 2026
Les frontières de confiance dans une architecture A2A ne sont pas physiques — elles sont logiques. Et elles sont souvent inexistantes. Quand un agent externe est traité comme un agent...
A2A09:2025 - Protocol Downgrade & Version Exploitation
03 April 2026
Le protocole A2A a évolué rapidement de v0.3 à v2. Les implémentations qui tolèrent les versions anciennes ouvrent une porte aux attaques de déclassement qui désactivent les protections de sécurité....
A2A08:2025 - Data Leakage via Agent Interactions
01 April 2026
Les agents A2A sont bavards par nature : ils partagent contexte, résultats et métadonnées à chaque étape. Sans contrôle de ce qui transite, les données sensibles fuient à chaque délégation....
A2A07:2025 - DoS by Delegation Amplification
30 March 2026
Une seule requête peut déclencher des centaines de délégations en cascade. Le DoS par amplification A2A est un déni de service économique silencieux qui vide les budgets avant qu'on s'en...
A2A06:2025 - Insecure Agent Discovery & Reconnaissance
27 March 2026
L'endpoint /.well-known/agent.json expose publiquement la cartographie complète de ton écosystème d'agents. Pour un attaquant, c'est une invitation à la reconnaissance.
A2A05:2025 - Context Poisoning via A2A
25 March 2026
Un agent A2A qui reçoit des données corrompues les traite comme du contexte de confiance. C'est le vecteur d'injection indirect le plus difficile à détecter dans une architecture multi-agents.
A2A04:2025 - Unauthorized Delegation & Confused Deputy
23 March 2026
Dans une chaîne de délégation A2A, chaque agent hérite potentiellement des droits de son parent. Un agent subordonné compromis peut ainsi atteindre des ressources que personne n'avait anticipé.
A2A03:2025 - Task Hijacking & Replay Attack
20 March 2026
Une tâche A2A interceptée peut être modifiée, rejouée ou détournée. Sans protection d'intégrité des messages, chaque échange inter-agents est une cible.
A2A02:2025 - Insecure Token & Authorization Management
18 March 2026
Dans une architecture A2A, les tokens voyagent entre agents. Un token mal géré ne compromet pas un service , il compromet toute la chaîne de délégation.
A2A01:2025 - Agent Card Spoofing & Shadowing
16 March 2026
L'Agent Card est le passeport d'un agent dans l'écosystème A2A. Quand un attaquant la falsifie ou la clone, c'est toute la chaîne de confiance qui s'effondre.
A2A Security : mini-série sur les risques critiques du protocole Agent-to-Agent de Google
15 March 2026
Le protocole A2A de Google standardise la communication entre agents IA. Mais cette interopérabilité a un prix sécurité. Tour d'horizon des 10 risques critiques à connaître avant de déployer une...
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
Maintenant que nous avons vu comment atteindre le niveau 3 de SLSA avec GitHub Actions, une question se pose : est-ce la seule manière de faire ?
Dans mon précédent article sur SLSA, j'ai présenté le framework et ses niveaux de maturité.
SLSA : Mettre sa Supply Chain logicielle sous haute surveillance
14 February 2026
On passe notre temps à scanner nos images, à durcir nos clusters Kubernetes et à chasser les vulnérabilités dans notre code.
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
Dans cette suite de posts, nous allons explorer les concepts fondamentaux de l'Agentic AI et les risques associés, en mettant l'accent sur les différences entre les modèles de langage (LLM)...
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
Après avoir exploré la méthodologie complète de PASTA dans notre article précédent, il est temps de se pencher sur un outil plus spécifique mais tout aussi puissant pour l'identification des...
🍝 PASTA : pour la GenAI !
24 May 2025
La cybersécurité peut sembler un labyrinthe, avec des monstres numériques qui se cachent à chaque coin de rue.
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
Le Credential Stuffing est une attaque qui exploite la réutilisation des mots de passe volés pour compromettre des comptes en ligne. Découvrez son fonctionnement, des exemples célèbres et les meilleures...
Le Credential Stuffing est une attaque qui exploite la réutilisation des mots de passe volés pour compromettre des comptes en ligne. Découvrez son fonctionnement, des exemples célèbres et les meilleures...
Le Credential Stuffing est une attaque qui exploite la réutilisation des mots de passe volés pour compromettre des comptes en ligne. Découvrez son fonctionnement, des exemples célèbres et les meilleures...
A2A10:2025 - Trust Boundary Violations
06 April 2026
Les frontières de confiance dans une architecture A2A ne sont pas physiques — elles sont logiques. Et elles sont souvent inexistantes. Quand un agent externe est traité comme un agent...
A2A09:2025 - Protocol Downgrade & Version Exploitation
03 April 2026
Le protocole A2A a évolué rapidement de v0.3 à v2. Les implémentations qui tolèrent les versions anciennes ouvrent une porte aux attaques de déclassement qui désactivent les protections de sécurité....
A2A08:2025 - Data Leakage via Agent Interactions
01 April 2026
Les agents A2A sont bavards par nature : ils partagent contexte, résultats et métadonnées à chaque étape. Sans contrôle de ce qui transite, les données sensibles fuient à chaque délégation....
A2A07:2025 - DoS by Delegation Amplification
30 March 2026
Une seule requête peut déclencher des centaines de délégations en cascade. Le DoS par amplification A2A est un déni de service économique silencieux qui vide les budgets avant qu'on s'en...
A2A06:2025 - Insecure Agent Discovery & Reconnaissance
27 March 2026
L'endpoint /.well-known/agent.json expose publiquement la cartographie complète de ton écosystème d'agents. Pour un attaquant, c'est une invitation à la reconnaissance.
A2A05:2025 - Context Poisoning via A2A
25 March 2026
Un agent A2A qui reçoit des données corrompues les traite comme du contexte de confiance. C'est le vecteur d'injection indirect le plus difficile à détecter dans une architecture multi-agents.
A2A04:2025 - Unauthorized Delegation & Confused Deputy
23 March 2026
Dans une chaîne de délégation A2A, chaque agent hérite potentiellement des droits de son parent. Un agent subordonné compromis peut ainsi atteindre des ressources que personne n'avait anticipé.
A2A03:2025 - Task Hijacking & Replay Attack
20 March 2026
Une tâche A2A interceptée peut être modifiée, rejouée ou détournée. Sans protection d'intégrité des messages, chaque échange inter-agents est une cible.
A2A02:2025 - Insecure Token & Authorization Management
18 March 2026
Dans une architecture A2A, les tokens voyagent entre agents. Un token mal géré ne compromet pas un service , il compromet toute la chaîne de délégation.
A2A01:2025 - Agent Card Spoofing & Shadowing
16 March 2026
L'Agent Card est le passeport d'un agent dans l'écosystème A2A. Quand un attaquant la falsifie ou la clone, c'est toute la chaîne de confiance qui s'effondre.
A2A Security : mini-série sur les risques critiques du protocole Agent-to-Agent de Google
15 March 2026
Le protocole A2A de Google standardise la communication entre agents IA. Mais cette interopérabilité a un prix sécurité. Tour d'horizon des 10 risques critiques à connaître avant de déployer une...
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
Maintenant que nous avons vu comment atteindre le niveau 3 de SLSA avec GitHub Actions, une question se pose : est-ce la seule manière de faire ?
Dans mon précédent article sur SLSA, j'ai présenté le framework et ses niveaux de maturité.
SLSA : Mettre sa Supply Chain logicielle sous haute surveillance
14 February 2026
On passe notre temps à scanner nos images, à durcir nos clusters Kubernetes et à chasser les vulnérabilités dans notre code.
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
</div>
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
</div>
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
</div>
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
</div>
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
</div>
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
</div>
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
</div>
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
</div>
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
</div>
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
</div>
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
</div>
Dans cette suite de posts, nous allons explorer les concepts fondamentaux de l'Agentic AI et les risques associés, en mettant l'accent sur les différences entre les modèles de langage (LLM)...
</div>
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
</div>
Après avoir exploré la méthodologie complète de PASTA dans notre article précédent, il est temps de se pencher sur un outil plus spécifique mais tout aussi puissant pour l'identification des...
</div>
🍝 PASTA : pour la GenAI !
24 May 2025
La cybersécurité peut sembler un labyrinthe, avec des monstres numériques qui se cachent à chaque coin de rue.
</div>
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>
A2A10:2025 - Trust Boundary Violations
06 April 2026
Les frontières de confiance dans une architecture A2A ne sont pas physiques — elles sont logiques. Et elles sont souvent inexistantes. Quand un agent externe est traité comme un agent...
A2A09:2025 - Protocol Downgrade & Version Exploitation
03 April 2026
Le protocole A2A a évolué rapidement de v0.3 à v2. Les implémentations qui tolèrent les versions anciennes ouvrent une porte aux attaques de déclassement qui désactivent les protections de sécurité....
A2A08:2025 - Data Leakage via Agent Interactions
01 April 2026
Les agents A2A sont bavards par nature : ils partagent contexte, résultats et métadonnées à chaque étape. Sans contrôle de ce qui transite, les données sensibles fuient à chaque délégation....
A2A07:2025 - DoS by Delegation Amplification
30 March 2026
Une seule requête peut déclencher des centaines de délégations en cascade. Le DoS par amplification A2A est un déni de service économique silencieux qui vide les budgets avant qu'on s'en...
A2A06:2025 - Insecure Agent Discovery & Reconnaissance
27 March 2026
L'endpoint /.well-known/agent.json expose publiquement la cartographie complète de ton écosystème d'agents. Pour un attaquant, c'est une invitation à la reconnaissance.
A2A05:2025 - Context Poisoning via A2A
25 March 2026
Un agent A2A qui reçoit des données corrompues les traite comme du contexte de confiance. C'est le vecteur d'injection indirect le plus difficile à détecter dans une architecture multi-agents.
A2A04:2025 - Unauthorized Delegation & Confused Deputy
23 March 2026
Dans une chaîne de délégation A2A, chaque agent hérite potentiellement des droits de son parent. Un agent subordonné compromis peut ainsi atteindre des ressources que personne n'avait anticipé.
A2A03:2025 - Task Hijacking & Replay Attack
20 March 2026
Une tâche A2A interceptée peut être modifiée, rejouée ou détournée. Sans protection d'intégrité des messages, chaque échange inter-agents est une cible.
A2A02:2025 - Insecure Token & Authorization Management
18 March 2026
Dans une architecture A2A, les tokens voyagent entre agents. Un token mal géré ne compromet pas un service , il compromet toute la chaîne de délégation.
A2A01:2025 - Agent Card Spoofing & Shadowing
16 March 2026
L'Agent Card est le passeport d'un agent dans l'écosystème A2A. Quand un attaquant la falsifie ou la clone, c'est toute la chaîne de confiance qui s'effondre.
A2A Security : mini-série sur les risques critiques du protocole Agent-to-Agent de Google
15 March 2026
Le protocole A2A de Google standardise la communication entre agents IA. Mais cette interopérabilité a un prix sécurité. Tour d'horizon des 10 risques critiques à connaître avant de déployer une...
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
</div>
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
</div>
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
</div>
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
</div>
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
</div>
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
</div>
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
</div>
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
</div>
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
</div>
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
</div>
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
</div>
Dans cette suite de posts, nous allons explorer les concepts fondamentaux de l'Agentic AI et les risques associés, en mettant l'accent sur les différences entre les modèles de langage (LLM)...
</div>
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>
A2A10:2025 - Trust Boundary Violations
06 April 2026
Les frontières de confiance dans une architecture A2A ne sont pas physiques — elles sont logiques. Et elles sont souvent inexistantes. Quand un agent externe est traité comme un agent...
A2A09:2025 - Protocol Downgrade & Version Exploitation
03 April 2026
Le protocole A2A a évolué rapidement de v0.3 à v2. Les implémentations qui tolèrent les versions anciennes ouvrent une porte aux attaques de déclassement qui désactivent les protections de sécurité....
A2A08:2025 - Data Leakage via Agent Interactions
01 April 2026
Les agents A2A sont bavards par nature : ils partagent contexte, résultats et métadonnées à chaque étape. Sans contrôle de ce qui transite, les données sensibles fuient à chaque délégation....
A2A07:2025 - DoS by Delegation Amplification
30 March 2026
Une seule requête peut déclencher des centaines de délégations en cascade. Le DoS par amplification A2A est un déni de service économique silencieux qui vide les budgets avant qu'on s'en...
A2A06:2025 - Insecure Agent Discovery & Reconnaissance
27 March 2026
L'endpoint /.well-known/agent.json expose publiquement la cartographie complète de ton écosystème d'agents. Pour un attaquant, c'est une invitation à la reconnaissance.
A2A05:2025 - Context Poisoning via A2A
25 March 2026
Un agent A2A qui reçoit des données corrompues les traite comme du contexte de confiance. C'est le vecteur d'injection indirect le plus difficile à détecter dans une architecture multi-agents.
A2A04:2025 - Unauthorized Delegation & Confused Deputy
23 March 2026
Dans une chaîne de délégation A2A, chaque agent hérite potentiellement des droits de son parent. Un agent subordonné compromis peut ainsi atteindre des ressources que personne n'avait anticipé.
A2A03:2025 - Task Hijacking & Replay Attack
20 March 2026
Une tâche A2A interceptée peut être modifiée, rejouée ou détournée. Sans protection d'intégrité des messages, chaque échange inter-agents est une cible.
A2A02:2025 - Insecure Token & Authorization Management
18 March 2026
Dans une architecture A2A, les tokens voyagent entre agents. Un token mal géré ne compromet pas un service , il compromet toute la chaîne de délégation.
A2A01:2025 - Agent Card Spoofing & Shadowing
16 March 2026
L'Agent Card est le passeport d'un agent dans l'écosystème A2A. Quand un attaquant la falsifie ou la clone, c'est toute la chaîne de confiance qui s'effondre.
A2A Security : mini-série sur les risques critiques du protocole Agent-to-Agent de Google
15 March 2026
Le protocole A2A de Google standardise la communication entre agents IA. Mais cette interopérabilité a un prix sécurité. Tour d'horizon des 10 risques critiques à connaître avant de déployer une...
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
</div>
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
</div>
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
</div>
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
</div>
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
</div>
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
</div>
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
</div>
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
</div>
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
</div>
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
</div>
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
</div>
A2A10:2025 - Trust Boundary Violations
06 April 2026
Les frontières de confiance dans une architecture A2A ne sont pas physiques — elles sont logiques. Et elles sont souvent inexistantes. Quand un agent externe est traité comme un agent...
A2A09:2025 - Protocol Downgrade & Version Exploitation
03 April 2026
Le protocole A2A a évolué rapidement de v0.3 à v2. Les implémentations qui tolèrent les versions anciennes ouvrent une porte aux attaques de déclassement qui désactivent les protections de sécurité....
A2A08:2025 - Data Leakage via Agent Interactions
01 April 2026
Les agents A2A sont bavards par nature : ils partagent contexte, résultats et métadonnées à chaque étape. Sans contrôle de ce qui transite, les données sensibles fuient à chaque délégation....
A2A07:2025 - DoS by Delegation Amplification
30 March 2026
Une seule requête peut déclencher des centaines de délégations en cascade. Le DoS par amplification A2A est un déni de service économique silencieux qui vide les budgets avant qu'on s'en...
A2A06:2025 - Insecure Agent Discovery & Reconnaissance
27 March 2026
L'endpoint /.well-known/agent.json expose publiquement la cartographie complète de ton écosystème d'agents. Pour un attaquant, c'est une invitation à la reconnaissance.
A2A05:2025 - Context Poisoning via A2A
25 March 2026
Un agent A2A qui reçoit des données corrompues les traite comme du contexte de confiance. C'est le vecteur d'injection indirect le plus difficile à détecter dans une architecture multi-agents.
A2A04:2025 - Unauthorized Delegation & Confused Deputy
23 March 2026
Dans une chaîne de délégation A2A, chaque agent hérite potentiellement des droits de son parent. Un agent subordonné compromis peut ainsi atteindre des ressources que personne n'avait anticipé.
A2A03:2025 - Task Hijacking & Replay Attack
20 March 2026
Une tâche A2A interceptée peut être modifiée, rejouée ou détournée. Sans protection d'intégrité des messages, chaque échange inter-agents est une cible.
A2A02:2025 - Insecure Token & Authorization Management
18 March 2026
Dans une architecture A2A, les tokens voyagent entre agents. Un token mal géré ne compromet pas un service , il compromet toute la chaîne de délégation.
A2A01:2025 - Agent Card Spoofing & Shadowing
16 March 2026
L'Agent Card est le passeport d'un agent dans l'écosystème A2A. Quand un attaquant la falsifie ou la clone, c'est toute la chaîne de confiance qui s'effondre.
A2A Security : mini-série sur les risques critiques du protocole Agent-to-Agent de Google
15 March 2026
Le protocole A2A de Google standardise la communication entre agents IA. Mais cette interopérabilité a un prix sécurité. Tour d'horizon des 10 risques critiques à connaître avant de déployer une...
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
</div>
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
</div>
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
</div>
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
</div>
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
</div>
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
</div>
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
</div>
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
</div>
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
</div>
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
</div>
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
</div>
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
</div>
Après avoir exploré la méthodologie complète de PASTA dans notre article précédent, il est temps de se pencher sur un outil plus spécifique mais tout aussi puissant pour l'identification des...
</div>
🍝 PASTA : pour la GenAI !
24 May 2025
La cybersécurité peut sembler un labyrinthe, avec des monstres numériques qui se cachent à chaque coin de rue.
</div>
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>
A2A10:2025 - Trust Boundary Violations
06 April 2026
Les frontières de confiance dans une architecture A2A ne sont pas physiques — elles sont logiques. Et elles sont souvent inexistantes. Quand un agent externe est traité comme un agent...
A2A09:2025 - Protocol Downgrade & Version Exploitation
03 April 2026
Le protocole A2A a évolué rapidement de v0.3 à v2. Les implémentations qui tolèrent les versions anciennes ouvrent une porte aux attaques de déclassement qui désactivent les protections de sécurité....
A2A08:2025 - Data Leakage via Agent Interactions
01 April 2026
Les agents A2A sont bavards par nature : ils partagent contexte, résultats et métadonnées à chaque étape. Sans contrôle de ce qui transite, les données sensibles fuient à chaque délégation....
A2A07:2025 - DoS by Delegation Amplification
30 March 2026
Une seule requête peut déclencher des centaines de délégations en cascade. Le DoS par amplification A2A est un déni de service économique silencieux qui vide les budgets avant qu'on s'en...
A2A06:2025 - Insecure Agent Discovery & Reconnaissance
27 March 2026
L'endpoint /.well-known/agent.json expose publiquement la cartographie complète de ton écosystème d'agents. Pour un attaquant, c'est une invitation à la reconnaissance.
A2A05:2025 - Context Poisoning via A2A
25 March 2026
Un agent A2A qui reçoit des données corrompues les traite comme du contexte de confiance. C'est le vecteur d'injection indirect le plus difficile à détecter dans une architecture multi-agents.
A2A04:2025 - Unauthorized Delegation & Confused Deputy
23 March 2026
Dans une chaîne de délégation A2A, chaque agent hérite potentiellement des droits de son parent. Un agent subordonné compromis peut ainsi atteindre des ressources que personne n'avait anticipé.
A2A03:2025 - Task Hijacking & Replay Attack
20 March 2026
Une tâche A2A interceptée peut être modifiée, rejouée ou détournée. Sans protection d'intégrité des messages, chaque échange inter-agents est une cible.
A2A02:2025 - Insecure Token & Authorization Management
18 March 2026
Dans une architecture A2A, les tokens voyagent entre agents. Un token mal géré ne compromet pas un service , il compromet toute la chaîne de délégation.
A2A01:2025 - Agent Card Spoofing & Shadowing
16 March 2026
L'Agent Card est le passeport d'un agent dans l'écosystème A2A. Quand un attaquant la falsifie ou la clone, c'est toute la chaîne de confiance qui s'effondre.
A2A Security : mini-série sur les risques critiques du protocole Agent-to-Agent de Google
15 March 2026
Le protocole A2A de Google standardise la communication entre agents IA. Mais cette interopérabilité a un prix sécurité. Tour d'horizon des 10 risques critiques à connaître avant de déployer une...
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>
Maintenant que nous avons vu comment atteindre le niveau 3 de SLSA avec GitHub Actions, une question se pose : est-ce la seule manière de faire ?
Dans mon précédent article sur SLSA, j'ai présenté le framework et ses niveaux de maturité.
SLSA : Mettre sa Supply Chain logicielle sous haute surveillance
14 February 2026
On passe notre temps à scanner nos images, à durcir nos clusters Kubernetes et à chasser les vulnérabilités dans notre code.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
</div>
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
</div>
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
</div>
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
</div>
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
</div>
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
</div>
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
</div>
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
</div>
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
</div>
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
</div>
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
</div>
Dans cette suite de posts, nous allons explorer les concepts fondamentaux de l'Agentic AI et les risques associés, en mettant l'accent sur les différences entre les modèles de langage (LLM)...
</div>
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
</div>
Après avoir exploré la méthodologie complète de PASTA dans notre article précédent, il est temps de se pencher sur un outil plus spécifique mais tout aussi puissant pour l'identification des...
</div>
🍝 PASTA : pour la GenAI !
24 May 2025
La cybersécurité peut sembler un labyrinthe, avec des monstres numériques qui se cachent à chaque coin de rue.
</div>
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
</div>
Après avoir exploré la méthodologie complète de PASTA dans notre article précédent, il est temps de se pencher sur un outil plus spécifique mais tout aussi puissant pour l'identification des...
</div>
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
</div>
🍝 PASTA : pour la GenAI !
24 May 2025
La cybersécurité peut sembler un labyrinthe, avec des monstres numériques qui se cachent à chaque coin de rue.
</div>
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>