Découvrez les fiches pratiques détaillées pour comprendre et vous protéger contre les menaces actuelles
Le Credential Stuffing est une attaque qui exploite la réutilisation des mots de passe volés pour compromettre des comptes en ligne. Découvrez son fonctionnement, des exemples célèbres et les meilleures...
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
Maintenant que nous avons vu comment atteindre le niveau 3 de SLSA avec GitHub Actions, une question se pose : est-ce la seule manière de faire ?
Dans mon précédent article sur SLSA, j'ai présenté le framework et ses niveaux de maturité.
SLSA : Mettre sa Supply Chain logicielle sous haute surveillance
14 February 2026
On passe notre temps à scanner nos images, à durcir nos clusters Kubernetes et à chasser les vulnérabilités dans notre code.
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
Dans cette suite de posts, nous allons explorer les concepts fondamentaux de l'Agentic AI et les risques associés, en mettant l'accent sur les différences entre les modèles de langage (LLM)...
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
Après avoir exploré la méthodologie complète de PASTA dans notre article précédent, il est temps de se pencher sur un outil plus spécifique mais tout aussi puissant pour l'identification des...
🍝 PASTA : pour la GenAI !
24 May 2025
La cybersécurité peut sembler un labyrinthe, avec des monstres numériques qui se cachent à chaque coin de rue.
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
Le Credential Stuffing est une attaque qui exploite la réutilisation des mots de passe volés pour compromettre des comptes en ligne. Découvrez son fonctionnement, des exemples célèbres et les meilleures...
Le Credential Stuffing est une attaque qui exploite la réutilisation des mots de passe volés pour compromettre des comptes en ligne. Découvrez son fonctionnement, des exemples célèbres et les meilleures...
Le Credential Stuffing est une attaque qui exploite la réutilisation des mots de passe volés pour compromettre des comptes en ligne. Découvrez son fonctionnement, des exemples célèbres et les meilleures...
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
Maintenant que nous avons vu comment atteindre le niveau 3 de SLSA avec GitHub Actions, une question se pose : est-ce la seule manière de faire ?
Dans mon précédent article sur SLSA, j'ai présenté le framework et ses niveaux de maturité.
SLSA : Mettre sa Supply Chain logicielle sous haute surveillance
14 February 2026
On passe notre temps à scanner nos images, à durcir nos clusters Kubernetes et à chasser les vulnérabilités dans notre code.
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
</div>
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
</div>
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
</div>
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
</div>
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
</div>
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
</div>
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
</div>
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
</div>
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
</div>
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
</div>
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
</div>
Dans cette suite de posts, nous allons explorer les concepts fondamentaux de l'Agentic AI et les risques associés, en mettant l'accent sur les différences entre les modèles de langage (LLM)...
</div>
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
</div>
Après avoir exploré la méthodologie complète de PASTA dans notre article précédent, il est temps de se pencher sur un outil plus spécifique mais tout aussi puissant pour l'identification des...
</div>
🍝 PASTA : pour la GenAI !
24 May 2025
La cybersécurité peut sembler un labyrinthe, avec des monstres numériques qui se cachent à chaque coin de rue.
</div>
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
</div>
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
</div>
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
</div>
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
</div>
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
</div>
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
</div>
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
</div>
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
</div>
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
</div>
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
</div>
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
</div>
Dans cette suite de posts, nous allons explorer les concepts fondamentaux de l'Agentic AI et les risques associés, en mettant l'accent sur les différences entre les modèles de langage (LLM)...
</div>
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
</div>
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
</div>
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
</div>
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
</div>
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
</div>
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
</div>
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
</div>
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
</div>
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
</div>
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
</div>
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
</div>
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
</div>
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
</div>
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
</div>
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
</div>
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
</div>
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
</div>
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
</div>
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
</div>
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
</div>
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
</div>
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
</div>
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
</div>
Après avoir exploré la méthodologie complète de PASTA dans notre article précédent, il est temps de se pencher sur un outil plus spécifique mais tout aussi puissant pour l'identification des...
</div>
🍝 PASTA : pour la GenAI !
24 May 2025
La cybersécurité peut sembler un labyrinthe, avec des monstres numériques qui se cachent à chaque coin de rue.
</div>
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>
MCP10:2025 - Context Injection & Over-Sharing
28 February 2026
Le contexte MCP, c'est la mémoire de travail de l'agent. Quand cette mémoire est partagée, persistante ou mal scopée, les données d'un utilisateur se retrouvent chez un autre. RGPD, HIPAA,...
MCP09:2025 - Shadow MCP Servers
27 February 2026
Le Shadow IT version IA. Des développeurs déploient des serveurs MCP en dehors de tout contrôle de sécurité, avec des configs permissives, des credentials hardcodées et zero monitoring. Et ça...
MCP08:2025 - Lack of Audit and Telemetry
26 February 2026
Un agent IA agit, et personne ne sait ce qu'il a fait. Sans logs, sans telemetry, sans traces — quand un incident arrive, tu travailles à l'aveugle. Et dans le...
MCP07:2025 - Insufficient Authentication & Authorization
25 February 2026
Beaucoup de serveurs MCP sont déployés avec l'authentification désactivée 'pour tester' et finissent en prod comme ça. Dans un système multi-agents, c'est une porte d'entrée béante pour n'importe qui sur...
MCP06:2025 - Prompt Injection via Contextual Payloads
24 February 2026
Le prompt injection, c'est l'injection SQL du monde IA. Dans le contexte MCP, le vecteur d'attaque est amplifié : l'injection peut venir de n'importe quelle source injectée dans le contexte...
MCP05:2025 - Command Injection & Execution
23 February 2026
L'injection de commandes, ça date de l'ère Unix. Mais dans le contexte MCP, c'est pire : le modèle IA est l'interpréteur. Et lui, il ne doute jamais de ce qu'il...
MCP04:2025 - Software Supply Chain Attacks & Dependency Tampering
22 February 2026
Une dépendance compromise dans ta stack MCP, et c'est ton agent IA tout entier qui est sous contrôle d'un attaquant. Les supply chain attacks touchent maintenant l'écosystème IA avec la...
MCP03:2025 - Tool Poisoning
21 February 2026
Un adversaire compromet les outils dont dépend ton agent IA. Résultat : l'agent fait ce que l'attaquant veut, tout en croyant travailler normalement. Le Tool Poisoning, c'est le supply chain...
MCP02:2025 - Privilege Escalation via Scope Creep
19 February 2026
Les permissions d'un serveur MCP commencent petites, puis grandissent... et grandissent. Le scope creep est le moyen le plus discret pour un agent IA de se retrouver avec des droits...
MCP01:2025 - Token Mismanagement & Secret Exposure
10 February 2026
Les tokens et credentials dans un système MCP : la faille la plus classique, mais avec une nouvelle dimension. Quand un LLM mémorise tes secrets et qu'un attaquant lui demande...
Le Model Context Protocol (MCP) s'impose comme le standard d'interopérabilité des agents IA.
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>
Maintenant que nous avons vu comment atteindre le niveau 3 de SLSA avec GitHub Actions, une question se pose : est-ce la seule manière de faire ?
Dans mon précédent article sur SLSA, j'ai présenté le framework et ses niveaux de maturité.
SLSA : Mettre sa Supply Chain logicielle sous haute surveillance
14 February 2026
On passe notre temps à scanner nos images, à durcir nos clusters Kubernetes et à chasser les vulnérabilités dans notre code.
⚡ Agentic AI : Stratégies de Mitigation (2.3/4)
10 September 2025
Les stratégies de mitigation définissent comment réagir aux différentes situations détectées par les guardrails.
</div>
📊 Agentic AI : Gestion des Erreurs et Monitoring (2.4/4)
09 September 2025
La gestion des erreurs et le monitoring constituent les piliers de la résilience des systèmes d'agents IA.
</div>
🔍 Agentic AI : Guardrails de Sortie (2.2/4)
04 September 2025
Les guardrails de sortie assurent la qualité, la sécurité et la conformité des réponses générées par les modèles IA. Ils constituent la dernière ligne de défense avant que le contenu...
</div>
🛡️ Agentic AI : Guardrails d'Entrée (2.1/4)
01 September 2025
Les guardrails d'entrée sont conçus pour filtrer et contrôler les requêtes avant qu'elles n'atteignent le modèle.
</div>
🧠 Agentic AI : Guide Complet des Guardrails (2/4) 🛡️
01 September 2025
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
⏱️ Temps de lecture estimé : 15-20 minutes (enfin pour bien le comprendre 😊)
</div>
⚠️ Série en cours de publication : tous les contenus ne sont pas encore disponibles.
</div>
Concluons notre exploration des risques liés aux Agents IA avec le cinquième et dernier risque majeur : les vulnérabilités d'exécution de code.
</div>
Continuons notre exploration des risques liés aux Agents IA avec le quatrième risque majeur : les actions malveillantes autonomes.
</div>
🧑Agentic AI : Risque 3 des Agents IA - Exfiltration de Données via les Actions de l'Agent 📤
14 August 2025
Poursuivons notre exploration des risques liés aux Agents IA avec le troisième risque majeur : l'exfiltration de données via les actions de l'agent.
</div>
Continuons dans ce voyage des risques liés aux Agents IA en explorant le deuxième risque majeur : le détournement et l'abus des outils.
</div>
Nous allons maintenant approfondir les risques présentés précédemment pour vous aider à comprendre concrètement comment ils peuvent se matérialiser dans votre code (a base de code python ) et dans...
</div>
Voici donc la recette pour sécuriser les Agents IA, en se basant sur les principes de l'OWASP et les meilleures pratiques de sécurité.
</div>
Dans cette suite de posts, nous allons explorer les concepts fondamentaux de l'Agentic AI et les risques associés, en mettant l'accent sur les différences entre les modèles de langage (LLM)...
</div>
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
</div>
Après avoir exploré la méthodologie complète de PASTA dans notre article précédent, il est temps de se pencher sur un outil plus spécifique mais tout aussi puissant pour l'identification des...
</div>
🍝 PASTA : pour la GenAI !
24 May 2025
La cybersécurité peut sembler un labyrinthe, avec des monstres numériques qui se cachent à chaque coin de rue.
</div>
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
</div>
Après avoir exploré la méthodologie complète de PASTA dans notre article précédent, il est temps de se pencher sur un outil plus spécifique mais tout aussi puissant pour l'identification des...
</div>
Nous avons exploré séparément les forces de PASTA, la méthodologie de modélisation des menaces axée sur le risque, et de STRIDE, la taxonomie exhaustive des types de menaces.
</div>
🍝 PASTA : pour la GenAI !
24 May 2025
La cybersécurité peut sembler un labyrinthe, avec des monstres numériques qui se cachent à chaque coin de rue.
</div>
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>
Empêche les attaques par injection (spécifiquement l'injection de prompt dans le contexte GenAI) qui visent à manipuler le modèle, contourner les règles, exfiltrer des données ou exécuter des actions non...
</div>
Permet de détecter les tentatives d'attaque (ex: force brute, injection de prompt, exfiltration de données), de comprendre comment une brèche s'est produite, et de réagir rapidement.
</div>
🛡️ Sécurité des Données dans le Zero-Trust
08 May 2025
Protège la confidentialité et l'intégrité des informations, même si elles sont interceptées ou si le stockage est compromis.
</div>
Isoler les composants pour limiter l'impact d'une compromission, en sécurisant notamment les interfaces (API) entre les segments.
</div>
Réduit le risque que des appareils compromis ou non sécurisés soient utilisés pour attaquer l'application GenAI, voler des données d'authentification, injecter des malwares ou exfiltrer des...
</div>
Limite l'impact potentiel en cas de compromission d'un compte ou d'une tentative d'abus par une entité légitime.
</div>
🛡️ La Gestion Stricte des Identités dans le Zero Trust
29 April 2025
S'assurer que seuls les utilisateurs et services légitimes peuvent accéder à l' application GenAI, à ses modèles et aux données potentiellement sensibles qu'elle traite.
</div>