- OWASP 23
- CyberSec 19
- IA 18
- Top10 LLM 17
- Top10 16
- LLM 15
- veille 7
- Sécurité 5
- owasp 4
- security 4
- genAI 3
- SOC2 2
- sécurité 2
- OWASP ASVS 1
- QuickNotes 1
- best-practices 1
- compliance 1
- livre 1
- promptfoo 1
- purpleteam 1
- python 1
- red-team 1
- redteam 1
OWASP
Promptfoo pour les tests de sécurité de vos GenAI
Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.
LLM Applications Cybersecurity and Governance Checklist v1.1 : une approche pragmatique
L’OWASP a publié la checklist de gouvernance autour des applications d’AI et des LLM. Cette liste, a la ‘Prévert’, est assez interessante. Mais une approche pragmatique avec des outils me semble intéressante a vous proposer.
OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥
La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.
OWASP Top 10 LLM09-2025: 💥Désinformation💥
Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.
OWASP Top 10 LLM08-2025: 💥Faiblesses des Vecteurs et des Embeddings💥
Pourquoi est-ce important ?
OWASP Machine Learning Security Top Ten
Dans la grande galaxie OWASP et la non moins grande galaxie des top10 et aussi de l’IA, L’OWASP (Open Web Application Security Project) a publié en 2023 un guide spécifique pour la sécurité des modèles de machine learning, intitulé OWASP Machine Learning Security Top 10. Ce document met en lumière les principales vulnérabilités associées aux systèmes de machine learning et propose des stratégies pour les atténuer.
Les embedding dans le RAG quesako ?
Dans le contexte de la Génération Augmentée de Récupération (RAG), les embeddings sont des représentations vectorielles de mots ou de groupes de mots. Ces vecteurs encapsulent des informations sur les contextes dans lesquels les mots apparaissent, permettant ainsi aux modèles de langage de calculer des similarités sémantiques entre eux. Les embeddings sont essentiels pour la RAG car ils permettent de rechercher et de comparer efficacement les informations pertinentes dans une base de données vectorielle, améliorant ainsi la précision des réponses générées par les modèles de langage.
Retrieval-Augmented Generation (RAG), quesako ?
La génération de contenu assistée par l’intelligence artificielle (IA) a connu des avancées spectaculaires grâce aux modèles de langage à grande échelle (LLMs). Cependant, ces modèles présentent des limites, notamment en termes de précision et de pertinence des informations générées. Pour pallier ces défauts, la technique de Retrieval-Augmented Generation (RAG) est devenue essentielle pour améliorer la génération de contenu en IA.
OWASP Top 10 LLM07-2025: 💥Fuite des Prompts Système💥
Pourquoi est-ce important ?
OWASP Top 10 LLM06-2025 -💥Autonomie Excessive💥
Pourquoi est-ce important ?
OWASP Top 10 LLM05 -2025 - 💥Gestion Inappropriée des Sorties 💥
La Gestion Inappropriée des Sorties concerne les défauts dans la gestion des contenus générés par les LLM avant leur traitement par d’autres systèmes, exposant les applications à divers risques de sécurité.
OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥
L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.
OWASP Top10 LLM03-2025 - 💥Empoisonnement de la chaîne d’approvisionnement💥
L’empoisonnement de la chaîne d’approvisionnement dans le contexte des Large Language Models (LLM) fait référence aux vulnérabilités qui affectent l’intégrité des données d’entraînement, des modèles et des plateformes de déploiement.
OWASP Top10 LLM02-2025 - 🛡️️Se protéger en profondeur
En plus des mesures précédentes, il est possible de renforcer la sécurité des applications LLM en adoptant des pratiques de sécurité avancées. Ces stratégies complémentaires peuvent aider à atténuer les risques liés à l’utilisation de modèles des LLMs .
OWASP Top10 LLM02-2025 - 🛡️️Se protéger
La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.
OWASP Top10 LLM01-2025 - 💥L’Injection Indirecte ou Contextuelle de Prompt💥
L’injection indirecte ou contextuelle de prompt est une technique plus subtile où les attaquants exploitent le contexte de la conversation pour manipuler le comportement d’un Large Language Model (LLM).
OWASP Top10 LLM01-2025 - 💥L’Injection Directe de Prompt💥
L’injection directe de prompt est une technique utilisée par les attaquants pour insérer des instructions malveillantes directement dans les entrées utilisateur d’un Large Language Model (LLM). Cette méthode vise à modifier le comportement du modèle, le forçant à divulguer des informations sensibles ou à exécuter des actions non autorisées.
OWASP Top10 LLM01-2025 - 💥L’Injection de Prompt💥
Les Large Language Models (LLM) sont de plus en plus intégrés dans diverses applications, allant des chatbots aux systèmes de recommandation. Cependant, leur utilisation croissante s’accompagne de risques de sécurité significatifs. L’un des principaux risques identifiés par l’OWASP Top 10 pour les applications LLM est l’injection de prompt.
Le Pre-Prompting
Le pre-prompting quesako ? 🤔
OWASP ASVS / SOC2 mapping
Nouveautés de l’OWASP Top 10 pour LLM 2025
La version 2025 de l’OWASP Top 10 pour les Applications LLM introduit plusieurs changements notables par rapport à l’édition précédente. Voici un aperçu des nouveautés :
OWASP Top 10 pour les Applications LLM en 2025 : La Liste
L’OWASP a publié la version 2025 de son “Top 10 pour les Applications LLM” le 18 novembre 2024. Ce guide vise à aider les organisations à identifier et atténuer les principaux risques de sécurité dans les applications LLM, telles que les chatbots et les systèmes RAG. Voici un aperçu des points clés de cette nouvelle version :
Il etait une faille….
Voila, il y a qq jours, l’ouvrage est paru…. Il était une faille… Histoires marquantes de la cybersécurité
CyberSec
Promptfoo pour les tests de sécurité de vos GenAI
Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.
LLM Applications Cybersecurity and Governance Checklist v1.1 : une approche pragmatique
L’OWASP a publié la checklist de gouvernance autour des applications d’AI et des LLM. Cette liste, a la ‘Prévert’, est assez interessante. Mais une approche pragmatique avec des outils me semble intéressante a vous proposer.
Veille de la semaine du 10 Mars 2025
Petite veille de la semaine du 17 mars 2025
OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥
La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.
OWASP Top 10 LLM09-2025: 💥Désinformation💥
Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.
OWASP Top 10 LLM08-2025: 💥Faiblesses des Vecteurs et des Embeddings💥
Pourquoi est-ce important ?
OWASP Machine Learning Security Top Ten
Dans la grande galaxie OWASP et la non moins grande galaxie des top10 et aussi de l’IA, L’OWASP (Open Web Application Security Project) a publié en 2023 un guide spécifique pour la sécurité des modèles de machine learning, intitulé OWASP Machine Learning Security Top 10. Ce document met en lumière les principales vulnérabilités associées aux systèmes de machine learning et propose des stratégies pour les atténuer.
Les embedding dans le RAG quesako ?
Dans le contexte de la Génération Augmentée de Récupération (RAG), les embeddings sont des représentations vectorielles de mots ou de groupes de mots. Ces vecteurs encapsulent des informations sur les contextes dans lesquels les mots apparaissent, permettant ainsi aux modèles de langage de calculer des similarités sémantiques entre eux. Les embeddings sont essentiels pour la RAG car ils permettent de rechercher et de comparer efficacement les informations pertinentes dans une base de données vectorielle, améliorant ainsi la précision des réponses générées par les modèles de langage.
OWASP Top 10 LLM07-2025: 💥Fuite des Prompts Système💥
Pourquoi est-ce important ?
Veille de la semaine du 10 Mars 2025
Petite veille de la semaine du 10 mars 2025
OWASP Top 10 LLM06-2025 -💥Autonomie Excessive💥
Pourquoi est-ce important ?
OWASP Top 10 LLM05 -2025 - 💥Gestion Inappropriée des Sorties 💥
La Gestion Inappropriée des Sorties concerne les défauts dans la gestion des contenus générés par les LLM avant leur traitement par d’autres systèmes, exposant les applications à divers risques de sécurité.
OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥
L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.
OWASP Top10 LLM03-2025 - 💥Empoisonnement de la chaîne d’approvisionnement💥
L’empoisonnement de la chaîne d’approvisionnement dans le contexte des Large Language Models (LLM) fait référence aux vulnérabilités qui affectent l’intégrité des données d’entraînement, des modèles et des plateformes de déploiement.
OWASP Top10 LLM02-2025 - 🛡️️Se protéger en profondeur
En plus des mesures précédentes, il est possible de renforcer la sécurité des applications LLM en adoptant des pratiques de sécurité avancées. Ces stratégies complémentaires peuvent aider à atténuer les risques liés à l’utilisation de modèles des LLMs .
OWASP Top10 LLM02-2025 - 🛡️️Se protéger
La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.
Veille de la semaine du 3 Mars 2025
Petite veille de la semaine du 3 mars
Il etait une faille….
Voila, il y a qq jours, l’ouvrage est paru…. Il était une faille… Histoires marquantes de la cybersécurité
SOC2
💡 SOC 2 est une norme de sécurité des informations qui évalue les contrôles de sécurité d’une organisation en fonction de cinq critères majeurs:
IA
Promptfoo pour les tests de sécurité de vos GenAI
Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.
OWASP Top 10 LLM09-2025: 💥Désinformation💥
Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.
OWASP Top 10 LLM08-2025: 💥Faiblesses des Vecteurs et des Embeddings💥
Pourquoi est-ce important ?
Les embedding dans le RAG quesako ?
Dans le contexte de la Génération Augmentée de Récupération (RAG), les embeddings sont des représentations vectorielles de mots ou de groupes de mots. Ces vecteurs encapsulent des informations sur les contextes dans lesquels les mots apparaissent, permettant ainsi aux modèles de langage de calculer des similarités sémantiques entre eux. Les embeddings sont essentiels pour la RAG car ils permettent de rechercher et de comparer efficacement les informations pertinentes dans une base de données vectorielle, améliorant ainsi la précision des réponses générées par les modèles de langage.
OWASP Top 10 LLM07-2025: 💥Fuite des Prompts Système💥
Pourquoi est-ce important ?
OWASP Top 10 LLM06-2025 -💥Autonomie Excessive💥
Pourquoi est-ce important ?
OWASP Top 10 LLM05 -2025 - 💥Gestion Inappropriée des Sorties 💥
La Gestion Inappropriée des Sorties concerne les défauts dans la gestion des contenus générés par les LLM avant leur traitement par d’autres systèmes, exposant les applications à divers risques de sécurité.
OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥
L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.
OWASP Top10 LLM03-2025 - 💥Empoisonnement de la chaîne d’approvisionnement💥
L’empoisonnement de la chaîne d’approvisionnement dans le contexte des Large Language Models (LLM) fait référence aux vulnérabilités qui affectent l’intégrité des données d’entraînement, des modèles et des plateformes de déploiement.
OWASP Top10 LLM02-2025 - 🛡️️Se protéger en profondeur
En plus des mesures précédentes, il est possible de renforcer la sécurité des applications LLM en adoptant des pratiques de sécurité avancées. Ces stratégies complémentaires peuvent aider à atténuer les risques liés à l’utilisation de modèles des LLMs .
OWASP Top10 LLM02-2025 - 🛡️️Se protéger
La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.
OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt
L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.
OWASP Top10 LLM01-2025 - 💥L’Injection Indirecte ou Contextuelle de Prompt💥
L’injection indirecte ou contextuelle de prompt est une technique plus subtile où les attaquants exploitent le contexte de la conversation pour manipuler le comportement d’un Large Language Model (LLM).
OWASP Top10 LLM01-2025 - 💥L’Injection Directe de Prompt💥
L’injection directe de prompt est une technique utilisée par les attaquants pour insérer des instructions malveillantes directement dans les entrées utilisateur d’un Large Language Model (LLM). Cette méthode vise à modifier le comportement du modèle, le forçant à divulguer des informations sensibles ou à exécuter des actions non autorisées.
OWASP Top10 LLM01-2025 - 💥L’Injection de Prompt💥
Les Large Language Models (LLM) sont de plus en plus intégrés dans diverses applications, allant des chatbots aux systèmes de recommandation. Cependant, leur utilisation croissante s’accompagne de risques de sécurité significatifs. L’un des principaux risques identifiés par l’OWASP Top 10 pour les applications LLM est l’injection de prompt.
Le Pre-Prompting
Le pre-prompting quesako ? 🤔
Nouveautés de l’OWASP Top 10 pour LLM 2025
La version 2025 de l’OWASP Top 10 pour les Applications LLM introduit plusieurs changements notables par rapport à l’édition précédente. Voici un aperçu des nouveautés :
OWASP Top 10 pour les Applications LLM en 2025 : La Liste
L’OWASP a publié la version 2025 de son “Top 10 pour les Applications LLM” le 18 novembre 2024. Ce guide vise à aider les organisations à identifier et atténuer les principaux risques de sécurité dans les applications LLM, telles que les chatbots et les systèmes RAG. Voici un aperçu des points clés de cette nouvelle version :
Top10 LLM
OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥
La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.
OWASP Top 10 LLM09-2025: 💥Désinformation💥
Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.
OWASP Top 10 LLM08-2025: 💥Faiblesses des Vecteurs et des Embeddings💥
Pourquoi est-ce important ?
OWASP Top 10 LLM07-2025: 💥Fuite des Prompts Système💥
Pourquoi est-ce important ?
OWASP Top 10 LLM06-2025 -💥Autonomie Excessive💥
Pourquoi est-ce important ?
OWASP Top 10 LLM05 -2025 - 💥Gestion Inappropriée des Sorties 💥
La Gestion Inappropriée des Sorties concerne les défauts dans la gestion des contenus générés par les LLM avant leur traitement par d’autres systèmes, exposant les applications à divers risques de sécurité.
OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥
L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.
OWASP Top10 LLM03-2025 - 💥Empoisonnement de la chaîne d’approvisionnement💥
L’empoisonnement de la chaîne d’approvisionnement dans le contexte des Large Language Models (LLM) fait référence aux vulnérabilités qui affectent l’intégrité des données d’entraînement, des modèles et des plateformes de déploiement.
OWASP Top10 LLM02-2025 - 🛡️️Se protéger en profondeur
En plus des mesures précédentes, il est possible de renforcer la sécurité des applications LLM en adoptant des pratiques de sécurité avancées. Ces stratégies complémentaires peuvent aider à atténuer les risques liés à l’utilisation de modèles des LLMs .
OWASP Top10 LLM02-2025 - 🛡️️Se protéger
La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.
OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt
L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.
OWASP Top10 LLM01-2025 - 💥L’Injection Indirecte ou Contextuelle de Prompt💥
L’injection indirecte ou contextuelle de prompt est une technique plus subtile où les attaquants exploitent le contexte de la conversation pour manipuler le comportement d’un Large Language Model (LLM).
OWASP Top10 LLM01-2025 - 💥L’Injection Directe de Prompt💥
L’injection directe de prompt est une technique utilisée par les attaquants pour insérer des instructions malveillantes directement dans les entrées utilisateur d’un Large Language Model (LLM). Cette méthode vise à modifier le comportement du modèle, le forçant à divulguer des informations sensibles ou à exécuter des actions non autorisées.
OWASP Top10 LLM01-2025 - 💥L’Injection de Prompt💥
Les Large Language Models (LLM) sont de plus en plus intégrés dans diverses applications, allant des chatbots aux systèmes de recommandation. Cependant, leur utilisation croissante s’accompagne de risques de sécurité significatifs. L’un des principaux risques identifiés par l’OWASP Top 10 pour les applications LLM est l’injection de prompt.
Le Pre-Prompting
Le pre-prompting quesako ? 🤔
Nouveautés de l’OWASP Top 10 pour LLM 2025
La version 2025 de l’OWASP Top 10 pour les Applications LLM introduit plusieurs changements notables par rapport à l’édition précédente. Voici un aperçu des nouveautés :
OWASP Top 10 pour les Applications LLM en 2025 : La Liste
L’OWASP a publié la version 2025 de son “Top 10 pour les Applications LLM” le 18 novembre 2024. Ce guide vise à aider les organisations à identifier et atténuer les principaux risques de sécurité dans les applications LLM, telles que les chatbots et les systèmes RAG. Voici un aperçu des points clés de cette nouvelle version :
Top10
Promptfoo pour les tests de sécurité de vos GenAI
Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.
LLM Applications Cybersecurity and Governance Checklist v1.1 : une approche pragmatique
L’OWASP a publié la checklist de gouvernance autour des applications d’AI et des LLM. Cette liste, a la ‘Prévert’, est assez interessante. Mais une approche pragmatique avec des outils me semble intéressante a vous proposer.
OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥
La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.
OWASP Top 10 LLM09-2025: 💥Désinformation💥
Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.
OWASP Top 10 LLM08-2025: 💥Faiblesses des Vecteurs et des Embeddings💥
Pourquoi est-ce important ?
OWASP Machine Learning Security Top Ten
Dans la grande galaxie OWASP et la non moins grande galaxie des top10 et aussi de l’IA, L’OWASP (Open Web Application Security Project) a publié en 2023 un guide spécifique pour la sécurité des modèles de machine learning, intitulé OWASP Machine Learning Security Top 10. Ce document met en lumière les principales vulnérabilités associées aux systèmes de machine learning et propose des stratégies pour les atténuer.
Les embedding dans le RAG quesako ?
Dans le contexte de la Génération Augmentée de Récupération (RAG), les embeddings sont des représentations vectorielles de mots ou de groupes de mots. Ces vecteurs encapsulent des informations sur les contextes dans lesquels les mots apparaissent, permettant ainsi aux modèles de langage de calculer des similarités sémantiques entre eux. Les embeddings sont essentiels pour la RAG car ils permettent de rechercher et de comparer efficacement les informations pertinentes dans une base de données vectorielle, améliorant ainsi la précision des réponses générées par les modèles de langage.
Retrieval-Augmented Generation (RAG), quesako ?
La génération de contenu assistée par l’intelligence artificielle (IA) a connu des avancées spectaculaires grâce aux modèles de langage à grande échelle (LLMs). Cependant, ces modèles présentent des limites, notamment en termes de précision et de pertinence des informations générées. Pour pallier ces défauts, la technique de Retrieval-Augmented Generation (RAG) est devenue essentielle pour améliorer la génération de contenu en IA.
OWASP Top 10 LLM07-2025: 💥Fuite des Prompts Système💥
Pourquoi est-ce important ?
OWASP Top 10 LLM06-2025 -💥Autonomie Excessive💥
Pourquoi est-ce important ?
OWASP Top 10 LLM05 -2025 - 💥Gestion Inappropriée des Sorties 💥
La Gestion Inappropriée des Sorties concerne les défauts dans la gestion des contenus générés par les LLM avant leur traitement par d’autres systèmes, exposant les applications à divers risques de sécurité.
OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥
L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.
OWASP Top10 LLM03-2025 - 💥Empoisonnement de la chaîne d’approvisionnement💥
L’empoisonnement de la chaîne d’approvisionnement dans le contexte des Large Language Models (LLM) fait référence aux vulnérabilités qui affectent l’intégrité des données d’entraînement, des modèles et des plateformes de déploiement.
OWASP Top10 LLM02-2025 - 🛡️️Se protéger en profondeur
En plus des mesures précédentes, il est possible de renforcer la sécurité des applications LLM en adoptant des pratiques de sécurité avancées. Ces stratégies complémentaires peuvent aider à atténuer les risques liés à l’utilisation de modèles des LLMs .
OWASP Top10 LLM02-2025 - 🛡️️Se protéger
La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.
Il etait une faille….
Voila, il y a qq jours, l’ouvrage est paru…. Il était une faille… Histoires marquantes de la cybersécurité
LLM
Promptfoo pour les tests de sécurité de vos GenAI
Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.
LLM Applications Cybersecurity and Governance Checklist v1.1 : une approche pragmatique
L’OWASP a publié la checklist de gouvernance autour des applications d’AI et des LLM. Cette liste, a la ‘Prévert’, est assez interessante. Mais une approche pragmatique avec des outils me semble intéressante a vous proposer.
OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥
La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.
OWASP Top 10 LLM09-2025: 💥Désinformation💥
Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.
OWASP Top 10 LLM08-2025: 💥Faiblesses des Vecteurs et des Embeddings💥
Pourquoi est-ce important ?
OWASP Machine Learning Security Top Ten
Dans la grande galaxie OWASP et la non moins grande galaxie des top10 et aussi de l’IA, L’OWASP (Open Web Application Security Project) a publié en 2023 un guide spécifique pour la sécurité des modèles de machine learning, intitulé OWASP Machine Learning Security Top 10. Ce document met en lumière les principales vulnérabilités associées aux systèmes de machine learning et propose des stratégies pour les atténuer.
Les embedding dans le RAG quesako ?
Dans le contexte de la Génération Augmentée de Récupération (RAG), les embeddings sont des représentations vectorielles de mots ou de groupes de mots. Ces vecteurs encapsulent des informations sur les contextes dans lesquels les mots apparaissent, permettant ainsi aux modèles de langage de calculer des similarités sémantiques entre eux. Les embeddings sont essentiels pour la RAG car ils permettent de rechercher et de comparer efficacement les informations pertinentes dans une base de données vectorielle, améliorant ainsi la précision des réponses générées par les modèles de langage.
Retrieval-Augmented Generation (RAG), quesako ?
La génération de contenu assistée par l’intelligence artificielle (IA) a connu des avancées spectaculaires grâce aux modèles de langage à grande échelle (LLMs). Cependant, ces modèles présentent des limites, notamment en termes de précision et de pertinence des informations générées. Pour pallier ces défauts, la technique de Retrieval-Augmented Generation (RAG) est devenue essentielle pour améliorer la génération de contenu en IA.
OWASP Top 10 LLM07-2025: 💥Fuite des Prompts Système💥
Pourquoi est-ce important ?
OWASP Top 10 LLM06-2025 -💥Autonomie Excessive💥
Pourquoi est-ce important ?
OWASP Top 10 LLM05 -2025 - 💥Gestion Inappropriée des Sorties 💥
La Gestion Inappropriée des Sorties concerne les défauts dans la gestion des contenus générés par les LLM avant leur traitement par d’autres systèmes, exposant les applications à divers risques de sécurité.
OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥
L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.
OWASP Top10 LLM03-2025 - 💥Empoisonnement de la chaîne d’approvisionnement💥
L’empoisonnement de la chaîne d’approvisionnement dans le contexte des Large Language Models (LLM) fait référence aux vulnérabilités qui affectent l’intégrité des données d’entraînement, des modèles et des plateformes de déploiement.
OWASP Top10 LLM02-2025 - 🛡️️Se protéger en profondeur
En plus des mesures précédentes, il est possible de renforcer la sécurité des applications LLM en adoptant des pratiques de sécurité avancées. Ces stratégies complémentaires peuvent aider à atténuer les risques liés à l’utilisation de modèles des LLMs .
OWASP Top10 LLM02-2025 - 🛡️️Se protéger
La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.
veille
Veille de la semaine du 10 Mars 2025
Petite veille de la semaine du 17 mars 2025
OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥
La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.
Veille de la semaine du 10 Mars 2025
Petite veille de la semaine du 10 mars 2025
Veille de la semaine du 3 Mars 2025
Petite veille de la semaine du 3 mars
Sécurité de la GEN AI && OWASP ! 💥Exposition de Données Sensibles💥
L’exposition de données sensibles se produit lorsque des informations confidentielles, telles que des identifiants personnels, des informations financières, des dossiers médicaux, ou des secrets commerciaux, deviennent accessibles à des parties non autorisées.
Sécurité de la GEN AI && OWASP ! 🛡️Guide de Red Teaming pour GEN AI de l’OWASP !🛡️
🛡️ L’OWASP a publié un guide pratique pour évaluer les vulnérabilités des systèmes GEN AI à travers le Red Teaming. Ce guide aide les organisations à identifier et à atténuer les risques de sécurité associés aux technologies d’IA générative.
Sécurité de la GEN AI && OWASP !
🚀 Ce post est le premier d’une série de plusieurs articles autour des risques et de comment l’OWASP peut aider a protéger des systèmes de Generative AI . Il fait suite a la présentation que j’ai pu effectuer en Décembre 2024 à Hack-it-n, et va continuer sur différents sujets autour de cette GEN AI
Sécurité
OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt
L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.
OWASP Top10 LLM01-2025 - 💥L’Injection Indirecte ou Contextuelle de Prompt💥
L’injection indirecte ou contextuelle de prompt est une technique plus subtile où les attaquants exploitent le contexte de la conversation pour manipuler le comportement d’un Large Language Model (LLM).
OWASP Top10 LLM01-2025 - 💥L’Injection Directe de Prompt💥
L’injection directe de prompt est une technique utilisée par les attaquants pour insérer des instructions malveillantes directement dans les entrées utilisateur d’un Large Language Model (LLM). Cette méthode vise à modifier le comportement du modèle, le forçant à divulguer des informations sensibles ou à exécuter des actions non autorisées.
OWASP Top10 LLM01-2025 - 💥L’Injection de Prompt💥
Les Large Language Models (LLM) sont de plus en plus intégrés dans diverses applications, allant des chatbots aux systèmes de recommandation. Cependant, leur utilisation croissante s’accompagne de risques de sécurité significatifs. L’un des principaux risques identifiés par l’OWASP Top 10 pour les applications LLM est l’injection de prompt.
Le Pre-Prompting
Le pre-prompting quesako ? 🤔
owasp
OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt
L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.
Sécurité de la GEN AI && OWASP ! 💥Exposition de Données Sensibles💥
L’exposition de données sensibles se produit lorsque des informations confidentielles, telles que des identifiants personnels, des informations financières, des dossiers médicaux, ou des secrets commerciaux, deviennent accessibles à des parties non autorisées.
Sécurité de la GEN AI && OWASP ! 🛡️Guide de Red Teaming pour GEN AI de l’OWASP !🛡️
🛡️ L’OWASP a publié un guide pratique pour évaluer les vulnérabilités des systèmes GEN AI à travers le Red Teaming. Ce guide aide les organisations à identifier et à atténuer les risques de sécurité associés aux technologies d’IA générative.
Sécurité de la GEN AI && OWASP !
🚀 Ce post est le premier d’une série de plusieurs articles autour des risques et de comment l’OWASP peut aider a protéger des systèmes de Generative AI . Il fait suite a la présentation que j’ai pu effectuer en Décembre 2024 à Hack-it-n, et va continuer sur différents sujets autour de cette GEN AI
security
OWASP ASVS / SOC2 mapping
Sécurité de la GEN AI && OWASP ! 💥Exposition de Données Sensibles💥
L’exposition de données sensibles se produit lorsque des informations confidentielles, telles que des identifiants personnels, des informations financières, des dossiers médicaux, ou des secrets commerciaux, deviennent accessibles à des parties non autorisées.
Sécurité de la GEN AI && OWASP ! 🛡️Guide de Red Teaming pour GEN AI de l’OWASP !🛡️
🛡️ L’OWASP a publié un guide pratique pour évaluer les vulnérabilités des systèmes GEN AI à travers le Red Teaming. Ce guide aide les organisations à identifier et à atténuer les risques de sécurité associés aux technologies d’IA générative.
Sécurité de la GEN AI && OWASP !
🚀 Ce post est le premier d’une série de plusieurs articles autour des risques et de comment l’OWASP peut aider a protéger des systèmes de Generative AI . Il fait suite a la présentation que j’ai pu effectuer en Décembre 2024 à Hack-it-n, et va continuer sur différents sujets autour de cette GEN AI
genAI
Sécurité de la GEN AI && OWASP ! 💥Exposition de Données Sensibles💥
L’exposition de données sensibles se produit lorsque des informations confidentielles, telles que des identifiants personnels, des informations financières, des dossiers médicaux, ou des secrets commerciaux, deviennent accessibles à des parties non autorisées.
Sécurité de la GEN AI && OWASP ! 🛡️Guide de Red Teaming pour GEN AI de l’OWASP !🛡️
🛡️ L’OWASP a publié un guide pratique pour évaluer les vulnérabilités des systèmes GEN AI à travers le Red Teaming. Ce guide aide les organisations à identifier et à atténuer les risques de sécurité associés aux technologies d’IA générative.
Sécurité de la GEN AI && OWASP !
🚀 Ce post est le premier d’une série de plusieurs articles autour des risques et de comment l’OWASP peut aider a protéger des systèmes de Generative AI . Il fait suite a la présentation que j’ai pu effectuer en Décembre 2024 à Hack-it-n, et va continuer sur différents sujets autour de cette GEN AI
SOC2
OWASP ASVS / SOC2 mapping
SOC2
💡 SOC 2 est une norme de sécurité des informations qui évalue les contrôles de sécurité d’une organisation en fonction de cinq critères majeurs:
sécurité
Nouveautés de l’OWASP Top 10 pour LLM 2025
La version 2025 de l’OWASP Top 10 pour les Applications LLM introduit plusieurs changements notables par rapport à l’édition précédente. Voici un aperçu des nouveautés :
OWASP Top 10 pour les Applications LLM en 2025 : La Liste
L’OWASP a publié la version 2025 de son “Top 10 pour les Applications LLM” le 18 novembre 2024. Ce guide vise à aider les organisations à identifier et atténuer les principaux risques de sécurité dans les applications LLM, telles que les chatbots et les systèmes RAG. Voici un aperçu des points clés de cette nouvelle version :
OWASP ASVS
Retour en haut ↑QuickNotes
Quick Notes of the day - 27th February 2025
Here are the quick notes of the day:
best-practices
OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt
L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.
compliance
SOC2
💡 SOC 2 est une norme de sécurité des informations qui évalue les contrôles de sécurité d’une organisation en fonction de cinq critères majeurs:
livre
Il etait une faille….
Voila, il y a qq jours, l’ouvrage est paru…. Il était une faille… Histoires marquantes de la cybersécurité
promptfoo
OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt
L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.
purpleteam
Promptfoo pour les tests de sécurité de vos GenAI
Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.
python
Le Pre-Prompting
Le pre-prompting quesako ? 🤔
red-team
Sécurité de la GEN AI && OWASP ! 🛡️Guide de Red Teaming pour GEN AI de l’OWASP !🛡️
🛡️ L’OWASP a publié un guide pratique pour évaluer les vulnérabilités des systèmes GEN AI à travers le Red Teaming. Ce guide aide les organisations à identifier et à atténuer les risques de sécurité associés aux technologies d’IA générative.
redteam
Promptfoo pour les tests de sécurité de vos GenAI
Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.