OWASP

Promptfoo pour les tests de sécurité de vos GenAI

Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.

OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥

La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.

OWASP Top 10 LLM09-2025: 💥Désinformation💥

Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.

OWASP Machine Learning Security Top Ten

Dans la grande galaxie OWASP et la non moins grande galaxie des top10 et aussi de l’IA, L’OWASP (Open Web Application Security Project) a publié en 2023 un guide spécifique pour la sécurité des modèles de machine learning, intitulé OWASP Machine Learning Security Top 10. Ce document met en lumière les principales vulnérabilités associées aux systèmes de machine learning et propose des stratégies pour les atténuer.

Les embedding dans le RAG quesako ?

Dans le contexte de la Génération Augmentée de Récupération (RAG), les embeddings sont des représentations vectorielles de mots ou de groupes de mots. Ces vecteurs encapsulent des informations sur les contextes dans lesquels les mots apparaissent, permettant ainsi aux modèles de langage de calculer des similarités sémantiques entre eux. Les embeddings sont essentiels pour la RAG car ils permettent de rechercher et de comparer efficacement les informations pertinentes dans une base de données vectorielle, améliorant ainsi la précision des réponses générées par les modèles de langage.

Retrieval-Augmented Generation (RAG), quesako ?

La génération de contenu assistée par l’intelligence artificielle (IA) a connu des avancées spectaculaires grâce aux modèles de langage à grande échelle (LLMs). Cependant, ces modèles présentent des limites, notamment en termes de précision et de pertinence des informations générées. Pour pallier ces défauts, la technique de Retrieval-Augmented Generation (RAG) est devenue essentielle pour améliorer la génération de contenu en IA.

OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥

L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.

OWASP Top10 LLM02-2025 - 🛡️️Se protéger

La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.

OWASP Top10 LLM01-2025 - 💥L’Injection Directe de Prompt💥

L’injection directe de prompt est une technique utilisée par les attaquants pour insérer des instructions malveillantes directement dans les entrées utilisateur d’un Large Language Model (LLM). Cette méthode vise à modifier le comportement du modèle, le forçant à divulguer des informations sensibles ou à exécuter des actions non autorisées.

OWASP Top10 LLM01-2025 - 💥L’Injection de Prompt💥

Les Large Language Models (LLM) sont de plus en plus intégrés dans diverses applications, allant des chatbots aux systèmes de recommandation. Cependant, leur utilisation croissante s’accompagne de risques de sécurité significatifs. L’un des principaux risques identifiés par l’OWASP Top 10 pour les applications LLM est l’injection de prompt.

OWASP ASVS / SOC2 mapping

Dans le cadre des développements autour d’applications modernes vous avez surement vu passer les références à des normes de sécurité telles que SOC2 (bien que SOC2 ne soit pas une réelle norme de sécurité ) et ISO27000.

Nouveautés de l’OWASP Top 10 pour LLM 2025

La version 2025 de l’OWASP Top 10 pour les Applications LLM introduit plusieurs changements notables par rapport à l’édition précédente. Voici un aperçu des nouveautés :

OWASP Top 10 pour les Applications LLM en 2025 : La Liste

L’OWASP a publié la version 2025 de son “Top 10 pour les Applications LLM” le 18 novembre 2024. Ce guide vise à aider les organisations à identifier et atténuer les principaux risques de sécurité dans les applications LLM, telles que les chatbots et les systèmes RAG. Voici un aperçu des points clés de cette nouvelle version :

Il etait une faille….

Voila, il y a qq jours, l’ouvrage est paru…. Il était une faille… Histoires marquantes de la cybersécurité

Retour en haut ↑

CyberSec

Promptfoo pour les tests de sécurité de vos GenAI

Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.

OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥

La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.

OWASP Top 10 LLM09-2025: 💥Désinformation💥

Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.

OWASP Machine Learning Security Top Ten

Dans la grande galaxie OWASP et la non moins grande galaxie des top10 et aussi de l’IA, L’OWASP (Open Web Application Security Project) a publié en 2023 un guide spécifique pour la sécurité des modèles de machine learning, intitulé OWASP Machine Learning Security Top 10. Ce document met en lumière les principales vulnérabilités associées aux systèmes de machine learning et propose des stratégies pour les atténuer.

Les embedding dans le RAG quesako ?

Dans le contexte de la Génération Augmentée de Récupération (RAG), les embeddings sont des représentations vectorielles de mots ou de groupes de mots. Ces vecteurs encapsulent des informations sur les contextes dans lesquels les mots apparaissent, permettant ainsi aux modèles de langage de calculer des similarités sémantiques entre eux. Les embeddings sont essentiels pour la RAG car ils permettent de rechercher et de comparer efficacement les informations pertinentes dans une base de données vectorielle, améliorant ainsi la précision des réponses générées par les modèles de langage.

OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥

L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.

OWASP Top10 LLM02-2025 - 🛡️️Se protéger

La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.

Il etait une faille….

Voila, il y a qq jours, l’ouvrage est paru…. Il était une faille… Histoires marquantes de la cybersécurité

SOC2

💡 SOC 2 est une norme de sécurité des informations qui évalue les contrôles de sécurité d’une organisation en fonction de cinq critères majeurs:

Retour en haut ↑

IA

Promptfoo pour les tests de sécurité de vos GenAI

Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.

OWASP Top 10 LLM09-2025: 💥Désinformation💥

Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.

Les embedding dans le RAG quesako ?

Dans le contexte de la Génération Augmentée de Récupération (RAG), les embeddings sont des représentations vectorielles de mots ou de groupes de mots. Ces vecteurs encapsulent des informations sur les contextes dans lesquels les mots apparaissent, permettant ainsi aux modèles de langage de calculer des similarités sémantiques entre eux. Les embeddings sont essentiels pour la RAG car ils permettent de rechercher et de comparer efficacement les informations pertinentes dans une base de données vectorielle, améliorant ainsi la précision des réponses générées par les modèles de langage.

OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥

L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.

OWASP Top10 LLM02-2025 - 🛡️️Se protéger

La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.

OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt

L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.

OWASP Top10 LLM01-2025 - 💥L’Injection Directe de Prompt💥

L’injection directe de prompt est une technique utilisée par les attaquants pour insérer des instructions malveillantes directement dans les entrées utilisateur d’un Large Language Model (LLM). Cette méthode vise à modifier le comportement du modèle, le forçant à divulguer des informations sensibles ou à exécuter des actions non autorisées.

OWASP Top10 LLM01-2025 - 💥L’Injection de Prompt💥

Les Large Language Models (LLM) sont de plus en plus intégrés dans diverses applications, allant des chatbots aux systèmes de recommandation. Cependant, leur utilisation croissante s’accompagne de risques de sécurité significatifs. L’un des principaux risques identifiés par l’OWASP Top 10 pour les applications LLM est l’injection de prompt.

Nouveautés de l’OWASP Top 10 pour LLM 2025

La version 2025 de l’OWASP Top 10 pour les Applications LLM introduit plusieurs changements notables par rapport à l’édition précédente. Voici un aperçu des nouveautés :

OWASP Top 10 pour les Applications LLM en 2025 : La Liste

L’OWASP a publié la version 2025 de son “Top 10 pour les Applications LLM” le 18 novembre 2024. Ce guide vise à aider les organisations à identifier et atténuer les principaux risques de sécurité dans les applications LLM, telles que les chatbots et les systèmes RAG. Voici un aperçu des points clés de cette nouvelle version :

Retour en haut ↑

Top10 LLM

OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥

La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.

OWASP Top 10 LLM09-2025: 💥Désinformation💥

Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.

OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥

L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.

OWASP Top10 LLM02-2025 - 🛡️️Se protéger

La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.

OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt

L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.

OWASP Top10 LLM01-2025 - 💥L’Injection Directe de Prompt💥

L’injection directe de prompt est une technique utilisée par les attaquants pour insérer des instructions malveillantes directement dans les entrées utilisateur d’un Large Language Model (LLM). Cette méthode vise à modifier le comportement du modèle, le forçant à divulguer des informations sensibles ou à exécuter des actions non autorisées.

OWASP Top10 LLM01-2025 - 💥L’Injection de Prompt💥

Les Large Language Models (LLM) sont de plus en plus intégrés dans diverses applications, allant des chatbots aux systèmes de recommandation. Cependant, leur utilisation croissante s’accompagne de risques de sécurité significatifs. L’un des principaux risques identifiés par l’OWASP Top 10 pour les applications LLM est l’injection de prompt.

Nouveautés de l’OWASP Top 10 pour LLM 2025

La version 2025 de l’OWASP Top 10 pour les Applications LLM introduit plusieurs changements notables par rapport à l’édition précédente. Voici un aperçu des nouveautés :

OWASP Top 10 pour les Applications LLM en 2025 : La Liste

L’OWASP a publié la version 2025 de son “Top 10 pour les Applications LLM” le 18 novembre 2024. Ce guide vise à aider les organisations à identifier et atténuer les principaux risques de sécurité dans les applications LLM, telles que les chatbots et les systèmes RAG. Voici un aperçu des points clés de cette nouvelle version :

Retour en haut ↑

Top10

Promptfoo pour les tests de sécurité de vos GenAI

Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.

OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥

La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.

OWASP Top 10 LLM09-2025: 💥Désinformation💥

Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.

OWASP Machine Learning Security Top Ten

Dans la grande galaxie OWASP et la non moins grande galaxie des top10 et aussi de l’IA, L’OWASP (Open Web Application Security Project) a publié en 2023 un guide spécifique pour la sécurité des modèles de machine learning, intitulé OWASP Machine Learning Security Top 10. Ce document met en lumière les principales vulnérabilités associées aux systèmes de machine learning et propose des stratégies pour les atténuer.

Les embedding dans le RAG quesako ?

Dans le contexte de la Génération Augmentée de Récupération (RAG), les embeddings sont des représentations vectorielles de mots ou de groupes de mots. Ces vecteurs encapsulent des informations sur les contextes dans lesquels les mots apparaissent, permettant ainsi aux modèles de langage de calculer des similarités sémantiques entre eux. Les embeddings sont essentiels pour la RAG car ils permettent de rechercher et de comparer efficacement les informations pertinentes dans une base de données vectorielle, améliorant ainsi la précision des réponses générées par les modèles de langage.

Retrieval-Augmented Generation (RAG), quesako ?

La génération de contenu assistée par l’intelligence artificielle (IA) a connu des avancées spectaculaires grâce aux modèles de langage à grande échelle (LLMs). Cependant, ces modèles présentent des limites, notamment en termes de précision et de pertinence des informations générées. Pour pallier ces défauts, la technique de Retrieval-Augmented Generation (RAG) est devenue essentielle pour améliorer la génération de contenu en IA.

OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥

L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.

OWASP Top10 LLM02-2025 - 🛡️️Se protéger

La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.

Il etait une faille….

Voila, il y a qq jours, l’ouvrage est paru…. Il était une faille… Histoires marquantes de la cybersécurité

Retour en haut ↑

LLM

Promptfoo pour les tests de sécurité de vos GenAI

Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.

OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥

La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.

OWASP Top 10 LLM09-2025: 💥Désinformation💥

Les modèles de langage à grande échelle (LLMs) ont révolutionné de nombreux secteurs grâce à leur capacité à générer du contenu automatisé et à interagir avec les utilisateurs. Cependant, ces avancées sont accompagnées de défis importants, notamment la propagation de la Désinformation.

OWASP Machine Learning Security Top Ten

Dans la grande galaxie OWASP et la non moins grande galaxie des top10 et aussi de l’IA, L’OWASP (Open Web Application Security Project) a publié en 2023 un guide spécifique pour la sécurité des modèles de machine learning, intitulé OWASP Machine Learning Security Top 10. Ce document met en lumière les principales vulnérabilités associées aux systèmes de machine learning et propose des stratégies pour les atténuer.

Les embedding dans le RAG quesako ?

Dans le contexte de la Génération Augmentée de Récupération (RAG), les embeddings sont des représentations vectorielles de mots ou de groupes de mots. Ces vecteurs encapsulent des informations sur les contextes dans lesquels les mots apparaissent, permettant ainsi aux modèles de langage de calculer des similarités sémantiques entre eux. Les embeddings sont essentiels pour la RAG car ils permettent de rechercher et de comparer efficacement les informations pertinentes dans une base de données vectorielle, améliorant ainsi la précision des réponses générées par les modèles de langage.

Retrieval-Augmented Generation (RAG), quesako ?

La génération de contenu assistée par l’intelligence artificielle (IA) a connu des avancées spectaculaires grâce aux modèles de langage à grande échelle (LLMs). Cependant, ces modèles présentent des limites, notamment en termes de précision et de pertinence des informations générées. Pour pallier ces défauts, la technique de Retrieval-Augmented Generation (RAG) est devenue essentielle pour améliorer la génération de contenu en IA.

OWASP Top 10 LLM04-2025 - 💥Empoisonnement des données et des modèles💥

L’empoisonnement des données et des modèles se produit lorsque les données utilisées pour le pré-entraînement, l’ajustement ou l’intégration sont manipulées pour introduire des vulnérabilités, des portes dérobées ou des biais. Cette manipulation peut compromettre la sécurité, les performances ou le comportement éthique du modèle, entraînant des sorties nuisibles ou des capacités altérées.

OWASP Top10 LLM02-2025 - 🛡️️Se protéger

La gestion de sortie non sécurisée fait référence à l’absence de contrôle ou de filtrage des données envoyées par une application à l’utilisateur. Cela peut entraîner des vulnérabilités telles que les attaques par injection de code (XSS, etc.), où un attaquant peut manipuler les données affichées pour exécuter du code malveillant.

Retour en haut ↑

veille

OWASP Top 10 LLM10-2025: 💥Consommation Excessive💥

La Consommation Excessive (Unbounded Consumption) est une vulnérabilité critique des modèles de langage (LLM), où des utilisateurs peuvent effectuer des inférences excessives et incontrôlées. Cela entraîne des risques tels que la dégradation du service, des pertes économiques, le vol de propriété intellectuelle et une exploitation abusive des ressources informatiques, particulièrement dans les environnements cloud.

Sécurité de la GEN AI && OWASP !

🚀 Ce post est le premier d’une série de plusieurs articles autour des risques et de comment l’OWASP peut aider a protéger des systèmes de Generative AI . Il fait suite a la présentation que j’ai pu effectuer en Décembre 2024 à Hack-it-n, et va continuer sur différents sujets autour de cette GEN AI

Retour en haut ↑

Sécurité

OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt

L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.

OWASP Top10 LLM01-2025 - 💥L’Injection Directe de Prompt💥

L’injection directe de prompt est une technique utilisée par les attaquants pour insérer des instructions malveillantes directement dans les entrées utilisateur d’un Large Language Model (LLM). Cette méthode vise à modifier le comportement du modèle, le forçant à divulguer des informations sensibles ou à exécuter des actions non autorisées.

OWASP Top10 LLM01-2025 - 💥L’Injection de Prompt💥

Les Large Language Models (LLM) sont de plus en plus intégrés dans diverses applications, allant des chatbots aux systèmes de recommandation. Cependant, leur utilisation croissante s’accompagne de risques de sécurité significatifs. L’un des principaux risques identifiés par l’OWASP Top 10 pour les applications LLM est l’injection de prompt.

Retour en haut ↑

owasp

OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt

L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.

Sécurité de la GEN AI && OWASP !

🚀 Ce post est le premier d’une série de plusieurs articles autour des risques et de comment l’OWASP peut aider a protéger des systèmes de Generative AI . Il fait suite a la présentation que j’ai pu effectuer en Décembre 2024 à Hack-it-n, et va continuer sur différents sujets autour de cette GEN AI

Retour en haut ↑

security

OWASP ASVS / SOC2 mapping

Dans le cadre des développements autour d’applications modernes vous avez surement vu passer les références à des normes de sécurité telles que SOC2 (bien que SOC2 ne soit pas une réelle norme de sécurité ) et ISO27000.

Sécurité de la GEN AI && OWASP !

🚀 Ce post est le premier d’une série de plusieurs articles autour des risques et de comment l’OWASP peut aider a protéger des systèmes de Generative AI . Il fait suite a la présentation que j’ai pu effectuer en Décembre 2024 à Hack-it-n, et va continuer sur différents sujets autour de cette GEN AI

Retour en haut ↑

genAI

Sécurité de la GEN AI && OWASP !

🚀 Ce post est le premier d’une série de plusieurs articles autour des risques et de comment l’OWASP peut aider a protéger des systèmes de Generative AI . Il fait suite a la présentation que j’ai pu effectuer en Décembre 2024 à Hack-it-n, et va continuer sur différents sujets autour de cette GEN AI

Retour en haut ↑

SOC2

OWASP ASVS / SOC2 mapping

Dans le cadre des développements autour d’applications modernes vous avez surement vu passer les références à des normes de sécurité telles que SOC2 (bien que SOC2 ne soit pas une réelle norme de sécurité ) et ISO27000.

SOC2

💡 SOC 2 est une norme de sécurité des informations qui évalue les contrôles de sécurité d’une organisation en fonction de cinq critères majeurs:

Retour en haut ↑

sécurité

Nouveautés de l’OWASP Top 10 pour LLM 2025

La version 2025 de l’OWASP Top 10 pour les Applications LLM introduit plusieurs changements notables par rapport à l’édition précédente. Voici un aperçu des nouveautés :

OWASP Top 10 pour les Applications LLM en 2025 : La Liste

L’OWASP a publié la version 2025 de son “Top 10 pour les Applications LLM” le 18 novembre 2024. Ce guide vise à aider les organisations à identifier et atténuer les principaux risques de sécurité dans les applications LLM, telles que les chatbots et les systèmes RAG. Voici un aperçu des points clés de cette nouvelle version :

Retour en haut ↑

OWASP ASVS

OWASP ASVS / SOC2 mapping

Dans le cadre des développements autour d’applications modernes vous avez surement vu passer les références à des normes de sécurité telles que SOC2 (bien que SOC2 ne soit pas une réelle norme de sécurité ) et ISO27000.

Retour en haut ↑

QuickNotes

Retour en haut ↑

best-practices

OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt

L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.

Retour en haut ↑

compliance

SOC2

💡 SOC 2 est une norme de sécurité des informations qui évalue les contrôles de sécurité d’une organisation en fonction de cinq critères majeurs:

Retour en haut ↑

livre

Il etait une faille….

Voila, il y a qq jours, l’ouvrage est paru…. Il était une faille… Histoires marquantes de la cybersécurité

Retour en haut ↑

promptfoo

OWASP Top10 LLM01-2025 - 🛡️ Se protéger de l’Injection de Prompt

L’injection de prompt est une menace sérieuse pour les applications utilisant des Large Language Models (LLM). Pour protéger vos systèmes contre ces attaques, il est crucial de mettre en place des contre-mesures robustes. Voici quelques stratégies efficaces pour atténuer les risques associés à l’injection de prompt.

Retour en haut ↑

purpleteam

Promptfoo pour les tests de sécurité de vos GenAI

Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.

Retour en haut ↑

python

Retour en haut ↑

red-team

Retour en haut ↑

redteam

Promptfoo pour les tests de sécurité de vos GenAI

Dans cet article, nous allons explorer comment utiliser Promptfoo pour les tests de sécurité (red-teaming /pentests) des modèles de langage (LLM), en nous concentrant sur les vulnérabilités du OWASP Top 10 pour les applications LLM en 2025. Nous détaillerons comment déployer Promptfoo, les types de prompts à utiliser pour chaque risque, et fournirons des références GitHub pour approfondir ces tests.

Retour en haut ↑