Security musings

Catégories

🔍 Licence d'Utilisation 🔍

Sauf mention contraire, le contenu de ce blog est sous licence CC BY-NC-ND 4.0.

© 2025 à 2042 Sébastien Gioria. Tous droits réservés.

Dernière modification : 2025-02-28
⏱️
Temps de lecture estimé
~1 minute

L’injection indirecte ou contextuelle de prompt est une technique plus subtile où les attaquants exploitent le contexte de la conversation pour manipuler le comportement d’un Large Language Model (LLM).

Contrairement à l’injection directe, cette méthode ne repose pas sur des instructions explicites mais sur la manipulation du contexte pour inciter le modèle à révéler des informations sensibles ou à adopter un comportement non souhaité.

Comment Fonctionne l’Injection Indirecte de Prompt ?

  • Description : L’utilisateur structure ses questions ou ses demandes de manière Ă  induire le modèle en erreur, en le poussant Ă  rĂ©vĂ©ler des informations ou Ă  adopter un comportement non souhaitĂ© sans utiliser d’instructions explicites.
  • Exemple : Un utilisateur pourrait poser une sĂ©rie de questions apparemment inoffensives qui, mises bout Ă  bout, rĂ©vèlent des informations sensibles ou permettent de dĂ©duire des donnĂ©es confidentielles.

Exemple de Faille Connue

  • CVE-2024-5565 : ExĂ©cution de Code via Injection de Prompt dans Vanna.AI. Cette vulnĂ©rabilitĂ© permet l’exĂ©cution de code Ă  distance via des techniques d’injection de prompt dans la bibliothèque Vanna.AI, qui offre une interface texte-to-SQL pour les utilisateurs. Les attaquants peuvent contourner les garanties de “pre-prompting” pour exĂ©cuter des commandes arbitraires.
    • Impact : Cette faille peut ĂŞtre exploitĂ©e pour exĂ©cuter des commandes non autorisĂ©es sur le système hĂ´te, posant un risque majeur pour la sĂ©curitĂ© des applications utilisant Vanna.AI.
    • RĂ©fĂ©rence : JFrog Blog - CVE-2024-5565