Catégories

Dernière modification : 2025-02-28

L’injection indirecte ou contextuelle de prompt est une technique plus subtile où les attaquants exploitent le contexte de la conversation pour manipuler le comportement d’un Large Language Model (LLM).

Contrairement à l’injection directe, cette méthode ne repose pas sur des instructions explicites mais sur la manipulation du contexte pour inciter le modèle à révéler des informations sensibles ou à adopter un comportement non souhaité.

Comment Fonctionne l’Injection Indirecte de Prompt ?

  • Description : L’utilisateur structure ses questions ou ses demandes de manière Ă  induire le modèle en erreur, en le poussant Ă  rĂ©vĂ©ler des informations ou Ă  adopter un comportement non souhaitĂ© sans utiliser d’instructions explicites.
  • Exemple : Un utilisateur pourrait poser une sĂ©rie de questions apparemment inoffensives qui, mises bout Ă  bout, rĂ©vèlent des informations sensibles ou permettent de dĂ©duire des donnĂ©es confidentielles.

Exemple de Faille Connue

  • CVE-2024-5565 : ExĂ©cution de Code via Injection de Prompt dans Vanna.AI. Cette vulnĂ©rabilitĂ© permet l’exĂ©cution de code Ă  distance via des techniques d’injection de prompt dans la bibliothèque Vanna.AI, qui offre une interface texte-to-SQL pour les utilisateurs. Les attaquants peuvent contourner les garanties de “pre-prompting” pour exĂ©cuter des commandes arbitraires.
    • Impact : Cette faille peut ĂŞtre exploitĂ©e pour exĂ©cuter des commandes non autorisĂ©es sur le système hĂ´te, posant un risque majeur pour la sĂ©curitĂ© des applications utilisant Vanna.AI.
    • RĂ©fĂ©rence : JFrog Blog - CVE-2024-5565