
Sécurité AI
•
8 min read
Attaque Man-in-the-Prompt : se protéger
Une attaque « Man‑in‑the‑Prompt » modifie vos instructions envoyées à un LLM pour exfiltrer des données ou générer des réponses malveillantes. Appliquez des règles simples : évitez les extensions non vérifiées, saisissez et vérifiez vos prompts manuellement, démarrez de nouvelles sessions pour les sujets sensibles, et suivez le playbook d'intervention.