Guide des technologies

Sécurité AI

Attaque Man-in-the-Prompt : se protéger
Sécurité AI 8 min read

Attaque Man-in-the-Prompt : se protéger

Une attaque « Man‑in‑the‑Prompt » modifie vos instructions envoyées à un LLM pour exfiltrer des données ou générer des réponses malveillantes. Appliquez des règles simples : évitez les extensions non vérifiées, saisissez et vérifiez vos prompts manuellement, démarrez de nouvelles sessions pour les sujets sensibles, et suivez le playbook d'intervention.