Aller au contenu principal
Forte demandeSécuritéHands-on Lab

Défense contre les Injections de Prompts et Fuites de Données

Les applications IA sont vulnérables aux injections de prompts, jailbreaks et fuites de données. Cet atelier vous apprend à identifier ces menaces et à mettre en place des défenses multi-couches pour sécuriser vos systèmes LLM.

Défense contre les Injections de Prompts et Fuites de Données

Durée

3h30

Public

Security Engineers, Développeurs, DevSecOps, Tech Leads

Technologies

LLMs, Python, Content Filters, Security Tools

Format

Présentiel ou Distanciel

Programme détaillé

0:00 – 0:20

Modèle de menace

  • Qu'est-ce qu'une injection de prompt ?
  • Types d'attaques : Direct/Indirect prompt injection, Data exfiltration, Model manipulation
  • Études de cas réelles : incidents de sécurité LLM
0:20 – 1:10

Lab 1 : Attaquer une application de démonstration

  • Setup : déployer une application LLM vulnérable
  • Exercice : Jailbreaker le système avec des prompts malveillants
  • Exercice : Extraire des données sensibles (PII, secrets)
  • Exercice : Indirect injection via un document malveillant
  • Observer les chemins d'exfiltration
1:20 – 2:20

Lab 2 : Ajouter des défenses multi-couches

  • Layer 1 : Input validation (schema enforcement, regex filters)
  • Layer 2 : Tool policy (restreindre les outils accessibles)
  • Layer 3 : Content filters (modération avec OpenAI Moderation API, Azure Content Safety)
  • Layer 4 : Output sanitization (supprimer les PII, secrets)
  • Layer 5 : Monitoring et alerting
  • Tester à nouveau les attaques : mesurer l'efficacité
2:30 – 3:30

Test harness & Red Team

  • Créer une suite de tests automatisés pour la sécurité LLM
  • Red-team checklist : scénarios d'attaque à tester systématiquement
  • CI/CD integration : tester la sécurité à chaque déploiement
  • Frameworks : OWASP Top 10 for LLMs
  • Playbook de réponse à incident

Livrables

  • Security playbook pour applications LLM
  • Suite de tests automatisés (attaques + défenses)
  • Red-team checklist pour audits réguliers
  • Templates de content filters et policies

Prérequis

  • Python (niveau intermédiaire)
  • Connaissance des LLMs et APIs
  • Bases en sécurité applicative (souhaitable)

Tarifs

990 € HT / personne

4 500 € HT / groupe (jusqu'à 8 participants)

Niveau

Intermédiaire à avancé

Accessibilité

Atelier accessible aux personnes en situation de handicap. Contactez notre référent handicap : accessibilite@ikasia.ai

Besoin d'une montée en compétences rapide ?

Nos ateliers intensifs sont conçus pour vous rendre opérationnel en 3h30 sur les technologies les plus demandées du marché.