Fondamentaux LLM × Cybersécurité
Architectures (Claude, GPT, Mistral, Llama), tokenization, alignement, RLHF, agents, RAG. Cartographie de la menace IA pour un RSSI.
Décrivez votre besoin, recevez en 3 min un parcours sur mesure et un devis pré-rempli. Un RDV 100 % gratuit avec un conseiller.
Une formation hybride où vous apprenez à attaquer et défendre les systèmes IA. Pentest assisté par LLM, prompt injection, jailbreaks, OWASP LLM Top 10, red teaming d'agents — par les experts de Zeroday Académie, partenaire Learni.
Les LLM accélèrent les attaquants autant qu'ils créent une nouvelle surface d'attaque côté défense. Les RSSI qui ne forment pas leurs équipes prennent un retard décisif sur l'offensif comme sur le défensif.
Utilisez un LLM comme copilote offensif : reconnaissance, exploitation, post-exploit. Génération de payloads, fuzzing intelligent, analyse de code source à grande vitesse.
Maîtrise des 10 risques de référence côté applications IA : prompt injection, insecure output, training data poisoning, model DoS, supply chain, sensitive info disclosure.
Détourner les agents qui appellent des outils, contourner les guardrails, exploiter les RAG empoisonnés, exfiltrer des données via des chaînes multi-tours.
Détection de prompt injection, sandboxing d'outils, monitoring agentique, AI red team interne, alignement avec NIS 2 et l'AI Act.
Chaque module alterne théorie, démo en direct et lab guidé. Une journée = un module = un livrable concret réutilisable en entreprise.
Architectures (Claude, GPT, Mistral, Llama), tokenization, alignement, RLHF, agents, RAG. Cartographie de la menace IA pour un RSSI.
Injections directes et indirectes, payload encoding, multi-tours, exfiltration via outputs, jailbreaks publics et techniques avancées (DAN, role-play, encoding tricks).
Recon automatisée, génération d'exploits, analyse de binaires assistée, code review offensive. Intégration avec Burp, Caido, ffuf, sqlmap, AFL.
Implémentation et exploitation des 10 risques en lab. Audit d'une chatbot d'entreprise : de la découverte à l'exploit puis remediation.
Empoisonnement de RAG, abuse de tool calling, exfiltration multi-tours, contournement de filtres. Cas réels : agents internes Slack, agents support, copilotes code.
Guardrails (Llama Guard, Lakera, Promptfoo), détection prompt injection, audit de chaîne IA, AI red team interne, conformité NIS 2 / AI Act.
60% de pratique en lab cloud isolé. Vous attaquez et défendez des systèmes vulnérables construits pour la formation : chatbots, agents support, RAG, copilotes code.
Plateforme de labs IA dédiée (chatbots faillibles, agents vulnérables, RAG empoisonnés)
CTF interne d'une journée : capture-the-flag sur cibles IA
Accès post-formation 30 jours pour rejouer les scénarios
Toolkit complet : prompts d'attaque, scripts d'audit, checklists OWASP LLM
30 minutes avec un conseiller formation. Sans engagement. Sans argumentaire commercial maquillé en démo.