Loading...
Please wait a moment
Founded by passionate advocates of learning and innovation, Learni set out to make professional training accessible to everyone, everywhere in the world. Our team works in the largest cities such as Paris, Lyon, Marseille, and internationally, to support talents and organizations in their skills development.
Which format do you prefer?
30 free minutes with a training advisor — no commitment.
Loading available slots...
Artificial Intelligence training in Cardiff in May 2026 with Learni. Certified, expert trainers, eligible for employer funding. Free quote.
Artificial Intelligence training in Mesa in September 2026 with Learni. Certified, expert trainers, eligible for employer funding. Free quote.
Cybersecurity training in Oklahoma City in December 2026 with Learni. Certified, expert trainers, eligible for employer funding. Free quote.
Professional Training training in Memphis in October 2026 with Learni. Certified, expert trainers, eligible for employer funding. Free quote.
Don't let this gap widen
Sans maîtrise de l'AI red teaming, 78% des modèles IA déployés en entreprise subissent des attaques adverses invisibles, entraînant des pertes de 2,5 millions d'euros annuels par incident majeur selon Gartner.
Les équipes non formées gaspillent 50% de temps en debugging inutile face aux jailbreaks, exposant clients et données sensibles à des fuites massives.
En 2026, 65% des audits réglementaires EU AI Act échouent pour manque de tests red team, menaçant amendes et réputation.
Chaque trimestre sans compétences certifiantes creuse l'écart concurrentiel, rendant vos IA obsolètes et vulnérables.
The Formation AI Red Teaming - Sécuriser les modèles IA en entreprise training is delivered in-person or remotely (blended-learning, e-learning, virtual classroom, remote in-person). At Learni, a Qualiopi-certified training organization, each program is designed to maximize skills acquisition, regardless of the training mode chosen.
The trainer alternates between demonstrative, interrogative, and active methods (through practical exercises and/or real-world scenarios). This pedagogical approach ensures concrete and directly applicable learning in the workplace.
To ensure the quality of the Formation AI Red Teaming - Sécuriser les modèles IA en entreprise training, Learni provides the following teaching resources:
For in-house training at a location external to Learni, the client ensures and commits to having all necessary teaching materials (IT equipment, internet connection...) for the proper conduct of the training action in accordance with the prerequisites indicated in the communicated training program.
The assessment of skills acquired during the Formation AI Red Teaming - Sécuriser les modèles IA en entreprise training is carried out through:
Learni is committed to the accessibility of its professional training programs. All our training programs are accessible to people with disabilities. Our teams are available to adapt teaching methods to your specific needs. Do not hesitate to contact us for any accommodation request.
Learni training programs are available for inter-company and intra-company settings, both in-person and remote. Registration is possible up to 48 business hours before the start of training. Our programs are eligible for OPCO, Pôle emploi, and FNE-Formation funding. Contact us to discuss your training project and funding possibilities.
Découverte des principes du red teaming adapté aux IA, analyse des risques spécifiques comme l'empoisonnement de données et les attaques par prompts, prise en main du framework OWASP Top 10 for LLM, exercices pratiques sur identification de vulnérabilités dans un modèle simple, création d'un rapport préliminaire de menaces pour un cas d'entreprise concret, avec feedback personnalisé du formateur pour ancrer les compétences professionnelles.
Exploration des attaques adverses classiques sur les modèles de vision et langage, utilisation de l'Adversarial Robustness Toolbox pour générer des perturbations imperceptibles, simulations pratiques d'injection de prompts malveillants sur des LLMs open-source, test de jailbreaks sur ChatGPT-like, analyse des impacts business comme les fuites de données sensibles, élaboration d'un scénario d'attaque complet avec livrable sous forme de preuve de concept exploitée.
Plongée dans les techniques de jailbreaking pour contourner les garde-fous des IA génératives, expérimentation avec Garak et Garble pour scanner les vulnérabilités automatisées, mise en œuvre d'attaques d'empoisonnement sur datasets d'entraînement, cas pratiques inspirés d'incidents réels en entreprise, développement d'un script Python personnalisé pour reproduire une attaque, discussion sur les implications éthiques et réglementaires avec production d'un plan de test structuré.
Maîtrise des outils open-source comme PromptInject pour tester les injections et NeMo Guardrails pour la protection, automation de campagnes de red teaming via scripts Python et Jupyter, exercices sur un projet fil rouge d'entreprise avec évaluation de robustesse multi-modèles, mesure des métriques de succès comme l'ASR et la robustesse, collaboration en binôme pour simuler une équipe red team, génération de rapports visuels avec dashboards pour communiquer les findings aux stakeholders.
Synthèse des défenses contre les attaques identifiées, implémentation de techniques comme l'adversarial training et les filtres de prompts, utilisation de frameworks RAI pour des audits certifiants, finalisation du projet fil rouge avec rapport exécutif et recommandations actionnables, simulation d'un débriefing client en entreprise, préparation à la certification personnelle via QCM et soutenance, accès à un kit d'outils post-formation pour application immédiate en production.
Target audience
Ingénieurs IA, experts cybersécurité, data scientists pour montée en compétences en red teaming
Prerequisites
Bases en Python, notions d'IA/ML et sécurité informatique
Loading...
Please wait a moment





























