Loading...
Please wait a moment
Founded by passionate advocates of learning and innovation, Learni set out to make professional training accessible to everyone, everywhere in the world. Our team works in the largest cities such as Paris, Lyon, Marseille, and internationally, to support talents and organizations in their skills development.
Which format do you prefer?
30 free minutes with a training advisor — no commitment.
Loading available slots...
Cybersecurity training in Sheffield in November 2026 with Learni. Certified, expert trainers, eligible for employer funding. Free quote.
Explore the latest Power BI training options, essential Microsoft certifications like PL-300 and DP-600, and promising career trajectories for data professionals targeting April 2026.
Artificial Intelligence training in Raleigh in June 2026 with Learni. Certified, expert trainers, eligible for employer funding. Free quote.
Artificial Intelligence training in San Francisco in October 2026 with Learni. Certified, expert trainers, eligible for employer funding. Free quote.
Don't let this gap widen
Sans maîtrise de l’orchestration des pipelines de données avec Apache Airflow, vos workflows data s’effondrent sous le poids des dépendances non gérées et des exécutions chaotiques.
Une entreprise perd en moyenne 45 000 € par mois en productivité et rectifications d’erreurs, avec 68 % des incidents data imputables à une orchestration défaillante (Gartner, 2023).
Ces défaillances exposent votre organisation à des pertes de données critiques, des rapports erronés et une perte de confiance client, menaçant directement la rentabilité et votre avancement professionnel.
Chaque délai prolongé sans compétences solides creuse un écart concurrentiel insurmontable, transformant des opportunités en échecs coûteux.
The Maîtriser l’orchestration des pipelines de données avec Apache Airflow training is delivered in-person or remotely (blended-learning, e-learning, virtual classroom, remote in-person). At Learni, a Qualiopi-certified training organization, each program is designed to maximize skills acquisition, regardless of the training mode chosen.
The trainer alternates between demonstrative, interrogative, and active methods (through practical exercises and/or real-world scenarios). This pedagogical approach ensures concrete and directly applicable learning in the workplace.
To ensure the quality of the Maîtriser l’orchestration des pipelines de données avec Apache Airflow training, Learni provides the following teaching resources:
For in-house training at a location external to Learni, the client ensures and commits to having all necessary teaching materials (IT equipment, internet connection...) for the proper conduct of the training action in accordance with the prerequisites indicated in the communicated training program.
The assessment of skills acquired during the Maîtriser l’orchestration des pipelines de données avec Apache Airflow training is carried out through:
Learni is committed to the accessibility of its professional training programs. All our training programs are accessible to people with disabilities. Our teams are available to adapt teaching methods to your specific needs. Do not hesitate to contact us for any accommodation request.
Learni training programs are available for inter-company and intra-company settings, both in-person and remote. Registration is possible up to 48 business hours before the start of training. Our programs are eligible for OPCO, Pôle emploi, and FNE-Formation funding. Contact us to discuss your training project and funding possibilities.
Découverte de l'orchestration de workflows, principes clés d’Airflow. Installation (local et cloud), configuration des bases, apprentissage de la terminologie (DAG, opérateurs, capteurs). Création d’un workflow simple. Interaction avec l’interface web d’Airflow. Exercices pratiques : Création de premiers DAGs.
Programmation des DAGs complexes : gestion des dépendances, utilisation avancée des opérateurs, hooks et capteurs. Interfaçage avec bases SQL, S3, BigQuery, Spark, etc. Prise en main des flux ETL automatisés avec Airflow. Utilisation des variables, templates Jinja, gestion des connexions, programmation des scheduling avancés. Exercices pratiques : scénarios multi-tâches et automatisation de pipelines réels.
Configuration des logs, débogage et troubleshooting, gestion des erreurs, notifications. Mise en place du monitoring, logs centralisés, alertes. Sécurisation d’Airflow (authentification, gestion des droits, RBAC). Bonnes pratiques de déploiement (Docker, Kubernetes, Cloud Composer). Plan de maintenance, mises à jour, sauvegardes. Cas pratiques sur le monitoring de DAGs critiques et la sécurisation.
Target audience
Ingénieurs data, développeurs, administrateurs systèmes, chefs de projet technique cherchant à automatiser l'exécution des workflows de données.
Prerequisites
Connaissances basiques en Python et en gestion de bases de données, expérience sur les outils de données ou cloud recommandée.
Loading...
Please wait a moment





























