Chargement en cours...
Veuillez patienter un instant
Fondée par des passionnés de l'apprentissage et de l'innovation, Learni s'est donnée pour mission de rendre la formation professionnelle accessible à tous, partout dans le monde. Notre équipe intervient dans les plus grandes métropoles telles que Paris, Lyon, Marseille, mais aussi à l'international, afin d'accompagner les talents et les organisations dans leur montée en compétences.
Quel format préférez-vous ?
30 minutes gratuites avec un conseiller formation — sans engagement.
Chargement des créneaux...
Formation Développement Informatique à Argenteuil en Octobre 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO. Devis gratuit.
Formation Intelligence Artificielle à Villeurbanne en Août 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO. Devis gratuit.
Formation Automatisation & Productivité à Bordeaux en Juillet 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO/CPF. Devis gratuit.
Formation Développement Informatique à Perpignan en Novembre 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO. Devis gratuit.
Ne laissez pas ce retard s'accumuler
Sans maîtrise d'Apache Airflow, vos workflows de données deviennent chaotiques et manuels, générant retards et erreurs récurrentes.
Les data engineers perdent en moyenne 25 à 40% de leur temps en maintenance manuelle, soit plus de 50 000 € annuels par équipe en productivité gaspillée.
70% des incidents data critiques sont liés à une orchestration défaillante, exposant l'entreprise à des pertes financières massives et à une perte de compétitivité.
Chaque mois sans compétences solides en Airflow compromet les projets stratégiques, menace les carrières des architectes data et freine la croissance business.
La formation Maîtriser Apache Airflow pour l'Orchestration de Workflows de Données est délivrée en présentiel ou distanciel (blended-learning, e-learning, classe virtuelle, présentiel à distance). Chez Learni, organisme de formation certifié Qualiopi, chaque parcours est conçu pour maximiser l'acquisition de compétences, quel que soit le mode de formation choisi.
Le formateur alterne entre méthode démonstrative, interrogative et active (via des travaux pratiques et/ou des mises en situation). Cette approche pédagogique garantit un apprentissage concret et directement applicable en entreprise.
Pour garantir la qualité de la formation Maîtriser Apache Airflow pour l'Orchestration de Workflows de Données, Learni met à disposition les moyens pédagogiques suivants :
En cas de formation intra-entreprise sur site externe à Learni, le client s'assure et s'engage à disposer de toutes les ressources matérielles pédagogiques nécessaires (équipements informatiques, connexion internet...) au bon déroulement de l'action de formation conformément aux prérequis indiqués dans le programme de formation communiqué.
L'évaluation des compétences acquises lors de la formation Maîtriser Apache Airflow pour l'Orchestration de Workflows de Données s'effectue à travers :
Learni s'engage pour l'accessibilité de ses formations professionnelles. Toutes nos formations sont accessibles aux personnes en situation de handicap. Nos équipes sont à votre disposition pour adapter les modalités pédagogiques à vos besoins spécifiques. N'hésitez pas à nous contacter pour toute demande d'aménagement.
Les formations Learni sont disponibles en inter-entreprise et intra-entreprise, en présentiel comme en distanciel. Les inscriptions sont possibles jusqu'à 48 heures ouvrées avant le début de la formation. Nos formations sont éligibles aux financements OPCO, Pôle emploi et FNE-Formation. Contactez-nous pour étudier ensemble votre projet de formation et les possibilités de prise en charge.
Présentation de l’orchestration des workflows de données, origines et concepts clés d’Airflow, architecture (Scheduler, Workers, Executor, PostgreSQL, WebUI), installation locale via Docker ou pip, prise en main de l’interface graphique, premiers DAGs et tâches simples, opérateurs de base, gestion des connexions, configuration des variables et secrets.
Écriture de DAGs dynamiques en Python, opérateurs avancés (BashOperator, PythonOperator, EmailOperator, etc.), gestion des dépendances entre tâches, planification, politics de retry, contrôle du parallélisme, Sensors et opérateurs personnalisés, déclenchement manuel vs planifications périodiques, hooks et interfaçage avec des systèmes externes (bases SQL, cloud, API, S3), gestion des templates et des macros.
Déploiement d’Airflow sur serveurs, Docker ou Kubernetes, configuration pour la production, gestion de la sécurité, scheduling à grande échelle, surveillance et alertes (logs, emails, SLAs, monitoring), gestion des erreurs et reprise automatique, maintenance des DAGs, gestion des mises à jour, optimisation des pipelines, présentation des cas d’usages réels, intégration avec des solutions Cloud (GCP, AWS, Azure), audit de logs et bonnes pratiques pour la fiabilité et la scalabilité.
Public
Data engineers, développeurs, architectes data et professionnels IT souhaitant automatiser et orchestrer des pipelines de données
Prérequis
Connaissance de base de Python et notions fondamentales en gestion des données
Chargement en cours...
Veuillez patienter un instant





























