Chargement en cours...
Veuillez patienter un instant
Fondée par des passionnés de l'apprentissage et de l'innovation, Learni s'est donnée pour mission de rendre la formation professionnelle accessible à tous, partout dans le monde. Notre équipe intervient dans les plus grandes métropoles telles que Paris, Lyon, Marseille, mais aussi à l'international, afin d'accompagner les talents et les organisations dans leur montée en compétences.
10 places par session maximum — 8 déjà prises
Quel format préférez-vous ?
30 minutes gratuites avec un conseiller formation — sans engagement.
Chargement des créneaux...
Découvrez l'efficacité comparative de la formation en ligne et présentiel en mars 2026. Analyses d'études récentes, tendances hybrides et projections pour la formation professionnelle.
Découvrez les principaux défis éthiques posés par l’intégration de l’IA dans l’enseignement supérieur en 2026 : biais, confidentialité, équité et plus encore. Analyse prospective pour les formateurs et établissements.
Découvrez les meilleures stratégies pour recruter des étudiants internationaux en mars 2026 : marketing digital, bourses, partenariats et plus pour booster vos inscriptions.
Formation Développement Informatique à Avignon en Mai 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO/CPF. Devis gratuit.
Ne laissez pas ce retard s'accumuler
Sans maîtrise d'Apache Iceberg, vos lacs de données massifs deviennent des marécages ingérables, minés par des corruptions, des duplications et des queries lentes.
65 % des incidents data warehouse sont liés à une gestion défaillante des tables ACID, générant des pertes de 300 000 € en moyenne par an pour une équipe de data engineers en recomput et stockage excessif.
Votre entreprise rate l'ère du lakehouse, perdant 40 % de compétitivité face aux concurrents agiles, tandis que votre carrière patine derrière les experts juniors polyvalents.
Chaque trimestre sans compétences avancées, ces fuites de valeur s'accumulent et menacent la viabilité business.
La formation Formation Apache Iceberg - Gérer des lacs de données massifs est délivrée en présentiel ou distanciel (blended-learning, e-learning, classe virtuelle, présentiel à distance). Chez Learni, organisme de formation certifié Qualiopi, chaque parcours est conçu pour maximiser l'acquisition de compétences, quel que soit le mode de formation choisi.
Le formateur alterne entre méthode démonstrative, interrogative et active (via des travaux pratiques et/ou des mises en situation). Cette approche pédagogique garantit un apprentissage concret et directement applicable en entreprise.
Pour garantir la qualité de la formation Formation Apache Iceberg - Gérer des lacs de données massifs, Learni met à disposition les moyens pédagogiques suivants :
En cas de formation intra-entreprise sur site externe à Learni, le client s'assure et s'engage à disposer de toutes les ressources matérielles pédagogiques nécessaires (équipements informatiques, connexion internet...) au bon déroulement de l'action de formation conformément aux prérequis indiqués dans le programme de formation communiqué.
L'évaluation des compétences acquises lors de la formation Formation Apache Iceberg - Gérer des lacs de données massifs s'effectue à travers :
Learni s'engage pour l'accessibilité de ses formations professionnelles. Toutes nos formations sont accessibles aux personnes en situation de handicap. Nos équipes sont à votre disposition pour adapter les modalités pédagogiques à vos besoins spécifiques. N'hésitez pas à nous contacter pour toute demande d'aménagement.
Les formations Learni sont disponibles en inter-entreprise et intra-entreprise, en présentiel comme en distanciel. Les inscriptions sont possibles jusqu'à 48 heures ouvrées avant le début de la formation. Nos formations sont éligibles aux financements OPCO, Pôle emploi et FNE-Formation. Contactez-nous pour étudier ensemble votre projet de formation et les possibilités de prise en charge.
Rappel des concepts Iceberg pour data lakes modernes. Installation et configuration sur Spark. Création de tables Iceberg avec métadonnées. Gestion des partitions dynamiques. Mise en pratique sur datasets réels. Exercices professionnels sur schémas évolutifs. Démarrage du projet fil rouge : simulation d'un lac de données entreprise. Intégration avec S3. Vérification des snapshots initiaux. Time travel basique. Cas concrets de versioning. Optimisation des manifests. Support de formats Parquet/ORC. Préparation des environnements distribués.
Implémentation des transactions ACID en Apache Iceberg. Merge, update et delete sur tables massives. Gestion des schémas évolutifs sans downtime. Exercice pratique : migration Hive vers Iceberg. Projet fil rouge : ingestion de données streaming. Contrôle de l'isolation des lectures. Branching et tagging pour tests. Résolution des conflits de concurrence. Mise en œuvre de compaction manuelle. Analyse des métadonnées avec Iceberg CLI. Cas d'entreprise : audit de tables existantes. Intégration avec Kafka pour CDC. Validation des contraintes. Performance tuning des opérations DML.
Connexion Apache Iceberg à Spark, Trino et Flink. Requêtes fédérées sur multi-moteurs. Configuration des catalogues comme Hive Metastore ou REST. Projet fil rouge : queries cross-engine. Optimisation des pushdown predicates. Exercice : jointures sur datasets téraoctets. Streaming avec Spark Structured Streaming. Intégration AWS Glue ou Azure Purview. Sécurité : encryption et Ranger. Monitoring avec Prometheus. Cas professionnels : migration legacy data warehouse. Benchmarks de performance. Fine-tuning des readers/writers. Gestion des formats hidden partitioning.
Stratégies d'optimisation Apache Iceberg en production. Compaction automatique et rewrite manifests. Tuning des file sizes pour coûts stockage. Projet fil rouge : déploiement full pipeline. Monitoring et alerting sur métadonnées. Scaling horizontal avec Kubernetes. CI/CD pour tables Iceberg. Exercice : diagnostic de performances lentes. Meilleures pratiques entreprise : backup/restore. Intégration Databricks ou EMR. Audit de coûts cloud. Soutenance projet : simulation prod lakehouse. QCM final et certification compétences. Ressources post-formation.
Public
Data engineers, architectes big data et analystes avancés pour montée en compétences sur lakehouse
Prérequis
Expérience solide en Spark ou Hive, SQL avancé et stockage distribué comme S3 ou HDFS

Nos formations sont éligibles à de nombreux dispositifs de financement : OPCO, Pôle emploi et FNE. Nous vous accompagnons dans vos démarches pour mobiliser ces aides et faciliter l'accès à la formation.
Nos tarifs reflètent notre engagement à vous accompagner avec l'excellence : chaque formation est conçue et animée par des formateurs soigneusement recrutés pour leur expertise et leur pédagogie, afin de garantir un accompagnement de haut niveau.
Nous ne proposons pas le financement via le CPF : ce choix est motivé par notre engagement qualité et la volonté de vous protéger face à la recrudescence d'arnaques sur ce dispositif.
Chargement en cours...
Veuillez patienter un instant





























