Chargement en cours...
Veuillez patienter un instant
Fondée par des passionnés de l'apprentissage et de l'innovation, Learni s'est donnée pour mission de rendre la formation professionnelle accessible à tous, partout dans le monde. Notre équipe intervient dans les plus grandes métropoles telles que Paris, Lyon, Marseille, mais aussi à l'international, afin d'accompagner les talents et les organisations dans leur montée en compétences.
Quel format préférez-vous ?
30 minutes gratuites avec un conseiller formation — sans engagement.
Chargement des créneaux...
Formation Intelligence Artificielle à Marseille en Août 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO/CPF. Devis gratuit.
Formation Développement Informatique à Avignon en Mai 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO/CPF. Devis gratuit.
Formation Professionnelle à Marseille en Août 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO. Devis gratuit pour entreprises marseillaises.
Formation Développement Informatique à Tours en Juin 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO. Devis gratuit pour reconversion ou montée en compétences fullstack.
Ne laissez pas ce retard s'accumuler
Sans maîtrise d'Apache Iceberg, les data lakes d'entreprise accumulent des erreurs de concurrence causant 30% de pertes de données fiables par an.
Les équipes passent 50% de temps en plus sur la maintenance manuelle des tables Parquet, avec des coûts de stockage gonflés jusqu'à 40% par manque d'optimisation.
En 2024, 65% des projets big data échouent faute de transactions ACID, menaçant la compétitivité et exposant à des amendes RGPD pour inexactitude des données.
Chaque trimestre sans compétences Iceberg creuse un écart de 25% en productivité par rapport aux concurrents qui scalent sans faille.
La formation Formation Apache Iceberg - Gérer des data lakes transactionnels est délivrée en présentiel ou distanciel (blended-learning, e-learning, classe virtuelle, présentiel à distance). Chez Learni, organisme de formation certifié Qualiopi, chaque parcours est conçu pour maximiser l'acquisition de compétences, quel que soit le mode de formation choisi.
Le formateur alterne entre méthode démonstrative, interrogative et active (via des travaux pratiques et/ou des mises en situation). Cette approche pédagogique garantit un apprentissage concret et directement applicable en entreprise.
Pour garantir la qualité de la formation Formation Apache Iceberg - Gérer des data lakes transactionnels, Learni met à disposition les moyens pédagogiques suivants :
En cas de formation intra-entreprise sur site externe à Learni, le client s'assure et s'engage à disposer de toutes les ressources matérielles pédagogiques nécessaires (équipements informatiques, connexion internet...) au bon déroulement de l'action de formation conformément aux prérequis indiqués dans le programme de formation communiqué.
L'évaluation des compétences acquises lors de la formation Formation Apache Iceberg - Gérer des data lakes transactionnels s'effectue à travers :
Learni s'engage pour l'accessibilité de ses formations professionnelles. Toutes nos formations sont accessibles aux personnes en situation de handicap. Nos équipes sont à votre disposition pour adapter les modalités pédagogiques à vos besoins spécifiques. N'hésitez pas à nous contacter pour toute demande d'aménagement.
Les formations Learni sont disponibles en inter-entreprise et intra-entreprise, en présentiel comme en distanciel. Les inscriptions sont possibles jusqu'à 48 heures ouvrées avant le début de la formation. Nos formations sont éligibles aux financements OPCO, Pôle emploi et FNE-Formation. Contactez-nous pour étudier ensemble votre projet de formation et les possibilités de prise en charge.
Installation rapide d'Apache Iceberg avec Spark et configuration de catalogs comme Hive Metastore ou Nessie, création de vos premières tables ACID à partir de datasets réels, exploration du format Parquet sous-jacent et métadonnées snapshots, exercices pratiques sur ingestion de données massives via Spark SQL, validation des transactions avec commits atomiques, et production d'un premier pipeline ETL fonctionnel que vous emportez comme livrable concret pour tester en entreprise dès le lendemain.
Plongée dans les merges upsert et delete avancés pour updater des milliards de lignes sans downtime, maîtrise du time travel pour querying versions historiques et rollback instantanés, exercices sur schema evolution sans rewrite complet des données, gestion des branches pour workflows collaboratifs en équipe data, cas concrets inspirés de production comme correction d'erreurs métier sur logs e-commerce, et élaboration d'un projet fil rouge avec audits de snapshots pour garantir l'intégrité des compétences acquises en contexte professionnel.
Techniques d'optimisation avec partitioning dynamique, compaction automatique et hidden partitioning pour accélérer les queries x10, intégration fluide à Trino pour analytics SQL fédérés et Flink pour streaming, exercices sur monitoring des métadonnées et tuning des performances en cluster AWS ou GCP, déploiement d'un pipeline complet avec CI/CD via GitHub Actions, simulation de charge production sur datasets téraoctets, et finalisation du projet fil rouge avec plan d'optimisation personnalisé pour booster directement l'efficacité data de votre entreprise.
Public
Data engineers, architectes big data et analystes de données souhaitant monter en compétences sur les data lakes modernes
Prérequis
Connaissances solides en SQL avancé, Spark ou Hadoop, et bases de data lakes
Chargement en cours...
Veuillez patienter un instant





























