Chargement en cours...
Veuillez patienter un instant
Fondée par des passionnés de l'apprentissage et de l'innovation, Learni s'est donnée pour mission de rendre la formation professionnelle accessible à tous, partout dans le monde. Notre équipe intervient dans les plus grandes métropoles telles que Paris, Lyon, Marseille, mais aussi à l'international, afin d'accompagner les talents et les organisations dans leur montée en compétences.
Quel format préférez-vous ?
30 minutes gratuites avec un conseiller formation — sans engagement.
Chargement des créneaux...
Découvrez comment maîtriser Python pour l'analyse de données via la formation Learni d'avril 2026. Guide complet avec programme, compétences et financements OPCO-Qualiopi.
Formation Automatisation & Productivité à Lyon en Novembre 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO/CPF. Devis gratuit.
Découvrez comment sélectionner une formation cybersécurité certifiée, financée par OPCO et Qualiopi, reconnue par les recruteurs. Focus sur les offres Learni pour avril 2026.
Formation Développement Informatique à Tours en Juin 2026 avec Learni. Qualiopi, formateurs experts, éligible OPCO. Devis gratuit pour reconversion ou montée en compétences fullstack.
Ne laissez pas ce retard s'accumuler
Sans maîtrise de l'optimisation et de l'accélération de l'inférence deep learning avec TensorRT, vos modèles gaspillent jusqu'à 80 % des ressources GPU, avec des latences multipliées par 5 à 10.
Une équipe typique perd 40 000 € annuels en coûts cloud superflus et voit 65 % de ses déploiements en production échouer par sous-performance.
Cela compromet la scalabilité des applications embarquées, érode la compétitivité business et menace les promotions des ingénieurs IA incapables de livrer en temps réel.
Chaque trimestre sans expertise aggrave les risques, laissant vos concurrents dominer le marché.
La formation Optimiser et Accélérer l'Inférence de Modèles Deep Learning avec TensorRT est délivrée en présentiel ou distanciel (blended-learning, e-learning, classe virtuelle, présentiel à distance). Chez Learni, organisme de formation certifié Qualiopi, chaque parcours est conçu pour maximiser l'acquisition de compétences, quel que soit le mode de formation choisi.
Le formateur alterne entre méthode démonstrative, interrogative et active (via des travaux pratiques et/ou des mises en situation). Cette approche pédagogique garantit un apprentissage concret et directement applicable en entreprise.
Pour garantir la qualité de la formation Optimiser et Accélérer l'Inférence de Modèles Deep Learning avec TensorRT, Learni met à disposition les moyens pédagogiques suivants :
En cas de formation intra-entreprise sur site externe à Learni, le client s'assure et s'engage à disposer de toutes les ressources matérielles pédagogiques nécessaires (équipements informatiques, connexion internet...) au bon déroulement de l'action de formation conformément aux prérequis indiqués dans le programme de formation communiqué.
L'évaluation des compétences acquises lors de la formation Optimiser et Accélérer l'Inférence de Modèles Deep Learning avec TensorRT s'effectue à travers :
Learni s'engage pour l'accessibilité de ses formations professionnelles. Toutes nos formations sont accessibles aux personnes en situation de handicap. Nos équipes sont à votre disposition pour adapter les modalités pédagogiques à vos besoins spécifiques. N'hésitez pas à nous contacter pour toute demande d'aménagement.
Les formations Learni sont disponibles en inter-entreprise et intra-entreprise, en présentiel comme en distanciel. Les inscriptions sont possibles jusqu'à 48 heures ouvrées avant le début de la formation. Nos formations sont éligibles aux financements OPCO, Pôle emploi et FNE-Formation. Contactez-nous pour étudier ensemble votre projet de formation et les possibilités de prise en charge.
Présentation de la plateforme NVIDIA, rôle de TensorRT dans l’écosystème, cas d’usage. Concepts fondamentaux d’inférence optimisée. Architecture interne de TensorRT : builders, engines, calibrators, plugins. Premiers benchmarks de base.
Conversion de modèles TensorFlow/PyTorch en ONNX. Manipulation et conversion ONNX-to-TensorRT. Techniques d’optimisation : pruning, fusion d’opérations, quantification INT8, mixed precision. Introduction à l’API Python et C++. Déploiement sur GPU, tests de performance, profiling avec trtexec.
Intégration de TensorRT dans un pipeline applicatif complexe (serveur et embarqué). Tests avancés, gestion des erreurs et limitations. Optimisation sur-mesure via plugins personnalisés. Études de cas pratiques (vision, NLP, etc). Résolution des goulots et tuning selon le matériel (Jetson, T4, A100). Conseils pour la maintenance et le monitoring à long terme.
Public
Ingénieurs IA, data scientists, développeurs d'applications embarquées nécessitant des performances optimales en inférence deep learning
Prérequis
Maîtrise du deep learning (concepts, frameworks comme TensorFlow ou PyTorch), notions d'optimisation logicielle, expérience avec CUDA recommandée
Chargement en cours...
Veuillez patienter un instant





























