Diplôme universitaire
La plus grande faculté d’informatique au monde”
Présentation
Développez des compétences essentielles en Robotique et Vision Artificielle en vous inscrivant dès maintenant à ce Mastère avancé de TECH"

L'essor de l'Intelligence Artificielle et de la Robotique transforme le paysage technologique, économique et social dans le monde entier. La spécialisation dans des domaines tels que la Vision Artificielle est devenue cruciale pour garder une longueur d'avance dans cette ère de progrès rapides et de changements perturbateurs. L'interaction croissante entre les machines et les humains, ainsi que la nécessité de traiter efficacement les informations visuelles, exigent des professionnels hautement qualifiés capables de relever ces défis et de conduire l'innovation.
Le Mastère avancé en Robotique et Vision Artificielle offre une formation complète dans ces disciplines émergentes, couvrant des sujets tels que la réalité augmentée, l'intelligence artificielle et le traitement de l'information visuelle dans les machines, entre autres. Les étudiants bénéficieront d'une approche théorique-pratique, apprenant les derniers développements en Robotique et Vision Artificielle et comment appliquer ces connaissances dans des environnements réels.
En outre, le programme est 100% en ligne, ce qui permet aux étudiants d'adapter leur apprentissage à leur situation personnelle et professionnelle, facilitant ainsi la compatibilité de leur apprentissage avec leurs propres responsabilités. Les étudiants auront accès à du matériel pédagogique de haute qualité, tel que des résumés vidéo, des lectures essentielles et des vidéos approfondies, ce qui leur donnera une vision globale de la Robotique et Vision Artificielle.
Ainsi, le Mastère avancé en Robotique et Vision Artificielle est une opportunité unique pour les informaticiens qui cherchent à se différencier sur un marché du travail très compétitif et à acquérir des compétences spécialisées dans un domaine à fort potentiel de croissance.
Maîtrisez les techniques de vision artificielle et devenez un expert en analyse d'images et en systèmes de vision 3D"
Ce Mastère avancé en Robotique et Vision Artificielle contient le programme académique le plus complet et le plus actuel du marché. Les principales caractéristiques sont les suivantes:
- Le développement de cas pratiques présentés par des experts en Informatique
- Son contenu graphique, schématique et éminemment pratique est destiné à fournir des informations scientifiques et sanitaires sur les disciplines médicales indispensables à la pratique professionnelle
- Les exercices pratiques d’auto-évaluation pour améliorer l’apprentissage
- Son accent particulier sur les méthodologies innovantes en Développement de Robots et Vision Artificielle
- Leçons théoriques, questions à l'expert, forums de discussion sur des sujets controversés et travail de réflexion individuel
- La possibilité d'accéder aux contenus depuis tout appareil fixe ou portable doté d'une simple connexion à internet
Découvrez comment la technologie robotique peut être appliquée dans des domaines divers tels que la médecine et l'exploration spatiale, renforçant ainsi considérablement votre proposition de valeur"
Son corps enseignant comprend des professionnels du journalisme, qui apportent l'expérience de leur travail à ce programme, ainsi que des spécialistes reconnus issus de grandes entreprises et d'universités prestigieuses.
Son contenu multimédia, développé avec les dernières technologies éducatives, permettra au professionnel un apprentissage situé et contextuel, c'est-à-dire un environnement simulé qui fournira un apprentissage immersif programmé pour s'entraîner dans des situations réelles.
La conception de ce programme est basée sur l'Apprentissage par les Problèmes. Ainsi l’apprenant devra essayer de résoudre les différentes situations de pratique professionnelle qui se présentent à lui tout au long du Mastère avancé. Pour ce faire, il sera assisté d'un système vidéo interactif innovant créé par des experts reconnus.
Boostez vos projets en explorant l'application de l'intelligence artificielle et de l'apprentissage automatique dans le domaine de la robotique"

Renforcez vos compétences en matière d'algorithmes de planification et de contrôle pour le développement de robots intelligents et efficaces"
Programme
Le Mastère avancé en Robotique et Vision Artificielle est conçu avec une structure et un contenu qui garantissent une formation complète et spécialisée dans le domaine. Le programme est développé sur plusieurs modules, commençant par les concepts de base et évoluant progressivement vers des sujets plus complexes et plus spécifiques. Les étudiants auront l'occasion de se familiariser avec la conception, la programmation et le contrôle des robots, ainsi qu'avec les algorithmes de vision artificielle et les techniques d'apprentissage automatique.

Boostez votre apprentissage grâce à une approche pratique et théorique, qui vous permettra de relever de vrais défis dans le monde de la robotique"
Module 1. Robotique. Conception et modélisation de robots
1.1. Robotique dans l’Industrie 4.0
1.1.1. Robotique dans l’Industrie 4.0
1.1.2. Champs d’application et cas d’utilisation
1.1.3. Sous-domaines de spécialisation en robotique
1.2. Architectures hardware y software de robots
1.2.1. Architectures hardware et temps réel
1.2.2. Architectures hardware de robots
1.2.3. Modèles de communication et technologies Middleware
1.2.4. Intégration deSoftware avec le Robot Operating System (ROS)
1.3. Modélisation mathématique des robots
1.3.1. Représentation mathématique des solides rigides
1.3.2. Rotations et translations
1.3.3. Représentation hiérarchique de l’état
1.3.4. Représentation d’état distribuée en ROS (TF Library)
1.4. Cinématique et dynamique des robots
1.4.1. Cinématique
1.4.2. Dynamique
1.4.3. Robots sous-actionnés
1.4.4. Robots redondants
1.5. Modélisation et simulation de robots
1.5.1. Technologies de modélisation des robots
1.5.2. Modélisation de robots avec URDF
1.5.3. Simulation de robots
1.5.4. Modélisation avec le simulateur Gazebo
1.6. Robots manipulateurs
1.6.1. Types de robots manipulateurs
1.6.2. Cinématique
1.6.3. Dynamique
1.6.4. Simulation
1.7. Robots mobiles terrestres
1.7.1. Types de robots mobiles terrestres
1.7.2. Cinématique
1.7.3. Dynamique
1.7.4. Simulation
1.8. Robots mobiles aériens
1.8.1. Types de robots mobiles aériens
1.8.2. Cinématique
1.8.3. Dynamique
1.8.4. Simulation
1.9. Robots mobiles aquatiques
1.9.1. Types de robots mobiles aquatiques
1.9.2. Cinématique
1.9.3. Dynamique
1.9.4. Simulation
1.10. Robots bio-inspirés
1.10.1. Humanoïdes
1.10.2. Robots à quatre pattes ou plus
1.10.3. Robots modulaires
1.10.4. Robots à parties flexibles (Soft-Robotics)
Module 2. Agents intelligents. Application de l’Intelligence Artificielle aux robots et Softbots
2.1. Agents Intelligents et Intelligence Artificielle
2.1.1. Robots Intelligents Intelligence artificielle
2.1.2. Agents intelligents
2.1.2.1. Agents hardware Robots
2.1.2.2. Agents software Softbots
2.1.3. Applications à la Robotique
2.2. Connexion cerveau-algorithme
2.2.1. Inspiration biologique de l’Intelligence Artificielle
2.2.2. Raisonnement implémenté dans les algorithmes Typologie
2.2.3. Explicabilité des résultats dans les algorithmes d’Intelligence Artificielle
2.2.4. Évolution des algorithmes jusqu’au Deep Learning
2.3. Algorithmes de recherche dans l’espace des solutions
2.3.1. Éléments de la recherche dans l’espace des solutions
2.3.2. Algorithmes de recherche dans l’espace des solutions pour les problèmes d’Intelligence Artificielle
2.3.3. Applications des algorithmes de recherche et d’optimisation
2.3.4. Algorithmes de recherche appliqués à l’apprentissage automatique
2.4. Apprentissage Automatique
2.4.1. Apprentissage automatique
2.4.2. Algorithmes d’Apprentissage Supervisé
2.4.3. Algorithmes d’Apprentissage Non Supervisé
2.4.4. Algorithmes d’Apprentissage par Renforcement
2.5. Apprentissage Supervisé
2.5.1. Méthodes d’Apprentissage Supervisé
2.5.2. Arbres de décision pour la classification
2.5.3. Machines à vecteurs de support
2.5.4. Réseaux neuronaux artificiels
2.5.5. Applications de l’apprentissage supervisé
2.6. Apprentissage non supervisé
2.6.1. Apprentissage non supervisé
2.6.2. Réseaux de Kohonen
2.6.3. Cartes auto-organisatrices
2.6.4. Algorithme K-means
2.7. Apprentissage par renforcement
2.7.1. Apprentissage par renforcement
2.7.2. Agents basés sur des processus de Markov
2.7.3. Algorithmes d’Apprentissage par Renforcement
2.7.4. Apprentissage par renforcement appliqué à la robotique
2.8. Inférence probabiliste
2.8.1. Inférence probabiliste
2.8.2. Types d’inférence et définition de la méthode
2.8.3. L’inférence bayésienne comme étude de cas
2.8.4. Techniques d’inférence non paramétrique
2.8.5. Filtres Gaussiens
2.9. De la théorie à la pratique: développement d’un agent intelligent robotique
2.9.1. Inclusion de modules d’apprentissage supervisé dans un agent robotique
2.9.2. Inclusion de modules d’apprentissage par renforcement dans un agent robotique
2.9.3. Architecture d’un agent robotique contrôlé par l’IA
2.9.4. Outils professionnels pour la mise en œuvre d’agents intelligents
2.9.5. Phases de la mise en œuvre des algorithmes d’IA dans les agents robotiques
Module 3. Deep Learning
3.1. Intelligence artificielle
3.1.1. Machine learning
3.1.2. Deep Learning
3.1.3. L’explosion dul Deep Learning. Pourquoi maintenant?
3.2. Réseaux neuronaux
3.2.1. Réseau neuronal
3.2.2. Usages des réseaux neuronaux
3.2.3. Régression linéaire et perceptron
3.2.4. Forward Propagation
3.2.5. Backpropagation
3.2.6. Feature vectors
3.3. Loss Functions
3.3.1. Loss Functions
3.3.2. Types de Loss Functions
3.3.3. Choiix de Loss Functions
3.4. Fonctions d’activation
3.4.1. Fonctions d’activation
3.4.2. Fonctions linéaires
3.4.3. Fonctions non linéaires
3.4.4. Output vs. Hidden Layer Activation Functions
3.5. Régularisation et normalisation
3.5.1. Régularisation et normalisation
3.5.2. Overfitting and Data Augmentation
3.5.3. Regularization Methods: L1, L2 and Dropout
3.5.4. Normalization Methods: Batch, Weight, Layer
3.6. Optimisation
3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam
3.7. Hyperparameter Tuning et pesage
3.7.1. Les hyperparamètres
3.7.2. Batch Size vs. Learning Rate vs. Step Decay
3.7.3. Pesage
3.8. Mesures d’évaluation des réseaux neuronaux
3.8.1. Accuracy
3.8.2. Dice Coefficient
3.8.3. Sensitivity vs. Specificity/Recall vs. Precision
3.8.4. Courbe ROC (AUC)
3.8.5. F1-score
3.8.6. Confusión Matrix
3.8.7. Cross-Validation
3.9. Frameworks y Hardware
3.9.1. Tensor Flow
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware de la phase de formation
3.10. Créer un réseau neuronaux-formation et de validation
3.10.1. Dataset
3.10.2. Construction du réseau
3.10.3. Formation
3.10.4. Visualisation des résultats
Module 4. La Robotique dans l’automatisation des processus industriels
4.1. Conception de systèmes automatisés
4.1.1. Architectures hardware
4.1.2. Contrôleurs logiques programmables
4.1.3. Réseaux de communication industriels
4.2. Conception électrique avancée I: automatisation
4.2.1. Conception de tableaux électriques et symbologie
4.2.2. Circuits de puissance et de contrôle Harmoniques
4.2.3. Éléments de protection et de mise à la terre
4.3. Conception électrique avancée II: déterminisme et sécurité
4.3.1. Sécurité des machines et redondance
4.3.2. Relais et déclencheurs de sécurité
4.3.3. PLC de sécurité
4.3.4. Réseaux sécurisés
4.4. Performances électriques
4.4.1. Moteurs et servomoteurs
4.4.2. Convertisseurs de fréquence et régulateurs
4.4.3. Robotique industrielle à commande électrique
4.5. Actionnement hydraulique et pneumatique
4.5.1. Conception hydraulique et symbologie
4.5.2. Conception pneumatique et symbologie
4.5.3. Environnements ATEX dans l’automatisation
4.6. Transducteurs en robotique et automatisation
4.6.1. Mesure de la position et la vitesse
4.6.2. Mesure de la force et la température
4.6.3. Mesure de la présence
4.6.4. Capteurs de vision
4.7. Programmation et configuration des contrôleurs logiques programmables (PLC)
4.7.1. Programmation PLC: LD
4.7.2. Programmation PLC: ST
4.7.3. Programmation PLC: FBD et CFC
4.7.4. Programmation PLC: SFC
4.8. Programmation et configuration des équipements dans les installations industrielles
4.8.1. Programmation des entraînements et des contrôleurs
4.8.2. Programmation de l’IHM
4.8.3. Programmation des robots manipulateurs
4.9. Programmation et configuration d’équipements informatiques industriels
4.9.1. Programmation de systèmes de vision
4.9.2. Programmation de SCADA/software
4.9.3. Configuration du réseau
4.10. Implémentation des automatismes
4.10.1. Conception d’une machine à états
4.10.2. Implémentation de la machine à états PLC
4.10.3. Implémentation de systèmes de contrôle analogiques PID en PLC
4.10.4. Maintenance de l’automatisation et de l’hygiène des codes
4.10.5. Simulation d’automatismes et d’installations
Module 5. Systèmes de contrôle automatique en Robotique
5.1. Analyse et conception de systèmes non linéaires
5.1.1. Analyse et modelage de systèmes non linéaires
5.1.2. Contrôle par rétroaction
5.1.3. Linéarisation par rétroaction
5.2. Conception de techniques de contrôle pour les systèmes non linéaires avancés
5.2.1. Commande par mode glissant (Sliding Mode control)
5.2.2. Contrôle basé sur Lyapunov et Backstepping
5.2.3. Contrôle basé sur la passivité
5.3. Architectures de contrôle
5.3.1. Le paradigme de la robotique
5.3.2. Architectures de contrôle
5.3.3. Applications et exemples d’architectures de contrôle
5.4. Contrôle de mouvement pour les bras robotiques
5.4.1. Modélisation cinématique et dynamique
5.4.2. Contrôle dans l’espace articulaire
5.4.3. Contrôle dans l’espace opérationnel
5.5. Contrôle de la force sur les actionneurs
5.5.1. Contrôle de la force
5.5.2. Contrôle de l’impédance
5.5.3. Contrôle hybride
5.6. Robots mobiles terrestres
5.6.1. Équations de mouvement
5.6.2. Techniques de commande pour les robots terrestres
5.6.3. Manipulateurs mobiles
5.7. Robots mobiles aériens
5.7.1. Équations de mouvement
5.7.2. Techniques de commande pour les robots aériens
5.7.3. Manipulation aérienne
5.8. Contrôle basé sur des techniques d’apprentissage automatique
5.8.1. Contrôle par Apprentissage Supervisé
5.8.2. Contrôle par Apprentissage Renforcé
5.8.3. Contrôle par Apprentissage Non Supervisé
5.9. Contrôle basé sur la vision
5.9.1. Visual Servoing basé sur la position
5.9.2. Visual Servoing basé sur l’image
5.9.3. Visual Servoing hybride
5.10. Contrôle prédictif
5.10.1. Modélisation et estimation de l’état
5.10.2. MPC appliquée aux robots mobiles
5.10.3. MPC appliqué aux UAV
Module 6. Algorithmes de planification de robots
6.1. Algorithmes de planification classique
6.1.1. Planification discrète: espace des états
6.1.2. Problèmes de planification en robotique Modèles de systèmes robotiques
6.1.3. Classification des planificateurs
6.2. Le problème de la planification de la trajectoire des robots mobiles
6.2.1. Modes de représentation de l’environnement: les graphes
6.2.2. Algorithmes de recherche dans les graphes
6.2.3. Saisie des coûts dans les graphes
6.2.4. Algorithmes de recherche dans les graphes lourds
6.2.5. Algorithmes avec une approche sous un angle quelconque
6.3. Planification dans les systèmes robotiques de haute dimension
6.3.1. Problèmes de robotique à haute dimension: Manipulateurs
6.3.2. Modèle cinématique direct/inverse
6.3.3. Algorithmes de planification par échantillonnage PRM et RRT
6.3.4. Planification en fonction de contraintes dynamiques
6.4. Planification optimale de l’échantillonnage
6.4.1. Problèmes des planificateurs basés sur l’échantillonnage
6.4.2. RRT Concept d’optimalité probabiliste
6.4.3. Étape de reconnexion: contraintes dynamiques
6.4.4. CForest. Paralléliser la planification
6.5. Implémentation réelle d’un système de planification des mouvements
6.5.1. Problème de planification globale Environnements dynamiques
6.5.2. Cycle d’action, sensorisation Acquisition d’informations à partir de l’environnement
6.5.3. Planification locale et globale
6.6. Coordination des systèmes multi-robots I: système centralisé
6.6.1. Problème de coordination multi-robots
6.6.2. Détection et résolution des collisions: modification de la trajectoire à l’aide d’algorithmes génétiques
6.6.3. Autres algorithmes bio-inspirés: essaimage de particules et feux d’artifice
6.6.4. Algorithme d’évitement des collisions par choix de manœuvre
6.7. Coordination dans les systèmes multi-robots II: approches distribuées I
6.7.1. Utilisation de fonctions cibles complexes
6.7.2. Front de Pareto
6.7.3. Algorithmes évolutionnaires multi-objectifs
6.8. Coordination dans les systèmes multi-robots III: approches distribuées II
6.8.1. Systèmes de planification de l’ordre 1
6.8.2. Algorithme ORCA
6.8.3. Ajout de contraintes cinématiques et dynamiques dans ORCA
6.9. Théorie de la planification des décisions
6.9.1. Théorie de la décision
6.9.2. Systèmes de décision séquentielle
6.9.3. Capteurs et espaces d’information
6.9.4. Planification de l’incertitude dans la détection et l’actionnement
6.10. Systèmes de planification d’apprentissage par renforcement
6.10.1. Obtention de la récompense attendue d’un système
6.10.2. Techniques d’apprentissage par récompense moyenne
6.10.3. Apprentissage par renforcement Inverse
Module 7. Vision artificielle
7.1. Perception humaine
7.1.1. Système visuel humain
7.1.2. Couleur
7.1.3. Fréquences visibles et non visibles
7.2. Chronique de la Vision Artificielle
7.2.1. Principes
7.2.2. Évolution
7.2.3. L’importance de la vision artificielle
7.3. Composition des images numériques
7.3.1. L’image numérique
7.3.2. Types d’images
7.3.3. Espace de couleur
7.3.4. RGB
7.3.5. HSV et HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Image indexée
7.4. Systèmes de capture d’images
7.4.1. Fonctionnement d’un appareil photo numérique
7.4.2. L’exposition correcte pour chaque situation
7.4.3. Profondeur de champ
7.4.4. Résolution
7.4.5. Formats d’image
7.4.6. Mode HDR
7.4.7. Caméras à haute résolution
7.4.8. Caméras à grande vitesse
7.5. Systèmes optiques
7.5.1. Principes optiques
7.5.2. Lentilles conventionnelles
7.5.3. Lentilles télécentriques
7.5.4. Types d’objectifs autofocus
7.5.5. Longueur focale
7.5.6. Profondeur de champ
7.5.7. Distorsion optique
7.5.8. Étalonnage d’une image
7.6. Systèmes d’éclairage
7.6.1. Importance de l’éclairage
7.6.2. Réponse en fréquence
7.6.3. Éclairage par LED
7.6.4. Éclairage extérieur
7.6.5. Types d’éclairage pour les applications industrielles Effets
7.7. Systèmes de capture 3D
7.7.1. Vision stéréoscopique
7.7.2. Triangulation
7.7.3. Lumière structurée
7.7.4. Time of Flight
7.7.5. Lidar
7.8. Multispectre
7.8.1. Caméras multispectrales
7.8.2. Caméras hyperspectrales
7.9. Spectre proche non visible
7.9.1. Caméras IR
7.9.2. Caméras UV
7.9.3. Conversion de non-visible à visible par illumination
7.10. Autres bandes du spectre
7.10.1. Rayons X
7.10.2. Térahertz
Module 8. Applications et état de l’art
8.1. Applications industrielles
8.1.1. Bibliothèques de vision industrielle
8.1.2. Caméras compactes
8.1.3. Systèmes basés sur PC
8.1.4. Robotique industrielle
8.1.5. Pick and place 2D
8.1.6. Bin picking
8.1.7. Contrôle de la qualité
8.1.8. Présence absence de composants
8.1.9. Contrôle dimensionnel
8.1.10. Contrôle de l’étiquetage
8.1.11. Traçabilité
8.2. Véhicules autonomes
8.2.1. Aide à la conduite
8.2.2. Conduite autonome
8.3. Vision artificielle pour l’analyse de contenu
8.3.1. Filtrer par contenu
8.3.2. Modération du contenu visuel
8.3.3. Systèmes de suivi
8.3.4. Identification des marques et des logos
8.3.5. Étiquetage et classification des vidéos
8.3.6. Détection des changements de scène
8.3.7. Extraction de textes ou de crédits
8.4. Applications médicales
8.4.1. Détection et localisation des maladies
8.4.2. Analyse du cancer et des rayons X
8.4.3. Progrès dans le domaine de la vision artificielle étant donné le Covid-19
8.4.4. Assistance au bloc opératoire
8.5. Applications spatiales
8.5.1. Analyse d’images satellites
8.5.2. Vision artificielle pour l’étude de l’espace
8.5.3. Mission vers Mars
8.6. Applications commerciales
8.6.1. Control stock
8.6.2. Vidéosurveillance, sécurité domestique
8.6.3. Caméras de stationnement
8.6.4. Caméras de contrôle de la population
8.6.5. Caméras de contrôle de la vitesse
8.7. Vision appliquée à la robotique
8.7.1. Drones
8.7.2. AGVS
8.7.3. Vision dans les robots collaboratifs
8.7.4. Les yeux des robots
8.8. Réalité augmentée
8.8.1. Fonctionnement
8.8.2. Dispositifs
8.8.3. Applications dans l’industrie
8.8.4. Applications commerciales
8.9. Cloud computing
8.9.1. Principes Plateformes du Cloud Computing
8.9.2. Du Cloud Computing à la production
8.10. Recherche et état de l’art
8.10.1. La communauté scientifique
8.10.2. Qu’est-ce qui se prépare?
8.10.3. L’avenir de la vision artificielle
Module 9. Techniques de Vision Artificielle en Robotique: Traitement et analyse d’images
9.1. Vision par Ordinateur
9.1.1. Vision par Ordinateur
9.1.2. Éléments d’un système de Vision par Ordinateur
9.1.3. Outils mathématiques
9.2. Capteurs optiques pour la Robotique
9.2.1. Capteurs optiques passifs
9.2.2. Capteurs optiques actifs
9.2.3. Capteurs non optiques
9.3. Acquisition d’images
9.3.1. Représentation de l’image
9.3.2. Espace de couleurs
9.3.3. Processus de numérisation
9.4. Géométrie des images
9.4.1. Modèles d’objectifs
9.4.2. Modèles d’appareils photo
9.4.3. Étalonnage de l’appareil photo
9.5. Outils mathématiques
9.5.1. Histogramme d’une image
9.5.2. Convolution
9.5.3. Transformée de Fourier
9.6. Prétraitement des images
9.6.1. Analyse du bruit
9.6.2. Lissage des images
9.6.3. Amélioration des images
9.7. Segmentation des images
9.7.1. Techniques basées sur les contours
9.7.2. Techniques basées sur l’ histogramme
9.7.3. Opérations morphologiques
9.8. Détection des caractéristiques de l’image
9.8.1. Détection des points d’intérêt
9.8.2. Descripteurs de caractéristiques
9.8.3. Cartographie des caractéristiques
9.9. Systèmes de vision 3D
9.9.1. Perception 3D
9.9.2. Correspondance des caractéristiques entre les images
9.9.3. Géométrie des vues multiples
9.10. Localisation basée sur la Vision Artificielle
9.10.1. Le problème de la localisation des robots
9.10.2. Odométrie visuelle
9.10.3. Fusion sensorielle
Module 10. Systèmes de Perception Visuelle des Robots avec Apprentissage Automatique
10.1. Méthodes d’Apprentissage Non Supervisé appliquées à la Vision Artificielle
10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similarity and matrix decomposition
10.2. Méthodes d’Apprentissage Supervisé appliquées à la Vision Artificielle
10.2.1. Concept “Bag of words”
10.2.2. Machine à support vectoriel
10.2.3. Latent Dirichlet Allocation
10.2.4. Réseaux neuronaux
10.3. Réseaux neuronaux profonds: structures, Backbones et Transfer Learning
10.3.1. Couches génératrices de Features
10.3.1.1. VGG
10.3.1.2. Densenet
10.3.1.3. ResNet
10.3.1.4. Inception
10.3.1.5. GoogLeNet
10.3.2. Transfer Learning
10.3.3. Les données. Préparation à la formation
10.4. Vision Artificielle avec apprentissage profond I: détection et segmentation
10.4.1. Différences et similitudes entre YOLO et SSD
10.4.2. Unet
10.4.3. Autres structures
10.5. Vision Artificielle avec apprentissage profond II: General Adversarial Networks
10.5.1. Super-résolution d’images à l’aide du GAN
10.5.2. Création d’images réalistes
10.5.3. Scene understanding
10.6. Techniques d’apprentissage pour la localisation et la cartographie en Robotique mobile
10.6.1. Détection des fermetures de boucles et relocalisation
10.6.2. Magic Leap. Super Point et Super Glue
10.6.3. Depth from Monocular
10.7. Inférence bayésienne et modélisation 3D
10.7.1. Modèles bayésiens et apprentissage «classique
10.7.2. Surfaces implicites avec processus gaussiens (GPIS)
10.7.3. Segmentation 3D à l’aide de GPIS
10.7.4. Réseaux neuronaux pour la modélisation de surfaces en 3D
10.8. Applications End-to-End des Réseaux Neuronaux Profonds
10.8.1. Systèmes End-to-end. Exemple d’identification des personnes
10.8.2. Manipulation d’objets à l’aide de capteurs visuels
10.8.3. Génération et planification de mouvements à l’aide de capteurs visuels
10.9. Technologies en nuage pour accélérer le développement d’algorithmes de Deep Learning
10.9.1. Utilisation de GPU pour le Deep Learning
10.9.2. Développement agile avec Google IColab
10.9.3. GPU à distance, Google Cloud et AWS
10.10. Déploiement de réseaux neuronaux dans des applications réelles
10.10.1. Systèmes embarqués
10.10.2. Déploiement des Réseaux Neuronaux Utilisation
10.10.3. Optimisation des réseaux lors du déploiement, exemple avec TensorRT
Module 11. SLAM Visuel. Localisation de Robots et Cartographie Simultanée par Techniques de Vision Artificielle
11.1. Localisation et cartographie simultanées (SLAM)
11.1.1. Localisation et cartographie simultanée SLAM
11.1.2. Applications du SLAM
11.1.3. Fonctionnement du SLAM
11.2. Géométrie projective
11.2.1. Modèle Pin-Hole
11.2.2. Estimation des paramètres intrinsèques d’une caméra
11.2.3. Homographie, principes de base et estimation
11.2.4. Matrice fondamentale, principes et estimation
11.3. Filtres Gaussiens
11.3.1. Filtre de Kalman
11.3.2. Filtre d’information
11.3.3. Accord et paramétrage des filtres Gaussiens
11.4. Stéréo EKF-SLAM
11.4.1. Géométrie de la caméra stéréo
11.4.2. Extraction et recherche de caractéristiques
11.4.3. Filtre de Kalman pour SLAM stéréo
11.4.4. Réglage des paramètres de l’EKF-SLAM stéréo
11.5. Monoculaire EKF-SLAM
11.5.1. Paramétrage de Landmarks sur EKF-SLAM
11.5.2. Filtre de Kalman pour SLAM monoculaire
11.5.3. Réglage des paramètres l’EKF-SLAM monoculaire
11.6. Détection des fermetures de boucles
11.6.1. Algorithme de force brute
11.6.2. FABMAP
11.6.3. Abstraction à l’aide de GIST et HOG
11.6.4. Détection par apprentissage profond
11.7. Graph-SLAM
11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM
11.8. Direct Visual SLAM
11.8.1. Analyse de l’algorithme Direct Visual SLAM
11.8.2. LSD-SLAM
11.8.3. SVO
11.9. Visual Inertial SLAM
11.9.1. Intégration des mesures inertielles
11.9.2. Faible couplage: SOFT-SLAM
11.9.3. Couplage élevé: Vins-Mono
11.10. Autres technologies de SLAM
11.10.1. Applications au-delà du SLAM visuel
11.10.2. Lidar-SLAM
11.10.3. Range-only SLAM
Module 12. Application à la Robotique des Technologies de Réalité Virtuelle et Augmentée
12.1. Technologies immersives en Robotique
12.1.1. Réalité Virtuelle en Robotique
12.1.2. Réalité Augmentée en Robotique
12.1.3. Réalité Mixte en Robotique
12.1.4. Différence entre les réalités
12.2. Construction d’environnements virtuels
12.2.1. Matériaux et textures
12.2.2. Éclairage
12.2.3. Son et odeur virtuels
12.3. Modélisation de robots dans des environnements virtuels
12.3.1. Modélisation géométrique
12.3.2. Modélisation physique
12.3.3. Normalisation des modèles
12.4. Modélisation de la Dynamique et de la Cinématique des Robots: Moteurs Physiques Virtuels
12.4.1. Moteurs physiques Typologie
12.4.2. Configuration d’un moteur physique
12.4.3. Moteurs physiques dans l’industrie
12.5. Plateformes, périphériques et outils les plus couramment utilisés en Réalité Virtuelle
12.5.1. Visionneuses de réalité virtuelle
12.5.2. Périphériques d’interaction
12.5.3. Capteurs virtuels
12.6. Systèmes de réalité augmentée
12.6.1. Insertion d’éléments virtuels dans la réalité
12.6.2. Types de marqueurs visuels
12.6.3. Technologies de la réalité augmentée
12.7. Metaverse: Environnements Virtuels d’Agents Intelligents et de Personnes
12.7.1. Création d’avatars
12.7.2. Agents intelligents dans les environnements virtuels
12.7.3. Création d’environnements VR/AR multi-utilisateurs
12.8. Création de projets de réalité virtuelle pour la robotique
12.8.1. Phases de développement d’un projet de réalité virtuelle
12.8.2. Déploiement de systèmes de réalité virtuelle
12.8.3. Ressources en matière de réalité virtuelle
12.9. Création de projets de Réalité Augmentée pour la Robotique
12.9.1. Phases de développement d’un projet de Réalité Augmentée
12.9.2. Déploiement de projet de réalité Augmentée
12.9.3. Ressources en réalité augmentée
12.10. Téléopération de robots avec des dispositifs mobiles
12.10.1. Réalité mixte mobile
12.10.2. Systèmes immersifs utilisant des capteurs de dispositifs mobiles
12.10.3. Exemples de projets mobiles
Module 13. Systèmes de Communication et d’Interaction avec les Robots
13.1. Reconnaissance de la parole: systèmes stochastiques
13.1.1. Modélisation acoustique de la parole
13.1.2. Modèles cachés de Markov
13.1.3. Modélisation linguistique de la parole: N-Grammes, grammaires BNF
13.2. Reconnaissance de la parole: Deep Learning
13.2.1. Réseaux neuronaux profonds
13.2.2. Réseaux neuronaux récurrent
13.2.3. Cellules LSTM
13.3. Reconnaissance de la Parole: Prosodie et effets environnementaux
13.3.1. Bruit ambiant
13.3.2. Reconnaissance de plusieurs locuteurs
13.3.3. Pathologies de la parole
13.4. Compréhension du Langage Naturel: Systèmes Heuristiques et Probabilistes
13.4.1. Analyse syntactico-sémantique: règles linguistiques
13.4.2. Compréhension basée sur des règles heuristiques
13.4.3. Systèmes probabilistes: régression logistique et SVM
13.4.4. Compréhension basée sur les réseaux neuronaux
13.5. Gestion du dialogue: stratégies heuristiques/probabilistes
13.5.1. Intention de l’interlocuteur
13.5.2. Dialogue basé sur un modèle
13.5.3. Gestion du dialogue stochastique: réseaux bayésiens
13.6. Gestion du dialogue: Stratégies avancées
13.6.1. Systèmes d’apprentissage par renforcement
13.6.2. Systèmes basés sur les réseaux neuronaux
13.6.3. De la parole à l’intention dans un seul réseau
13.7. Génération de Réponses et Synthèse Vocale
13.7.1. Génération de réponses: De l’idée au texte cohérent
13.7.2. Synthèse vocale par concaténation
13.7.3. Synthèse stochastique de la parole
13.8. Adaptation et contextualisation du dialogue
13.8.1. Initiative de dialogue
13.8.2. Adaptation à l’interlocuteur
13.8.3. Adaptation au contexte du dialogue
13.9. Robots et interactions sociales: reconnaissance, synthèse et expression des émotions
13.9.1. Paradigmes de la voix artificielle: voix robotique et voix naturelle
13.9.2. Reconnaissance des émotions et analyse des sentiments
13.9.3. Synthèse vocale émotionnelle
13.10. Robots et Interactions Sociales: Interfaces Multimodales Avancées
13.10.1. Combinaison d’interfaces vocales et tactiles
13.10.2. Reconnaissance et traduction de la langue des signes
13.10.3. Avatars visuels: traduction de la parole en langue des signes
Module 14. Traitement numériques des images
14.1. Environnement de développement de la vision par ordinateur
14.1.1. Bibliothèques de vision par ordinateur
14.1.2. Environnement de programmation
14.1.3. Outils de visualisation
14.2. Traitement numériques des images
14.2.1. Relations entre les pixels
14.2.2. Opérations sur les images
14.2.3. Transformations géométriques
14.3. Opérations de pixels
14.3.1. Histogramme
14.3.2. Transformations à partir d’histogrammes
14.3.3. Opérations sur les images en couleur
14.4. Opérations logiques et arithmétiques
14.4.1. Addition et soustraction
14.4.2. Produit et division
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor
14.5. Filtres
14.5.1. Masques et convolution
14.5.2. Filtrage linéaire
14.5.3. Filtrage non linéaire
14.5.4. Analyse de Fourier
14.6. Opérations morphologiques
14.6.1. Erode and Dilating
14.6.2. Closing and Open
14.6.3. Top hat y Black hat
14.6.4. Détection des contours
14.6.5. Squelette
14.6.6. Remplissage des trous
14.6.7. Convex hull
14.7. Outils d’analyse d’images
14.7.1. Détection des contours
14.7.2. Détection de blobs
14.7.3. Contrôle dimensionnel
14.7.4. Inspection de couleur
14.8. Segmentation des objets
14.8.1. Segmentation des images
14.8.2. Techniques de segmentation classiques
14.8.3. Applications réelles
14.9. Étalonnage des images
14.9.1. Étalonnage de l’image
14.9.2. Méthodes d’étalonnage
14.9.3. Processus d’étalonnage dans un système caméra/robot 2D
14.10. Traitement d’images dans un environnement réel
14.10.1. Analyse du problème
14.10.2. Traitement de l’image
14.10.3. Extraction de caractéristiques
14.10.4. Résultats finaux
Module 15. Traitement numérique avancé des images
15.1. Reconnaissance optique de caractères (OCR)
15.1.1. Prétraitement de l’image
15.1.2. Détection de texte
15.1.3. Reconnaissance de texte
15.2. Lecture de codes
15.2.1. Code 1D
15.2.2. Code 2D
15.2.3. Applications
15.3. Recherche de modèles
15.3.1. Recherche de modèles
15.3.2. basés sur le niveau de gris
15.3.3. Modèles basées sur les contours
15.3.4. basés sur des formes géométriques
15.3.5. Autres techniques
15.4. Suivi d’objets avec la vision conventionnelle
15.4.1. Extraction de l’arrière-plan
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Optical flow
15.5. Reconnaissance faciale
15.5.1. Facial Landmark detection
15.5.2. Applications
15.5.3. Reconnaissance faciale
15.5.4. Reconnaissance des émotions
15.6. Panoramiques et alignements
15.6.1. Stitching
15.6.2. Composition d’images
15.6.3. Photomontages
15.7. High Dinamic Range (HDR) and Photometric Stereo
15.7.1. Amélioration de la gamme dynamique
15.7.2. Composition d’images pour l’amélioration des contours
15.7.3. Techniques pour l’utilisation d’applications dynamiques
15.8. Compression d’images
15.8.1. La compression d’images
15.8.2. Types de compresseurs
15.8.3. Techniques de compression d’images
15.9. Traitement vidéo
15.9.1. Séquences d’images
15.9.2. Formats vidéo et codecs
15.9.3. Lecture d’une vidéo
15.9.4. Traitement des images
15.10. Application réelle du traitement d’images
15.10.1. Analyse du problème
15.10.2. Traitement de l’image
15.10.3. Extraction de caractéristiques
15.10.4. Résultats finaux
Module 16. Traitement des images 3D
16.1. Image 3D
16.1.1. Image 3D
16.1.2. Logiciels de traitement d’images et de visualisation en 3D
16.1.3. Logiciels de métrologie
16.2. Open 3D
16.2.1. Bibliothèque pour le traitement des données 3D
16.2.2. Caractéristiques
16.2.3. Installation et utilisation
16.3. Les données
16.3.1. Cartes de profondeur d’images 2D
16.3.2. Pointclouds
16.3.3. Normales
16.3.4. Surfaces
16.4. Visualisation
16.4.1. La visualisation des données
16.4.2. Contrôles
16.4.3. Visualisation Web
16.5. Filtres
16.5.1. Distance entre les points, élimination des outliers
16.5.2. Filtres passe-haut
16.5.3. Downsampling
16.6. Géométrie et extraction de caractéristiques
16.6.1. Extraction d’un profil
16.6.2. Mesure de la profondeur
16.6.3. Volume
16.6.4. Formes géométriques 3D
16.6.5. Plans
16.6.6. Projection d’un point
16.6.7. Distances géométriques
16.6.8. Kd Tree
16.6.9. Features 3D
16.7. Registre et Meshing
16.7.1. Concaténation
16.7.2. ICP
16.7.3. Ransac 3D
16.8. Reconnaissance d’objets 3D
16.8.1. Recherche d’un objet dans la scène 3D
16.8.2. Segmentation
16.8.3. Bin picking
16.9. Analyse des surfaces
16.9.1. Smoothing
16.9.2. Surfaces ajustables
16.9.3. Octree
16.10. Triangulation
16.10.1. De Mesh à Point Cloud
16.10.2. Triangulation des cartes de profondeur
16.10.3. Triangulation de PointClouds non ordonnés
Module 17. Réseaux convolutifs et classification d’images
17.1. Réseaux neuronaux convolutifs
17.1.1. Introduction
17.1.2. La convolution
17.1.3. CNN Building Blocks
17.2. Types de couches CNN
17.2.1. Convolutional
17.2.2. Activation
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected
17.3. Métriques
17.3.1. Confusion Matrix
17.3.2. Accuracy
17.3.3. Précision
17.3.4. Recall
17.3.5. F1 Score
17.3.6. ROC Curve
17.3.7. AUC
17.4. Principales architectures
17.4.1. AlexNet
17.4.2. VGG
17.4.3. ResNet
17.4.4. GoogleLeNet
17.5. Classification d’images
17.5.1. Introduction
17.5.2. Analyse des données
17.5.3. Préparation des données
17.5.4. Entraînement du modèle
17.5.5. Validation du modèle
17.6. Considérations pratiques pour la formation au CNN
17.6.1. Sélection de l’optimiseur
17.6.2. Learning Rate Scheduler
17.6.3. Vérifier pipeline de formation
17.6.4. Formation avec régularisation
17.7. Bonnes pratiques en Deep Learning
17.7.1. Transfer Learning
17.7.2. Fine Tuning
17.7.3. Data Augmentation
17.8. Évaluation statistique des données
17.8.1. Nombre de datasets
17.8.2. Nombre d’étiquettes
17.8.3. Nombre d’images
17.8.4. Équilibrage des données
17.9. Deployment
17.9.1. Sauvegarde et chargement des modèles
17.9.2. Onnx
17.9.3. Inférence
17.10. Étude de cas: classification d’images
17.10.1. Analyse et préparation des données
17.10.2. Test du pipeline de formation
17.10.3. Formation du modèle
17.10.4. Validation du modèle
Module 18. Détection d’objets
18.1. Détection et suivi des objets
18.1.1. Détection d’objets
18.1.2. Cas d’utilisation
18.1.3. Suivi des objets
18.1.4. Cas d’utilisation
18.1.5. Occlusions, Rigid and No Rigid Poses
18.2. Mesures d’évaluation
18.2.1. IOU - Intersection Over Union
18.2.2. Confidence Score
18.2.3. Recall
18.2.4. Précision
18.2.5. Recall–Precisión Curve
18.2.6. Mean Average Precision (mAP)
18.3. Méthodes traditionnelles
18.3.1. Sliding window
18.3.2. Viola detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)
18.4. Datasets
18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge
18.5. Two Shot Object Detector
18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN
18.6. Single Shot Object Detector
18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet
18.7. Backbones
18.7.1. VGG
18.7.2. ResNet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet
18.8. Object Tracking
18.8.1. Approches classiques
18.8.2. Filtres de particules
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort
18.9. Déploiement
18.9.1. Plateforme informatique
18.9.2. choix du Backbone
18.9.3. choix du Framework
18.9.4. Optimisation des modèles
18.9.5. Versionnement des modèles
18.10. Enquête: détection et suivi des personnes
18.10.1. Détection des personnes
18.10.2. Suivi des personnes
18.10.3. Ré-identification
18.10.4. Comptage des personnes dans les foules
Module 19. Segmentation d’images avec Deep Learning
19.1. Détection et segmentation d’objets
19.1.1. Segmentation sémantique
19.1.1.1. Cas d’utilisation de la segmentation sémantique
19.1.2. Segmentation instanciée
19.1.2.1. Cas d’utilisation de la segmentation instanciée
19.2. Mesures d’évaluation
19.2.1. Similitudes avec d’autres méthodes
19.2.2. Pixel Accuracy
19.2.3. Dice Coefficient (F1 Score)
19.3. Fonctions de coût
19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Autres fonctions
19.4. Méthodes traditionnelles de segmentation
19.4.1. Application du seuil avec Otsu y Riddlen
19.4.2. Cartes autoorganisées
19.4.3. GMM-EM algorithm
19.5. Segmentation sémantique appliquant Deep Learning: FCN
19.5.1. FCN
19.5.2. Architecture
19.5.3. Applications de FCN
19.6. Segmentation sémantique appliquant Deep Learning: U-NET
19.6.1. U-NET
19.6.2. Architecture
19.6.3. Application U-NET
19.7. Segmentation sémantique appliquant Deep Learning: Deep Lab
19.7.1. Deep Lab
19.7.2. Architecture
19.7.3. Application de Deep Lab
19.8. Segmentation instanciée appliquant Deep Learning: Mask RCNN
19.8.1. Mask RCNN
19.8.2. Architecture
19.8.3. Application de Mas RCNN
19.9. Segmentation des vidéos
19.9.1. STFCN
19.9.2. Semantic Video CNNs
19.9.3. Clockwork Convnets
19.9.4. Low-Latency
19.10. Segmentation des nuages de points
19.10.1. Le nuage de points
19.10.2. PointNet
19.10.3. A-CNN
Module 20. Segmentation avancée des images et techniques avancées de vision par ordinateur
20.1. Base de données pour les problèmes généraux de segmentation
20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset
20.2. Segmentation sémantique en médecine
20.2.1. Segmentation sémantique en médecine
20.2.2. Datasets pour les problèmes médicaux
20.2.3. Applications pratiques
20.3. Outils d’annotation
20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Autres outils
20.4. Outils de segmentation utilisant différents Frameworks
20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Autres
20.5. Projet de segmentation sémantique. Les données, phase 1
20.5.1. Analyse du problème
20.5.2. Source d’entrée des données
20.5.3. Analyse des données
20.5.4. Préparation des données
20.6. Projet de segmentation sémantique. Formation, phase 2
20.6.1. Sélection de l’algorithme
20.6.2. Formation
20.6.3. Évaluation
20.7. Projet de segmentation sémantique. Résultats, phase 3
20.7.1. Réglage précis
20.7.2. Présentation de la solution
20.7.3. Conclusions
20.8. Auto-encodeurs
20.8.1. Auto-encodeurs
20.8.2. Architecture d’un Auto-encodeurs
20.8.3. Auto-encodeurs à élimination du bruit
20.8.4. Auto-encodeur de coloration automatique
20.9. Les Réseaux Antagonistes Génératifs (GAN)
20.9.1. Réseaux Antagonistes Génératifs (GAN)
20.9.2. Architecture DCGAN
20.9.3. Architecture GAN Conditionnée
20.10. Réseaux antagonistes génératifs améliorés
20.10.1. Vision générale du problème
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN

Perfectionnez vos compétences en matière de conception, de programmation et de contrôle de robots en utilisant des algorithmes de vision et d'apprentissage automatiques"
Mastère Avancé en Robotique et Vision Artificielle
La robotique et la vision artificielle sont deux domaines en constante évolution qui ont révolutionné la façon dont nous interagissons avec la technologie aujourd'hui. Chez TECH Université Technologique, nous avons conçu un Mastère Avancé en Robotique et Vision Artificielle, en collaboration avec la Faculté d'Informatique, pour préparer les professionnels aux dernières tendances et avancées dans ces domaines. Cette formation virtuelle offre un large éventail de contenus, des fondements théoriques à l'application pratique des techniques et algorithmes dans le développement de systèmes robotiques et de vision artificielle.
Avec une approche interdisciplinaire du développement de systèmes robotiques et de vision artificielle, le programme est conçu pour fournir aux étudiants les connaissances et les compétences dont ils ont besoin pour développer leurs propres systèmes robotiques et de vision artificielle.
Le programme Mastère Avancé en Robotique et Vision Artificielle permet aux participants de comprendre les principes et concepts clés de la robotique et de la vision par ordinateur, ainsi que l'application de techniques avancées pour résoudre des problèmes concrets. Les participants auront l'occasion d'explorer des sujets tels que la perception visuelle, la navigation autonome, l'apprentissage automatique et l'interaction homme-robot, entre autres. En outre, notre programme dispose d'un corps professoral hautement qualifié ayant une expérience dans la recherche et l'application de la robotique et de la vision artificielle dans divers secteurs industriels et technologiques.