Présentation

Développez des compétences essentielles en Robotique et Vision Artificielle en vous inscrivant dès maintenant à ce Mastère avancé de TECH"

##IMAGE##

L'essor de l'Intelligence Artificielle et de la Robotique transforme le paysage technologique, économique et social dans le monde entier. La spécialisation dans des domaines tels que la Vision Artificielle est devenue cruciale pour garder une longueur d'avance dans cette ère de progrès rapides et de changements perturbateurs. L'interaction croissante entre les machines et les humains, ainsi que la nécessité de traiter efficacement les informations visuelles, exigent des professionnels hautement qualifiés capables de relever ces défis et de conduire l'innovation.

Le Mastère avancé en Robotique et Vision Artificielle offre une formation complète dans ces disciplines émergentes, couvrant des sujets tels que la réalité augmentée, l'intelligence artificielle et le traitement de l'information visuelle dans les machines, entre autres. Les étudiants bénéficieront d'une approche théorique-pratique, apprenant les derniers développements en Robotique et Vision Artificielle et comment appliquer ces connaissances dans des environnements réels.

En outre, le programme est 100% en ligne, ce qui permet aux étudiants d'adapter leur apprentissage à leur situation personnelle et professionnelle, facilitant ainsi la compatibilité de leur apprentissage avec leurs propres responsabilités. Les étudiants auront accès à du matériel pédagogique de haute qualité, tel que des résumés vidéo, des lectures essentielles et des vidéos approfondies, ce qui leur donnera une vision globale de la Robotique et Vision Artificielle.

Ainsi, le Mastère avancé en Robotique et Vision Artificielle est une opportunité unique pour les informaticiens qui cherchent à se différencier sur un marché du travail très compétitif et à acquérir des compétences spécialisées dans un domaine à fort potentiel de croissance.

Maîtrisez les techniques de vision artificielle et devenez un expert en analyse d'images et en systèmes de vision 3D"

Ce Mastère avancé en Robotique et Vision Artificielle contient le programme académique le plus complet et le plus actuel du marché. Les principales caractéristiques sont les suivantes:  

  • Le développement de cas pratiques présentés par des experts en Informatique
  • Son contenu graphique, schématique et éminemment pratique est destiné à fournir des informations scientifiques et sanitaires sur les disciplines médicales indispensables à la pratique professionnelle
  • Les exercices pratiques d’auto-évaluation pour améliorer l’apprentissage
  • Son accent particulier sur les méthodologies innovantes en Développement de Robots et Vision Artificielle
  • Leçons théoriques, questions à l'expert, forums de discussion sur des sujets controversés et travail de réflexion individuel
  • La possibilité d'accéder aux contenus depuis tout appareil fixe ou portable doté d'une simple connexion à internet

Découvrez comment la technologie robotique peut être appliquée dans des domaines divers tels que la médecine et l'exploration spatiale, renforçant ainsi considérablement votre proposition de valeur"

Son corps enseignant comprend des professionnels du journalisme, qui apportent l'expérience de leur travail à ce programme, ainsi que des spécialistes reconnus issus de grandes entreprises et d'universités prestigieuses.

Son contenu multimédia, développé avec les dernières technologies éducatives, permettra au professionnel un apprentissage situé et contextuel, c'est-à-dire un environnement simulé qui fournira un apprentissage immersif programmé pour s'entraîner dans des situations réelles.

La conception de ce programme est basée sur l'Apprentissage par les Problèmes. Ainsi l’apprenant devra essayer de résoudre les différentes situations de pratique professionnelle qui se présentent à lui tout au long du Mastère avancé. Pour ce faire, il sera assisté d'un système vidéo interactif innovant créé par des experts reconnus.

Boostez vos projets en explorant l'application de l'intelligence artificielle et de l'apprentissage automatique dans le domaine de la robotique"

##IMAGE##

Renforcez vos compétences en matière d'algorithmes de planification et de contrôle pour le développement de robots intelligents et efficaces"

Programme

Le Mastère avancé en Robotique et Vision Artificielle est conçu avec une structure et un contenu qui garantissent une formation complète et spécialisée dans le domaine. Le programme est développé sur plusieurs modules, commençant par les concepts de base et évoluant progressivement vers des sujets plus complexes et plus spécifiques. Les étudiants auront l'occasion de se familiariser avec la conception, la programmation et le contrôle des robots, ainsi qu'avec les algorithmes de vision artificielle et les techniques d'apprentissage automatique.

##IMAGE##

Boostez votre apprentissage grâce à une approche pratique et théorique, qui vous permettra de relever de vrais défis dans le monde de la robotique"

Module 1. Robotique. Conception et modélisation de robots

1.1. Robotique dans l’Industrie 4.0

1.1.1. Robotique dans l’Industrie 4.0
1.1.2. Champs d’application et cas d’utilisation
1.1.3. Sous-domaines de spécialisation en robotique

1.2. Architectures hardware y software de robots

1.2.1. Architectures hardware et temps réel
1.2.2. Architectures hardware de robots
1.2.3. Modèles de communication et technologies Middleware
1.2.4. Intégration deSoftware avec le Robot Operating System (ROS)

1.3. Modélisation mathématique des robots

1.3.1. Représentation mathématique des solides rigides
1.3.2. Rotations et translations
1.3.3. Représentation hiérarchique de l’état
1.3.4. Représentation d’état distribuée en ROS (TF Library)

1.4. Cinématique et dynamique des robots

1.4.1. Cinématique
1.4.2. Dynamique
1.4.3. Robots sous-actionnés
1.4.4. Robots redondants

1.5. Modélisation et simulation de robots

1.5.1. Technologies de modélisation des robots
1.5.2. Modélisation de robots avec URDF
1.5.3. Simulation de robots
1.5.4. Modélisation avec le simulateur Gazebo

1.6. Robots manipulateurs

1.6.1. Types de robots manipulateurs
1.6.2. Cinématique
1.6.3. Dynamique
1.6.4. Simulation

1.7. Robots mobiles terrestres

1.7.1. Types de robots mobiles terrestres
1.7.2. Cinématique
1.7.3. Dynamique
1.7.4. Simulation

1.8. Robots mobiles aériens

1.8.1. Types de robots mobiles aériens
1.8.2. Cinématique
1.8.3. Dynamique
1.8.4. Simulation

1.9. Robots mobiles aquatiques

1.9.1. Types de robots mobiles aquatiques
1.9.2. Cinématique
1.9.3. Dynamique
1.9.4. Simulation

1.10. Robots bio-inspirés

1.10.1. Humanoïdes
1.10.2. Robots à quatre pattes ou plus
1.10.3. Robots modulaires
1.10.4. Robots à parties flexibles (Soft-Robotics)

Module 2. Agents intelligents. Application de l’Intelligence Artificielle aux robots et Softbots

2.1. Agents Intelligents et Intelligence Artificielle

2.1.1. Robots Intelligents Intelligence artificielle
2.1.2. Agents intelligents

2.1.2.1. Agents hardware Robots
2.1.2.2. Agents software Softbots

2.1.3. Applications à la Robotique

2.2. Connexion cerveau-algorithme

2.2.1. Inspiration biologique de l’Intelligence Artificielle
2.2.2. Raisonnement implémenté dans les algorithmes Typologie
2.2.3. Explicabilité des résultats dans les algorithmes d’Intelligence Artificielle
2.2.4. Évolution des algorithmes jusqu’au Deep Learning

2.3. Algorithmes de recherche dans l’espace des solutions

2.3.1. Éléments de la recherche dans l’espace des solutions
2.3.2. Algorithmes de recherche dans l’espace des solutions pour les problèmes d’Intelligence Artificielle
2.3.3. Applications des algorithmes de recherche et d’optimisation
2.3.4. Algorithmes de recherche appliqués à l’apprentissage automatique

2.4. Apprentissage Automatique

2.4.1. Apprentissage automatique
2.4.2. Algorithmes d’Apprentissage Supervisé
2.4.3. Algorithmes d’Apprentissage Non Supervisé
2.4.4. Algorithmes d’Apprentissage par Renforcement

2.5. Apprentissage Supervisé

2.5.1. Méthodes d’Apprentissage Supervisé
2.5.2. Arbres de décision pour la classification
2.5.3. Machines à vecteurs de support
2.5.4. Réseaux neuronaux artificiels
2.5.5. Applications de l’apprentissage supervisé

2.6. Apprentissage non supervisé

2.6.1. Apprentissage non supervisé
2.6.2. Réseaux de Kohonen
2.6.3. Cartes auto-organisatrices
2.6.4. Algorithme K-means

2.7. Apprentissage par renforcement

2.7.1. Apprentissage par renforcement
2.7.2. Agents basés sur des processus de Markov
2.7.3. Algorithmes d’Apprentissage par Renforcement
2.7.4. Apprentissage par renforcement appliqué à la robotique

2.8. Inférence probabiliste

2.8.1. Inférence probabiliste
2.8.2. Types d’inférence et définition de la méthode
2.8.3. L’inférence bayésienne comme étude de cas
2.8.4. Techniques d’inférence non paramétrique
2.8.5. Filtres Gaussiens

2.9. De la théorie à la pratique: développement d’un agent intelligent robotique

2.9.1. Inclusion de modules d’apprentissage supervisé dans un agent robotique
2.9.2. Inclusion de modules d’apprentissage par renforcement dans un agent robotique
2.9.3. Architecture d’un agent robotique contrôlé par l’IA
2.9.4. Outils professionnels pour la mise en œuvre d’agents intelligents
2.9.5. Phases de la mise en œuvre des algorithmes d’IA dans les agents robotiques

Module 3. Deep Learning

3.1. Intelligence artificielle

3.1.1. Machine learning
3.1.2. Deep Learning
3.1.3. L’explosion dul Deep Learning. Pourquoi maintenant?

3.2. Réseaux neuronaux

3.2.1. Réseau neuronal
3.2.2. Usages des réseaux neuronaux
3.2.3. Régression linéaire et perceptron
3.2.4. Forward Propagation
3.2.5. Backpropagation
3.2.6. Feature vectors

3.3. Loss Functions

3.3.1. Loss Functions
3.3.2. Types de Loss Functions
3.3.3. Choiix de Loss Functions

3.4. Fonctions d’activation

3.4.1. Fonctions d’activation
3.4.2. Fonctions linéaires
3.4.3. Fonctions non linéaires
3.4.4. Output vs. Hidden Layer Activation Functions

3.5. Régularisation et normalisation

3.5.1. Régularisation et normalisation
3.5.2. Overfitting and Data Augmentation
3.5.3. Regularization Methods: L1, L2 and Dropout
3.5.4. Normalization Methods: Batch, Weight, Layer

3.6. Optimisation

3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam

3.7. Hyperparameter Tuning et pesage

3.7.1. Les hyperparamètres
3.7.2. Batch Size vs. Learning Rate vs. Step Decay
3.7.3. Pesage

3.8. Mesures d’évaluation des réseaux neuronaux

3.8.1. Accuracy
3.8.2. Dice Coefficient
3.8.3. Sensitivity vs. Specificity/Recall vs. Precision
3.8.4. Courbe ROC (AUC)
3.8.5. F1-score
3.8.6. Confusión Matrix
3.8.7. Cross-Validation

3.9. Frameworks y Hardware

3.9.1. Tensor Flow
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware de la phase de formation

3.10. Créer un réseau neuronaux-formation et de validation

3.10.1. Dataset
3.10.2. Construction du réseau
3.10.3. Formation
3.10.4. Visualisation des résultats

Module 4. La Robotique dans l’automatisation des processus industriels

4.1. Conception de systèmes automatisés

4.1.1. Architectures hardware
4.1.2. Contrôleurs logiques programmables
4.1.3. Réseaux de communication industriels

4.2. Conception électrique avancée I: automatisation

4.2.1. Conception de tableaux électriques et symbologie
4.2.2. Circuits de puissance et de contrôle Harmoniques
4.2.3. Éléments de protection et de mise à la terre

4.3. Conception électrique avancée II: déterminisme et sécurité

4.3.1. Sécurité des machines et redondance
4.3.2. Relais et déclencheurs de sécurité
4.3.3. PLC de sécurité
4.3.4. Réseaux sécurisés

4.4. Performances électriques

4.4.1. Moteurs et servomoteurs
4.4.2. Convertisseurs de fréquence et régulateurs
4.4.3. Robotique industrielle à commande électrique

4.5. Actionnement hydraulique et pneumatique

4.5.1. Conception hydraulique et symbologie
4.5.2. Conception pneumatique et symbologie
4.5.3. Environnements ATEX dans l’automatisation

4.6. Transducteurs en robotique et automatisation

4.6.1. Mesure de la position et la vitesse
4.6.2. Mesure de la force et la température
4.6.3. Mesure de la présence
4.6.4. Capteurs de vision

4.7. Programmation et configuration des contrôleurs logiques programmables (PLC)

4.7.1. Programmation PLC: LD
4.7.2. Programmation PLC: ST
4.7.3. Programmation PLC: FBD et CFC
4.7.4. Programmation PLC: SFC

4.8. Programmation et configuration des équipements dans les installations industrielles

4.8.1. Programmation des entraînements et des contrôleurs
4.8.2. Programmation de l’IHM
4.8.3. Programmation des robots manipulateurs

4.9. Programmation et configuration d’équipements informatiques industriels

4.9.1. Programmation de systèmes de vision
4.9.2. Programmation de SCADA/software
4.9.3. Configuration du réseau

4.10. Implémentation des automatismes

4.10.1. Conception d’une machine à états
4.10.2. Implémentation de la machine à états PLC
4.10.3. Implémentation de systèmes de contrôle analogiques PID en PLC
4.10.4. Maintenance de l’automatisation et de l’hygiène des codes
4.10.5. Simulation d’automatismes et d’installations

Module 5. Systèmes de contrôle automatique en Robotique

5.1. Analyse et conception de systèmes non linéaires

5.1.1. Analyse et modelage de systèmes non linéaires
5.1.2. Contrôle par rétroaction
5.1.3. Linéarisation par rétroaction

5.2. Conception de techniques de contrôle pour les systèmes non linéaires avancés

5.2.1. Commande par mode glissant (Sliding Mode control)
5.2.2. Contrôle basé sur Lyapunov et Backstepping
5.2.3. Contrôle basé sur la passivité

5.3. Architectures de contrôle

5.3.1. Le paradigme de la robotique
5.3.2. Architectures de contrôle
5.3.3. Applications et exemples d’architectures de contrôle

5.4. Contrôle de mouvement pour les bras robotiques

5.4.1. Modélisation cinématique et dynamique
5.4.2. Contrôle dans l’espace articulaire
5.4.3. Contrôle dans l’espace opérationnel

5.5. Contrôle de la force sur les actionneurs

5.5.1. Contrôle de la force
5.5.2. Contrôle de l’impédance
5.5.3. Contrôle hybride

5.6. Robots mobiles terrestres

5.6.1. Équations de mouvement
5.6.2. Techniques de commande pour les robots terrestres
5.6.3. Manipulateurs mobiles

5.7. Robots mobiles aériens

5.7.1. Équations de mouvement
5.7.2. Techniques de commande pour les robots aériens
5.7.3. Manipulation aérienne

5.8. Contrôle basé sur des techniques d’apprentissage automatique

5.8.1. Contrôle par Apprentissage Supervisé
5.8.2. Contrôle par Apprentissage Renforcé
5.8.3. Contrôle par Apprentissage Non Supervisé

5.9. Contrôle basé sur la vision

5.9.1. Visual Servoing basé sur la position
5.9.2. Visual Servoing basé sur l’image
5.9.3. Visual Servoing hybride

5.10. Contrôle prédictif

5.10.1. Modélisation et estimation de l’état
5.10.2. MPC appliquée aux robots mobiles
5.10.3. MPC appliqué aux UAV

Module 6. Algorithmes de planification de robots

6.1. Algorithmes de planification classique

6.1.1. Planification discrète: espace des états
6.1.2. Problèmes de planification en robotique Modèles de systèmes robotiques
6.1.3. Classification des planificateurs

6.2. Le problème de la planification de la trajectoire des robots mobiles

6.2.1. Modes de représentation de l’environnement: les graphes
6.2.2. Algorithmes de recherche dans les graphes
6.2.3. Saisie des coûts dans les graphes
6.2.4. Algorithmes de recherche dans les graphes lourds
6.2.5. Algorithmes avec une approche sous un angle quelconque

6.3. Planification dans les systèmes robotiques de haute dimension

6.3.1. Problèmes de robotique à haute dimension: Manipulateurs
6.3.2. Modèle cinématique direct/inverse
6.3.3. Algorithmes de planification par échantillonnage PRM et RRT
6.3.4. Planification en fonction de contraintes dynamiques

6.4. Planification optimale de l’échantillonnage

6.4.1. Problèmes des planificateurs basés sur l’échantillonnage
6.4.2. RRT Concept d’optimalité probabiliste
6.4.3. Étape de reconnexion: contraintes dynamiques
6.4.4. CForest. Paralléliser la planification

6.5. Implémentation réelle d’un système de planification des mouvements

6.5.1. Problème de planification globale Environnements dynamiques
6.5.2. Cycle d’action, sensorisation Acquisition d’informations à partir de l’environnement
6.5.3. Planification locale et globale

6.6. Coordination des systèmes multi-robots I: système centralisé

6.6.1. Problème de coordination multi-robots
6.6.2. Détection et résolution des collisions: modification de la trajectoire à l’aide d’algorithmes génétiques
6.6.3. Autres algorithmes bio-inspirés: essaimage de particules et feux d’artifice
6.6.4. Algorithme d’évitement des collisions par choix de manœuvre

6.7. Coordination dans les systèmes multi-robots II: approches distribuées I

6.7.1. Utilisation de fonctions cibles complexes
6.7.2. Front de Pareto
6.7.3. Algorithmes évolutionnaires multi-objectifs

6.8. Coordination dans les systèmes multi-robots III: approches distribuées II

6.8.1. Systèmes de planification de l’ordre 1
6.8.2. Algorithme ORCA
6.8.3. Ajout de contraintes cinématiques et dynamiques dans ORCA

6.9. Théorie de la planification des décisions

6.9.1. Théorie de la décision
6.9.2. Systèmes de décision séquentielle
6.9.3. Capteurs et espaces d’information
6.9.4. Planification de l’incertitude dans la détection et l’actionnement

6.10. Systèmes de planification d’apprentissage par renforcement

6.10.1. Obtention de la récompense attendue d’un système
6.10.2. Techniques d’apprentissage par récompense moyenne
6.10.3. Apprentissage par renforcement Inverse

Module 7. Vision artificielle

7.1. Perception humaine

7.1.1. Système visuel humain
7.1.2. Couleur
7.1.3. Fréquences visibles et non visibles

7.2. Chronique de la Vision Artificielle

7.2.1. Principes
7.2.2. Évolution
7.2.3. L’importance de la vision artificielle

7.3. Composition des images numériques

7.3.1. L’image numérique
7.3.2. Types d’images
7.3.3. Espace de couleur
7.3.4. RGB
7.3.5. HSV et HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Image indexée

7.4. Systèmes de capture d’images

7.4.1. Fonctionnement d’un appareil photo numérique
7.4.2. L’exposition correcte pour chaque situation
7.4.3. Profondeur de champ
7.4.4. Résolution
7.4.5. Formats d’image
7.4.6. Mode HDR
7.4.7. Caméras à haute résolution
7.4.8. Caméras à grande vitesse

7.5. Systèmes optiques

7.5.1. Principes optiques
7.5.2. Lentilles conventionnelles
7.5.3. Lentilles télécentriques
7.5.4. Types d’objectifs autofocus
7.5.5. Longueur focale
7.5.6. Profondeur de champ
7.5.7. Distorsion optique
7.5.8. Étalonnage d’une image

7.6. Systèmes d’éclairage

7.6.1. Importance de l’éclairage
7.6.2. Réponse en fréquence
7.6.3. Éclairage par LED
7.6.4. Éclairage extérieur
7.6.5. Types d’éclairage pour les applications industrielles Effets

7.7. Systèmes de capture 3D

7.7.1. Vision stéréoscopique
7.7.2. Triangulation
7.7.3. Lumière structurée
7.7.4. Time of Flight
7.7.5. Lidar

7.8. Multispectre

7.8.1. Caméras multispectrales
7.8.2. Caméras hyperspectrales

7.9. Spectre proche non visible

7.9.1. Caméras IR
7.9.2. Caméras UV
7.9.3. Conversion de non-visible à visible par illumination

7.10. Autres bandes du spectre

7.10.1. Rayons X
7.10.2. Térahertz

Module 8. Applications et état de l’art

8.1. Applications industrielles

8.1.1. Bibliothèques de vision industrielle
8.1.2. Caméras compactes
8.1.3. Systèmes basés sur PC
8.1.4. Robotique industrielle
8.1.5. Pick and place 2D
8.1.6. Bin picking
8.1.7. Contrôle de la qualité
8.1.8. Présence absence de composants
8.1.9. Contrôle dimensionnel
8.1.10. Contrôle de l’étiquetage
8.1.11. Traçabilité

8.2. Véhicules autonomes

8.2.1. Aide à la conduite
8.2.2. Conduite autonome

8.3. Vision artificielle pour l’analyse de contenu

8.3.1. Filtrer par contenu
8.3.2. Modération du contenu visuel
8.3.3. Systèmes de suivi
8.3.4. Identification des marques et des logos
8.3.5. Étiquetage et classification des vidéos
8.3.6. Détection des changements de scène
8.3.7. Extraction de textes ou de crédits

8.4. Applications médicales

8.4.1. Détection et localisation des maladies
8.4.2. Analyse du cancer et des rayons X
8.4.3. Progrès dans le domaine de la vision artificielle étant donné le Covid-19
8.4.4. Assistance au bloc opératoire

8.5. Applications spatiales

8.5.1. Analyse d’images satellites
8.5.2. Vision artificielle pour l’étude de l’espace
8.5.3. Mission vers Mars

8.6. Applications commerciales

8.6.1. Control stock
8.6.2. Vidéosurveillance, sécurité domestique
8.6.3. Caméras de stationnement
8.6.4. Caméras de contrôle de la population
8.6.5. Caméras de contrôle de la vitesse

8.7. Vision appliquée à la robotique

8.7.1. Drones
8.7.2. AGVS
8.7.3. Vision dans les robots collaboratifs
8.7.4. Les yeux des robots

8.8. Réalité augmentée

8.8.1. Fonctionnement
8.8.2. Dispositifs
8.8.3. Applications dans l’industrie
8.8.4. Applications commerciales

8.9. Cloud computing

8.9.1. Principes Plateformes du Cloud Computing
8.9.2. Du Cloud Computing à la production

8.10. Recherche et état de l’art

8.10.1. La communauté scientifique
8.10.2. Qu’est-ce qui se prépare?
8.10.3. L’avenir de la vision artificielle

Module 9. Techniques de Vision Artificielle en Robotique: Traitement et analyse d’images

9.1. Vision par Ordinateur

9.1.1. Vision par Ordinateur
9.1.2. Éléments d’un système de Vision par Ordinateur
9.1.3. Outils mathématiques

9.2. Capteurs optiques pour la Robotique

9.2.1. Capteurs optiques passifs
9.2.2. Capteurs optiques actifs
9.2.3. Capteurs non optiques

9.3. Acquisition d’images

9.3.1. Représentation de l’image
9.3.2. Espace de couleurs
9.3.3. Processus de numérisation

9.4. Géométrie des images

9.4.1. Modèles d’objectifs
9.4.2. Modèles d’appareils photo
9.4.3. Étalonnage de l’appareil photo

9.5. Outils mathématiques

9.5.1. Histogramme d’une image
9.5.2. Convolution
9.5.3. Transformée de Fourier

9.6. Prétraitement des images

9.6.1. Analyse du bruit
9.6.2. Lissage des images
9.6.3. Amélioration des images

9.7. Segmentation des images

9.7.1. Techniques basées sur les contours
9.7.2. Techniques basées sur l’ histogramme
9.7.3. Opérations morphologiques

9.8. Détection des caractéristiques de l’image

9.8.1. Détection des points d’intérêt
9.8.2. Descripteurs de caractéristiques
9.8.3. Cartographie des caractéristiques

9.9. Systèmes de vision 3D

9.9.1. Perception 3D
9.9.2. Correspondance des caractéristiques entre les images
9.9.3. Géométrie des vues multiples

9.10. Localisation basée sur la Vision Artificielle

9.10.1. Le problème de la localisation des robots
9.10.2. Odométrie visuelle
9.10.3. Fusion sensorielle

Module 10. Systèmes de Perception Visuelle des Robots avec Apprentissage Automatique

10.1. Méthodes d’Apprentissage Non Supervisé appliquées à la Vision Artificielle

10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similarity and matrix decomposition

10.2. Méthodes d’Apprentissage Supervisé appliquées à la Vision Artificielle

10.2.1. Concept “Bag of words”
10.2.2. Machine à support vectoriel
10.2.3. Latent Dirichlet Allocation
10.2.4. Réseaux neuronaux

10.3. Réseaux neuronaux profonds: structures, Backbones et Transfer Learning

10.3.1. Couches génératrices de Features

10.3.1.1. VGG
10.3.1.2. Densenet
10.3.1.3. ResNet
10.3.1.4. Inception
10.3.1.5. GoogLeNet

10.3.2. Transfer Learning
10.3.3. Les données. Préparation à la formation

10.4. Vision Artificielle avec apprentissage profond I: détection et segmentation

10.4.1. Différences et similitudes entre YOLO et SSD
10.4.2. Unet
10.4.3. Autres structures

10.5. Vision Artificielle avec apprentissage profond II: General Adversarial Networks

10.5.1. Super-résolution d’images à l’aide du GAN
10.5.2. Création d’images réalistes
10.5.3. Scene understanding

10.6. Techniques d’apprentissage pour la localisation et la cartographie en Robotique mobile

10.6.1. Détection des fermetures de boucles et relocalisation
10.6.2. Magic Leap. Super Point et Super Glue
10.6.3. Depth from Monocular

10.7. Inférence bayésienne et modélisation 3D

10.7.1. Modèles bayésiens et apprentissage «classique
10.7.2. Surfaces implicites avec processus gaussiens (GPIS)
10.7.3. Segmentation 3D à l’aide de GPIS
10.7.4. Réseaux neuronaux pour la modélisation de surfaces en 3D

10.8. Applications End-to-End des Réseaux Neuronaux Profonds

10.8.1. Systèmes End-to-end. Exemple d’identification des personnes
10.8.2. Manipulation d’objets à l’aide de capteurs visuels
10.8.3. Génération et planification de mouvements à l’aide de capteurs visuels

10.9. Technologies en nuage pour accélérer le développement d’algorithmes de Deep Learning

10.9.1. Utilisation de GPU pour le Deep Learning
10.9.2. Développement agile avec Google IColab
10.9.3. GPU à distance, Google Cloud et AWS

10.10. Déploiement de réseaux neuronaux dans des applications réelles

10.10.1. Systèmes embarqués
10.10.2. Déploiement des Réseaux Neuronaux Utilisation
10.10.3. Optimisation des réseaux lors du déploiement, exemple avec TensorRT

Module 11. SLAM Visuel. Localisation de Robots et Cartographie Simultanée par Techniques de Vision Artificielle

11.1. Localisation et cartographie simultanées (SLAM)

11.1.1. Localisation et cartographie simultanée SLAM
11.1.2. Applications du SLAM
11.1.3. Fonctionnement du SLAM

11.2. Géométrie projective

11.2.1. Modèle Pin-Hole
11.2.2. Estimation des paramètres intrinsèques d’une caméra
11.2.3. Homographie, principes de base et estimation
11.2.4. Matrice fondamentale, principes et estimation

11.3. Filtres Gaussiens

11.3.1. Filtre de Kalman
11.3.2. Filtre d’information
11.3.3. Accord et paramétrage des filtres Gaussiens

11.4. Stéréo EKF-SLAM

11.4.1. Géométrie de la caméra stéréo
11.4.2. Extraction et recherche de caractéristiques
11.4.3. Filtre de Kalman pour SLAM stéréo
11.4.4. Réglage des paramètres de l’EKF-SLAM stéréo

11.5. Monoculaire EKF-SLAM

11.5.1. Paramétrage de Landmarks sur EKF-SLAM
11.5.2. Filtre de Kalman pour SLAM monoculaire
11.5.3. Réglage des paramètres l’EKF-SLAM monoculaire

11.6. Détection des fermetures de boucles

11.6.1. Algorithme de force brute
11.6.2. FABMAP
11.6.3. Abstraction à l’aide de GIST et HOG
11.6.4. Détection par apprentissage profond

11.7. Graph-SLAM

11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM

11.8. Direct Visual SLAM

11.8.1. Analyse de l’algorithme Direct Visual SLAM
11.8.2. LSD-SLAM
11.8.3. SVO

11.9. Visual Inertial SLAM

11.9.1. Intégration des mesures inertielles
11.9.2. Faible couplage: SOFT-SLAM
11.9.3. Couplage élevé: Vins-Mono

11.10. Autres technologies de SLAM

11.10.1. Applications au-delà du SLAM visuel
11.10.2. Lidar-SLAM
11.10.3. Range-only SLAM

Module 12. Application à la Robotique des Technologies de Réalité Virtuelle et Augmentée

12.1. Technologies immersives en Robotique

12.1.1. Réalité Virtuelle en Robotique
12.1.2. Réalité Augmentée en Robotique
12.1.3. Réalité Mixte en Robotique
12.1.4. Différence entre les réalités

12.2. Construction d’environnements virtuels

12.2.1. Matériaux et textures
12.2.2. Éclairage
12.2.3. Son et odeur virtuels

12.3. Modélisation de robots dans des environnements virtuels

12.3.1. Modélisation géométrique
12.3.2. Modélisation physique
12.3.3. Normalisation des modèles

12.4. Modélisation de la Dynamique et de la Cinématique des Robots: Moteurs Physiques Virtuels

12.4.1. Moteurs physiques Typologie
12.4.2. Configuration d’un moteur physique
12.4.3. Moteurs physiques dans l’industrie

12.5. Plateformes, périphériques et outils les plus couramment utilisés en Réalité Virtuelle

12.5.1. Visionneuses de réalité virtuelle
12.5.2. Périphériques d’interaction
12.5.3. Capteurs virtuels

12.6. Systèmes de réalité augmentée

12.6.1. Insertion d’éléments virtuels dans la réalité
12.6.2. Types de marqueurs visuels
12.6.3. Technologies de la réalité augmentée

12.7. Metaverse: Environnements Virtuels d’Agents Intelligents et de Personnes

12.7.1. Création d’avatars
12.7.2. Agents intelligents dans les environnements virtuels
12.7.3. Création d’environnements VR/AR multi-utilisateurs

12.8. Création de projets de réalité virtuelle pour la robotique

12.8.1. Phases de développement d’un projet de réalité virtuelle
12.8.2. Déploiement de systèmes de réalité virtuelle
12.8.3. Ressources en matière de réalité virtuelle

12.9. Création de projets de Réalité Augmentée pour la Robotique

12.9.1. Phases de développement d’un projet de Réalité Augmentée
12.9.2. Déploiement de projet de réalité Augmentée
12.9.3. Ressources en réalité augmentée

12.10. Téléopération de robots avec des dispositifs mobiles

12.10.1. Réalité mixte mobile
12.10.2. Systèmes immersifs utilisant des capteurs de dispositifs mobiles
12.10.3. Exemples de projets mobiles

Module 13. Systèmes de Communication et d’Interaction avec les Robots

13.1. Reconnaissance de la parole: systèmes stochastiques

13.1.1. Modélisation acoustique de la parole
13.1.2. Modèles cachés de Markov
13.1.3. Modélisation linguistique de la parole: N-Grammes, grammaires BNF

13.2. Reconnaissance de la parole: Deep Learning

13.2.1. Réseaux neuronaux profonds
13.2.2. Réseaux neuronaux récurrent
13.2.3. Cellules LSTM

13.3. Reconnaissance de la Parole: Prosodie et effets environnementaux

13.3.1. Bruit ambiant
13.3.2. Reconnaissance de plusieurs locuteurs
13.3.3. Pathologies de la parole

13.4. Compréhension du Langage Naturel: Systèmes Heuristiques et Probabilistes

13.4.1. Analyse syntactico-sémantique: règles linguistiques
13.4.2. Compréhension basée sur des règles heuristiques
13.4.3. Systèmes probabilistes: régression logistique et SVM
13.4.4. Compréhension basée sur les réseaux neuronaux

13.5. Gestion du dialogue: stratégies heuristiques/probabilistes

13.5.1. Intention de l’interlocuteur
13.5.2. Dialogue basé sur un modèle
13.5.3. Gestion du dialogue stochastique: réseaux bayésiens

13.6. Gestion du dialogue: Stratégies avancées

13.6.1. Systèmes d’apprentissage par renforcement
13.6.2. Systèmes basés sur les réseaux neuronaux
13.6.3. De la parole à l’intention dans un seul réseau

13.7. Génération de Réponses et Synthèse Vocale

13.7.1. Génération de réponses: De l’idée au texte cohérent
13.7.2. Synthèse vocale par concaténation
13.7.3. Synthèse stochastique de la parole

13.8. Adaptation et contextualisation du dialogue

13.8.1. Initiative de dialogue
13.8.2. Adaptation à l’interlocuteur
13.8.3. Adaptation au contexte du dialogue

13.9. Robots et interactions sociales: reconnaissance, synthèse et expression des émotions

13.9.1. Paradigmes de la voix artificielle: voix robotique et voix naturelle
13.9.2. Reconnaissance des émotions et analyse des sentiments
13.9.3. Synthèse vocale émotionnelle

13.10. Robots et Interactions Sociales: Interfaces Multimodales Avancées

13.10.1. Combinaison d’interfaces vocales et tactiles
13.10.2. Reconnaissance et traduction de la langue des signes
13.10.3. Avatars visuels: traduction de la parole en langue des signes

Module 14. Traitement numériques des images

14.1. Environnement de développement de la vision par ordinateur

14.1.1. Bibliothèques de vision par ordinateur
14.1.2. Environnement de programmation
14.1.3. Outils de visualisation

14.2. Traitement numériques des images 

14.2.1. Relations entre les pixels
14.2.2. Opérations sur les images
14.2.3. Transformations géométriques

14.3. Opérations de pixels

14.3.1. Histogramme
14.3.2. Transformations à partir d’histogrammes
14.3.3. Opérations sur les images en couleur

14.4. Opérations logiques et arithmétiques

14.4.1. Addition et soustraction
14.4.2. Produit et division
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor

14.5. Filtres

14.5.1. Masques et convolution
14.5.2. Filtrage linéaire
14.5.3. Filtrage non linéaire
14.5.4. Analyse de Fourier

14.6. Opérations morphologiques

14.6.1. Erode and Dilating
14.6.2. Closing and Open
14.6.3. Top hat y Black hat
14.6.4. Détection des contours
14.6.5. Squelette
14.6.6. Remplissage des trous
14.6.7. Convex hull

14.7. Outils d’analyse d’images

14.7.1. Détection des contours
14.7.2. Détection de blobs
14.7.3. Contrôle dimensionnel
14.7.4. Inspection de couleur

14.8. Segmentation des objets

14.8.1. Segmentation des images
14.8.2. Techniques de segmentation classiques
14.8.3. Applications réelles

14.9. Étalonnage des images

14.9.1. Étalonnage de l’image
14.9.2. Méthodes d’étalonnage
14.9.3. Processus d’étalonnage dans un système caméra/robot 2D

14.10. Traitement d’images dans un environnement réel

14.10.1. Analyse du problème
14.10.2. Traitement de l’image
14.10.3. Extraction de caractéristiques
14.10.4. Résultats finaux

Module 15. Traitement numérique avancé des images

15.1. Reconnaissance optique de caractères (OCR)

15.1.1. Prétraitement de l’image
15.1.2. Détection de texte
15.1.3. Reconnaissance de texte

15.2. Lecture de codes

15.2.1. Code 1D
15.2.2. Code 2D
15.2.3. Applications

15.3. Recherche de modèles

15.3.1. Recherche de modèles
15.3.2. basés sur le niveau de gris
15.3.3. Modèles basées sur les contours
15.3.4. basés sur des formes géométriques
15.3.5. Autres techniques

15.4. Suivi d’objets avec la vision conventionnelle

15.4.1. Extraction de l’arrière-plan
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Optical flow

15.5. Reconnaissance faciale

15.5.1. Facial Landmark detection
15.5.2. Applications
15.5.3. Reconnaissance faciale
15.5.4. Reconnaissance des émotions

15.6. Panoramiques et alignements

15.6.1. Stitching
15.6.2. Composition d’images
15.6.3. Photomontages

15.7. High Dinamic Range (HDR) and Photometric Stereo

15.7.1. Amélioration de la gamme dynamique
15.7.2. Composition d’images pour l’amélioration des contours
15.7.3. Techniques pour l’utilisation d’applications dynamiques

15.8. Compression d’images

15.8.1. La compression d’images
15.8.2. Types de compresseurs
15.8.3. Techniques de compression d’images

15.9. Traitement vidéo

15.9.1. Séquences d’images
15.9.2. Formats vidéo et codecs
15.9.3. Lecture d’une vidéo
15.9.4. Traitement des images

15.10. Application réelle du traitement d’images

15.10.1. Analyse du problème
15.10.2. Traitement de l’image
15.10.3. Extraction de caractéristiques
15.10.4. Résultats finaux

Module 16. Traitement des images 3D

16.1. Image 3D

16.1.1. Image 3D
16.1.2. Logiciels de traitement d’images et de visualisation en 3D
16.1.3. Logiciels de métrologie

16.2. Open 3D

16.2.1. Bibliothèque pour le traitement des données 3D
16.2.2. Caractéristiques
16.2.3. Installation et utilisation

16.3. Les données

16.3.1. Cartes de profondeur d’images 2D
16.3.2. Pointclouds
16.3.3. Normales
16.3.4. Surfaces

16.4. Visualisation

16.4.1. La visualisation des données
16.4.2. Contrôles
16.4.3. Visualisation Web

16.5. Filtres

16.5.1. Distance entre les points, élimination des outliers
16.5.2. Filtres passe-haut
16.5.3. Downsampling

16.6. Géométrie et extraction de caractéristiques

16.6.1. Extraction d’un profil
16.6.2. Mesure de la profondeur
16.6.3. Volume
16.6.4. Formes géométriques 3D
16.6.5. Plans
16.6.6. Projection d’un point
16.6.7. Distances géométriques
16.6.8. Kd Tree
16.6.9. Features 3D

16.7. Registre et Meshing

16.7.1. Concaténation
16.7.2. ICP
16.7.3. Ransac 3D

16.8. Reconnaissance d’objets 3D

16.8.1. Recherche d’un objet dans la scène 3D
16.8.2. Segmentation
16.8.3. Bin picking

16.9. Analyse des surfaces

16.9.1. Smoothing
16.9.2. Surfaces ajustables
16.9.3. Octree

16.10. Triangulation

16.10.1. De Mesh à Point Cloud
16.10.2. Triangulation des cartes de profondeur
16.10.3. Triangulation de PointClouds non ordonnés

Module 17. Réseaux convolutifs et classification d’images

17.1. Réseaux neuronaux convolutifs

17.1.1. Introduction
17.1.2. La convolution
17.1.3. CNN Building Blocks

17.2. Types de couches CNN

17.2.1. Convolutional
17.2.2. Activation
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected

17.3. Métriques

17.3.1. Confusion Matrix
17.3.2. Accuracy
17.3.3. Précision
17.3.4. Recall
17.3.5. F1 Score
17.3.6. ROC Curve
17.3.7. AUC

17.4. Principales architectures

17.4.1. AlexNet
17.4.2. VGG
17.4.3. ResNet
17.4.4. GoogleLeNet

17.5. Classification d’images

17.5.1. Introduction
17.5.2. Analyse des données
17.5.3. Préparation des données
17.5.4. Entraînement du modèle
17.5.5. Validation du modèle

17.6. Considérations pratiques pour la formation au CNN

17.6.1. Sélection de l’optimiseur
17.6.2. Learning Rate Scheduler
17.6.3. Vérifier pipeline de formation 
17.6.4. Formation avec régularisation

17.7. Bonnes pratiques en Deep Learning

17.7.1. Transfer Learning
17.7.2. Fine Tuning
17.7.3. Data Augmentation

17.8. Évaluation statistique des données

17.8.1. Nombre de datasets
17.8.2. Nombre d’étiquettes
17.8.3. Nombre d’images
17.8.4. Équilibrage des données

17.9. Deployment

17.9.1. Sauvegarde et chargement des modèles
17.9.2. Onnx
17.9.3. Inférence

17.10. Étude de cas: classification d’images

17.10.1. Analyse et préparation des données
17.10.2. Test du pipeline de formation
17.10.3. Formation du modèle
17.10.4. Validation du modèle

Module 18. Détection d’objets

18.1. Détection et suivi des objets

18.1.1. Détection d’objets
18.1.2. Cas d’utilisation
18.1.3. Suivi des objets
18.1.4. Cas d’utilisation
18.1.5. Occlusions, Rigid and No Rigid Poses

18.2. Mesures d’évaluation

18.2.1. IOU - Intersection Over Union
18.2.2. Confidence Score
18.2.3. Recall
18.2.4. Précision
18.2.5. Recall–Precisión Curve
18.2.6. Mean Average Precision (mAP)

18.3. Méthodes traditionnelles

18.3.1. Sliding window
18.3.2. Viola detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)

18.4. Datasets

18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge

18.5. Two Shot Object Detector

18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN

18.6. Single Shot Object Detector

18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet

18.7. Backbones

18.7.1. VGG
18.7.2. ResNet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet

18.8. Object Tracking

18.8.1. Approches classiques
18.8.2. Filtres de particules
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort

18.9. Déploiement

18.9.1. Plateforme informatique
18.9.2. choix du Backbone
18.9.3. choix du Framework
18.9.4. Optimisation des modèles
18.9.5. Versionnement des modèles

18.10. Enquête: détection et suivi des personnes

18.10.1. Détection des personnes
18.10.2. Suivi des personnes
18.10.3. Ré-identification
18.10.4. Comptage des personnes dans les foules

Module 19. Segmentation d’images avec Deep Learning

19.1. Détection et segmentation d’objets

19.1.1. Segmentation sémantique

19.1.1.1. Cas d’utilisation de la segmentation sémantique

19.1.2. Segmentation instanciée

19.1.2.1. Cas d’utilisation de la segmentation instanciée

19.2. Mesures d’évaluation

19.2.1. Similitudes avec d’autres méthodes
19.2.2. Pixel Accuracy
19.2.3. Dice Coefficient (F1 Score)

19.3. Fonctions de coût

19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Autres fonctions

19.4. Méthodes traditionnelles de segmentation

19.4.1. Application du seuil avec Otsu y Riddlen
19.4.2. Cartes autoorganisées
19.4.3. GMM-EM algorithm

19.5. Segmentation sémantique appliquant Deep Learning: FCN

19.5.1. FCN
19.5.2. Architecture
19.5.3. Applications de FCN

19.6. Segmentation sémantique appliquant Deep Learning: U-NET

19.6.1. U-NET
19.6.2. Architecture
19.6.3. Application U-NET

19.7. Segmentation sémantique appliquant Deep Learning: Deep Lab

19.7.1. Deep Lab
19.7.2. Architecture
19.7.3. Application de Deep Lab

19.8. Segmentation instanciée appliquant Deep Learning: Mask RCNN

19.8.1. Mask RCNN
19.8.2. Architecture
19.8.3. Application de Mas RCNN

19.9. Segmentation des vidéos

19.9.1. STFCN
19.9.2. Semantic Video CNNs
19.9.3. Clockwork Convnets
19.9.4. Low-Latency

19.10. Segmentation des nuages de points

19.10.1. Le nuage de points
19.10.2. PointNet
19.10.3. A-CNN

Module 20. Segmentation avancée des images et techniques avancées de vision par ordinateur

20.1. Base de données pour les problèmes généraux de segmentation

20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset

20.2. Segmentation sémantique en médecine

20.2.1. Segmentation sémantique en médecine
20.2.2. Datasets pour les problèmes médicaux
20.2.3. Applications pratiques

20.3. Outils d’annotation

20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Autres outils

20.4. Outils de segmentation utilisant différents Frameworks

20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Autres

20.5. Projet de segmentation sémantique. Les données, phase 1

20.5.1. Analyse du problème
20.5.2. Source d’entrée des données
20.5.3. Analyse des données
20.5.4. Préparation des données

20.6. Projet de segmentation sémantique. Formation, phase 2

20.6.1. Sélection de l’algorithme
20.6.2. Formation
20.6.3. Évaluation

20.7. Projet de segmentation sémantique. Résultats, phase 3

20.7.1. Réglage précis
20.7.2. Présentation de la solution
20.7.3. Conclusions

20.8. Auto-encodeurs

20.8.1. Auto-encodeurs
20.8.2. Architecture d’un Auto-encodeurs
20.8.3. Auto-encodeurs à élimination du bruit
20.8.4. Auto-encodeur de coloration automatique

20.9. Les Réseaux Antagonistes Génératifs (GAN)

20.9.1. Réseaux Antagonistes Génératifs (GAN)
20.9.2. Architecture DCGAN
20.9.3. Architecture GAN Conditionnée

20.10. Réseaux antagonistes génératifs améliorés

20.10.1. Vision générale du problème
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN

##IMAGE##

Perfectionnez vos compétences en matière de conception, de programmation et de contrôle de robots en utilisant des algorithmes de vision et d'apprentissage automatiques"

Mastère Avancé en Robotique et Vision Artificielle

La robotique et la vision artificielle sont deux domaines en constante évolution qui ont révolutionné la façon dont nous interagissons avec la technologie aujourd'hui. Chez TECH Université Technologique, nous avons conçu un Mastère Avancé en Robotique et Vision Artificielle, en collaboration avec la Faculté d'Informatique, pour préparer les professionnels aux dernières tendances et avancées dans ces domaines. Cette formation virtuelle offre un large éventail de contenus, des fondements théoriques à l'application pratique des techniques et algorithmes dans le développement de systèmes robotiques et de vision artificielle.

Avec une approche interdisciplinaire du développement de systèmes robotiques et de vision artificielle, le programme est conçu pour fournir aux étudiants les connaissances et les compétences dont ils ont besoin pour développer leurs propres systèmes robotiques et de vision artificielle.

Le programme Mastère Avancé en Robotique et Vision Artificielle permet aux participants de comprendre les principes et concepts clés de la robotique et de la vision par ordinateur, ainsi que l'application de techniques avancées pour résoudre des problèmes concrets. Les participants auront l'occasion d'explorer des sujets tels que la perception visuelle, la navigation autonome, l'apprentissage automatique et l'interaction homme-robot, entre autres. En outre, notre programme dispose d'un corps professoral hautement qualifié ayant une expérience dans la recherche et l'application de la robotique et de la vision artificielle dans divers secteurs industriels et technologiques.