Présentation

Positionnez-vous dans un secteur en plein essor, avec le meilleur programme sur la scène universitaire que seule TECH peut offrir" 

##IMAGE##

La Réalité Virtuelle nous transporte dans des mondes immersifs, permettant des expériences allant de la simulation d'opérations chirurgicales complexes à la conception architecturale en temps réel. L'impact de cette discipline transcende la sphère technologique, car elle façonne notre façon de vivre, de travailler et d'apprendre. Son évolution constante exige non seulement des professionnels formés à la mise en œuvre de ces outils, mais aussi des visionnaires capables d'étendre leurs applications à de nouveaux horizons. 

La Vision Artificielle donne aux machines la capacité d'interpréter et d'analyser les images et les vidéos, ce qui permet le développement de technologies avancées. Il s'agit notamment des véhicules autonomes, qui révolutionnent les transports, et des plateformes de diagnostic médical, qui améliorent la précision et l'efficacité des soins de santé. En outre, les récentes avancées dans le domaine, telles que les modèles multitâches et les technologies génératives, ouvrent de nouvelles possibilités dans la création de solutions innovantes. L'intégration avec le edge computing a également facilité le traitement des données en temps réel, ce qui élargit encore les applications de la Vision Artificielle. Pour toutes ces raisons, être un professionnel formé dans ces disciplines ouvre non seulement des portes dans un secteur technologique en croissance constante, mais permet également de participer à des projets qui ont un impact réel sur la vie quotidienne. Il contribue également au développement de technologies qui continuent à transformer la façon dont nous interagissons avec le monde et à améliorer notre qualité de vie. 

Le programme d'études de TECH, avec sa méthodologie 100% en ligne et son approche d'apprentissage Relearning, permet à l'étudiant de se concentrer pleinement sur les matières clés pour se spécialiser dans ces domaines technologiques. En outre, le diplômé bénéficiera du soutien du personnel enseignant le plus spécialisé et des recherches les plus récentes dans le domaine universitaire. Tout cela sans horaires et depuis n'importe quel endroit du monde, ce qui permet aux étudiants d'adapter leurs études à leur propre rythme, sans interférer avec leurs engagements personnels ou professionnels. 

La combinaison de la créativité et de la technologie vous attend pour commencer à développer de grandes solutions ayant un impact mondial" 

Ce Mastère avancé en Réalité Virtuelle et Vision Artificielle contient le programme le plus complet et le plus actualisé du marché. Ses caractéristiques sont les suivantes:

  • Le développement d'études de cas présentées par des experts en informatique 
  • Le contenu graphique, schématique et éminemment pratique du programme fournit des informations scientifiques et pratiques sur les disciplines essentielles à la pratique professionnelle 
  • Les exercices pratiques où effectuer le processus d’auto-évaluation pour améliorer l’apprentissage 
  • Il met l'accent sur les méthodologies innovantes en Réalité Virtuelle et Vision Artificielle 
  • Cours théoriques, questions à l'expert, forums de discussion sur des sujets controversés et travail de réflexion individuel 
  • La possibilité d'accéder aux contenus depuis n'importe quel appareil fixe ou portable doté d'une connexion internet 

Devenez les meilleurs dans le domaine de la Réalité Virtuelle et de la Vision Automatique, à votre propre rythme, sans horaires et depuis n'importe où dans le monde"

Son corps enseignant comprend des professionnels de l’informatique, qui apportent l'expérience de leur travail à ce programme, ainsi que des spécialistes reconnus issus de grandes entreprises et d'universités prestigieuses. 

Son contenu multimédia, développé avec les dernières technologies éducatives, permettra au professionnel un apprentissage situé et contextuel, c'est-à-dire un environnement simulé qui fournira un étude immersif programmé pour s'entraîner dans des situations réelles. 

La conception de ce programme est axée sur l'Apprentissage par les Problèmes, grâce auquel l’étudiant doit essayer de résoudre les différentes situations de la pratique professionnelle qui se présentent tout au long du programme académique. Pour ce faire, le professionnel aura l'aide d'un système vidéo interactif innovant créé par des experts reconnus. 

Maîtrisez ces technologies grâce aux outils didactiques que TECH vous offre et commencez à changer des vies"

##IMAGE##

Développez des applications et relevez les défis les plus passionnants dans la plus grande université numérique du monde"

Programme d'études

Le programme d'études du Mastère avancé en Réalité Virtuelle et Vision Artificielle est conçu comme une opportunité académique complète et avancée dans ces deux disciplines clés. Le programme commence par des bases solides dans les domaines de la programmation, des mathématiques appliquées et du traitement de l'image. Tout au long du programme, les étudiants se plongeront dans le développement d'environnements virtuels à l'aide d'outils de pointe. En outre, ils exploreront des techniques avancées de simulation et d'interaction dans des environnements immersifs. 

##IMAGE##

Rejoignez TECH et vous commencerez à transformer le divertissement avec des expériences immersives dans le domaine de la Vision Artificielle” 

Module 1. Vision artificielle 

1.1. La perception humaine 

1.1.1. Système visuel humain 
1.1.2. La couleur 
1.1.3. Fréquences visibles et non visibles 

1.2. Chronique de la Vision Artificielle 

1.2.1. Principes 
1.2.2. Évolution 
1.2.3. L'importance de la vision industrielle 

1.3. Composition d'images numériques 

1.3.1. L’Image Numérique 
1.3.2. Types d'images 
1.3.3. Espaces de couleurs 
1.3.4. RGB 
1.3.5. HSV et HSL 
1.3.6. CMY-CMYK 
1.3.7. YCbCr 
1.3.8. Image indexée 

1.4. Systèmes d'acquisition d'images 

1.4.1. Fonctionnement d'un appareil photo numérique 
1.4.2. L'exposition correcte pour chaque situation 
1.4.3. Profondeur de champ 
1.4.4. Résolution 
1.4.5. Formats d'image 
1.4.6. Mode HDR 
1.4.7. Caméras à haute résolution 
1.4.8. Caméras à haute vitesse 

1.5. Systèmes Optiques 

1.5.1. Principes optiques 
1.5.2. Lentilles conventionnelles 
1.5.3. Lentilles télécentriques 
1.5.4. Types d'objectifs autofocus 
1.5.5. Longueur focale 
1.5.6. Profondeur de champ 
1.5.7. Distorsion optique 
1.5.8. Calibrage d'une image 

1.6. Systèmes d'éclairage 

1.6.1. Importance de l'éclairage 
1.6.2. Réponse en fréquence 
1.6.3. Éclairage Led 
1.6.4. Éclairage extérieur 
1.6.5. Types d'éclairage pour les applications industrielles. Effets 

1.7. Systèmes de Captation 3D 

1.7.1. Vision Stéréo 
1.7.2. Triangulation 
1.7.3. Lumière structurée 
1.7.4. Time of Flight 
1.7.5. Lidar 

1.8. Multispectre 

1.8.1. Caméras Multispectrales 
1.8.2. Caméras Hyperspectrales 

1.9. Spectre proche Non Visible 

1.9.1. Caméras IR 
1.9.2. Caméras UV 
1.9.3. Conversion du Non-visible au Visible par illumination 

1.10. Autres bandes de fréquences 

1.10.1. Rayons X 
1.10.2. Terahertz 

Module 2. Applications et état de l'art 

2.1. Applications industrielles 

2.1.1. Bibliothèques de vision industrielle 
2.1.2. Appareils photo compacts 
2.1.3. Systèmes basés sur PC 
2.1.4. Robotique industrielle 
2.1.5. Pick and place 2D 
2.1.6. Bin picking 
2.1.7. Contrôle de la qualité 
2.1.8. Présence absence de composants 
2.1.9. Contrôle dimensionnel 
2.1.10. Contrôle de l'étiquetage 
2.1.11. Traçabilité 

2.2. Le véhicule autonome 

2.2.1. Assistance au conducteur 
2.2.2. Conduite autonome 

2.3. La Vision Artificielle pour l'Analyse de Contenu 

2.3.1. Filtrage du contenu 
2.3.2. Modération du contenu visuel 
2.3.3. Systèmes de suivi 
2.3.4. Identification des marques et des logos 
2.3.5. Étiquetage et classification des vidéos 
2.3.6. Détection des changements de scène 
2.3.7. Extraction de textes ou de crédits 

2.4. Applications médicales 

2.4.1. Détection et localisation des maladies 
2.4.2. Cancer et Analyse aux rayons X 
2.4.3. Progrès de la vision industrielle dus au Covid19 
2.4.4. Assistance en salle d'opération 

2.5. Applications spatiales 

2.5.1. Analyse d'images satellites 
2.5.2. La vision artificielle pour la surveillance de l'espace 
2.5.3. Mission vers Mars 

2.6. Applications commerciales 

2.6.1. Contrôle des stocks 
2.6.2. Vidéo surveillance, sécurité domestique 
2.6.3. Caméras de parking 
2.6.4. Des caméras pour contrôler la population 
2.6.5. Radars de vitesse 

2.7. Vision Appliquée à la Robotique 

2.7.1. Drones 
2.7.2. AGV 
2.7.3. La vision dans les robots collaboratifs 
2.7.4. Les yeux des robots 

2.8. Réalité Augmentée 

2.8.1. Fonctionnement 
2.8.2. Dispositifs 
2.8.3. Applications dans l'industrie 
2.8.4. Applications commerciales 

2.9. Cloud Computing 

2.9.1. Plateformes de Cloud Computing 
2.9.2. Du Cloud Computing à la production 

2.10. Recherche et État de l'Art 

2.10.1. La communauté scientifique 
2.10.2. Ce qui se prépare 
2.10.3. L'avenir de la vision industrielle 

Module 3. Traitement numérique des images 

3.1. Environnement de développement de la Vision par Ordinateur 

3.1.1. Bibliothèques de Vision par Ordinateur 
3.1.2. Environnement de programmation 
3.1.3. Outils de visualisation 

3.2. Traitement numérique des images 

3.2.1. Relations entre les pixels 
3.2.2. Opérations sur les images 
3.2.3. Transformations géométriques 

3.3. Opérations sur les pixels 

3.3.1. Histogramme 
3.3.2. Transformations de l'histogramme 
3.3.3. Opérations sur les images en couleur 

3.4. Opérations logiques et arithmétiques 

3.4.1. Addition et soustraction 
3.4.2. Produit et Division 
3.4.3. And/Nand 
3.4.4. Or/Nor 
3.4.5. Xor/Xnor 

3.5. Filtres 

3.5.1. Masques et Convolution 
3.5.2. Filtrage linéaire 
3.5.3. Filtrage non linéaire 
3.5.4. Analyse de Fourier 

3.6. Opérations morphologiques 

3.6.1. Erode and Dilating 
3.6.2. Closing and Open 
3.6.3. Top_hat et Black hat 
3.6.4. Détection des contours 
3.6.5. Squelette 
3.6.6. Remplissage des trous 
3.6.7. Convex hull 

3.7. Outils d'analyse d'images 

3.7.1. Détection des bords 
3.7.2. Détection de blobs 
3.7.3. Contrôle dimensionnel 
3.7.4. Contrôle des couleurs 

3.8. Segmentation d'objets 

3.8.1. Segmentation d'images 
3.8.2. Techniques classiques de segmentation 
3.8.3. Application réelle 

3.9. Calibrage de l'image 

3.9.1. Calibrage de l'image 
3.9.2. Méthodes d'étalonnage 
3.9.3. Processus d'étalonnage dans un système caméra/robot 2D 

3.10. Traitement des images dans un environnement réel 

3.10.1. Analyse de la problématique 
3.10.2. Traitement des images 
3.10.3. Extraction de caractéristiques 
3.10.4. Résultat final 

Module 4. Traitement numérique des images avancé 

4.1. Reconnaissance optique de caractères (OCR) 

4.1.1. Prétraitement des images 
4.1.2. Détection de texte 
4.1.3. Reconnaissance du texte 

4.2. Lecture du code 

4.2.1. Codes 1D 
4.2.2. Codes 2D 
4.2.3. Applications 

4.3. Recherche de motifs 

4.3.1. Recherche de motifs 
4.3.2. Modèles basés sur le niveau de gris 
4.3.3. Modèles basés sur les contours 
4.3.4. Motifs basés sur des formes géométriques 
4.3.5. Autres techniques 

4.4. Suivi d'objets avec la vision conventionnelle 

4.4.1. Extraction de l'arrière-plan 
4.4.2. Meanshift 
4.4.3. Camshift 
4.4.4. Optical flow 

4.5. Reconnaissance faciale 

4.5.1. Facial Landmark Detection 
4.5.2. Applications 
4.5.3. Reconnaissance faciale 
4.5.4. Reconnaissance des émotions 

4.6. Panoramique et alignements 

4.6.1. Stitching 
4.6.2. Composition d'images 
4.6.3. Photomontage 

4.7. High Dinamic Range (HDR) and Photometric Stereo 

4.7.1. Amélioration de la plage dynamique 
4.7.2. Composition d'images pour l'amélioration des contours 
4.7.3. Techniques d'utilisation des applications dynamiques 

4.8. Compression d'images 

4.8.1. Compression d'images 
4.8.2. Types de compresseurs 
4.8.3. Techniques de compression d'images 

4.9. Traitement vidéo 

4.9.1. Séquences d'images 
4.9.2. Formats vidéo et codecs 
4.9.3. Lecture d'une vidéo 
4.9.4. Traitement des cadres 

4.10. Application réelle du Traitement des Images 

4.10.1. Analyse de la problématique 
4.10.2. Traitement des images 
4.10.3. Extraction de caractéristiques 
4.10.4. Résultat final

Module 5. Traitement des images 3D 

5.1. Image 3D 

5.1.1. Image 3D 
5.1.2. Logiciels de traitement d'images 3d et Visualisations 
5.1.3. Logiciels de Métrologie 

5.2. Open3D

5.2.1. Bibliothèque pour le Traitement des Données 3D 
5.2.2. Caractéristiques 
5.2.3. Installation et Utilisation 

5.3. Les données 

5.3.1. Cartes de profondeur d'images 2D 
5.3.2. Pointclouds 
5.3.3. Normales 
5.3.4. Surfaces 

5.4. Visualisation 

5.4.1. Visualisation des Données 
5.4.2. Contrôles 
5.4.3. Visualisation du Web 

5.5. Filtres 

5.5.1. Distance entre les points, suppression des outliers 
5.5.2. Filtre passe-haut 
5.5.3. Downsampling 

5.6. Géométrie et extraction de caractéristiques 

5.6.1. Extraction de profils 
5.6.2. Mesure de la profondeur 
5.6.3. Volume 
5.6.4. Formes géométriques 3D 
5.6.5. Plans 
5.6.6. Projection d'un point 
5.6.7. Distances géométriques 
5.6.8. Kd Tree 
5.6.9. Features 3D 

5.7. Enregistrement et Meshing 

5.7.1. Concaténation 
5.7.2. ICP 
5.7.3. Ransac 3D 

5.8.  Reconnaissance d'objets en 3D 

5.8.1. Recherche d'un objet dans la scène 3d
5.8.2. Segmentation 
5.8.3. Bin picking 

5.9. Analyse de surface 

5.9.1. Smoothing 
5.9.2. Surfaces orientables 
5.9.3. Octree 

5.10.  Triangulation 

5.10.1. De Mesh au Point Cloud 
5.10.2. Triangulation des cartes de profondeur 
5.10.3. Triangulation de PointClouds non ordonnés 

Module 6. Deep Learning 

6.1. Intelligence artificielle 

6.1.1. Machine Learning 
6.1.2. Deep Learning 
6.1.3. L'explosion de Deep Learning. Pourquoi maintenant? 

6.2. Réseaux neuronaux 

6.2.1. Réseau neuronal 
6.2.2. Utilisations des réseaux neuronaux 
6.2.3. Régression linéaire et Perceptron 
6.2.4. Forward Propagation 
6.2.5. Backpropagation 
6.2.6. Feature vectors 

6.3. Loss Functions 

6.3.1. Loss function 
6.3.2. Types de Loss Functions 
6.3.3. Choix des Loss Function 

6.4. Fonctions d'activation 

6.4.1. Fonction d'activation 
6.4.2. Fonctions linéaires 
6.4.3. Fonctions non linéaires 
6.4.4. Output vs Hidden layer activation functions 

6.5. Régularisation et Normalisation 

6.5.1. Régularisation et Normalisation 
6.5.2. Overfitting and Data Augmentation 
6.5.3. Regularization Methods: L1, L2 and dropout 
6.5.4. Normalization Methods: Batch, Weight, Layer 

6.6. Optimisation 

6.6.1. Gradient Descent 
6.6.2. Stochastic Gradient Descent 
6.6.3. Mini Batch Gradient Descent 
6.6.4. Momentum 
6.6.5. Adam 

6.7. Hyperparameter Tuning et Poids 

6.7.1. Hyperparamètres 
6.7.2. Batch Size vs. Learning Rate vs Step Decay 
6.7.3. Poids 

6.8. Mesures d'évaluation des réseaux neuronaux 

6.8.1. Précision 
6.8.2. Dice Coefficient 
6.8.3. Sensitivity vs. Specificity / Recall vs. precision 
6.8.4. Courbe ROC (AUC) 
6.8.5. F1-score 
6.8.6. Confusion matrix 
6.8.7. Cross-validation 

6.9. Frameworks et Hardware 

6.9.1. Tensor Flow 
6.9.2. Pytorch 
6.9.3. Caffe 
6.9.4. Keras 
6.9.5. Hardware pour la Phase de Formation 

6.10. Création d’un Réseau Neuronal - Formation et Validation 

6.10.1. Dataset 
6.10.2. Construction du réseau 
6.10.3. Entrainement 
6.10.4. Visualisation des résultats 

Module 7. Réseaux Convolutifs et Classification des Images 

7.1. Réseaux neuronaux convolutifs 

7.1.1. Introduction 
7.1.2. Convolution
7.1.3. CNN Building Blocks 

7.2. Types de bouchons CNN 

7.2.1. Convolutionnel 
7.2.2. Activation 
7.2.3. Normalisation par lots 
7.2.4. Polling 
7.2.5. Fully connected 

7.3. Métriques 

7.3.1. Confusion des Matrices 
7.3.2. Précision 
7.3.3. Précision 
7.3.4. Recall 
7.3.5. F1 Score 
7.3.6. ROC Curve 
7.3.7. AUC 

7.4. Principales architectures 

7.4.1. AlexNet 
7.4.2. VGG 
7.4.3. Resnet 
7.4.4. GoogleLeNet 

7.5. Classification des images 

7.5.1. Introduction 
7.5.2. Analyse des données 
7.5.3. Préparations des données 
7.5.4. Formation au modèle 
7.5.5. Validation du modèle 

7.6. Considérations pratiques pour la formation CNN 

7.6.1. Sélection de l'optimiseur 
7.6.2. Learning Rate Scheduler 
7.6.3. Planificateur du taux d'apprentissage 
7.6.4. Formation avec régularisation 

7.7. Meilleures pratiques en Deep Learning 

7.7.1. Transfer learning 
7.7.2. Fine Tuning 
7.7.3. Data Augmentation 

7.8. Évaluation statistique des données 

7.8.1. Nombre d'ensembles de données 
7.8.2. Nombre d'étiquettes 
7.8.3. Nombre d'images 
7.8.4. Équilibrage des données 

7.9. Deployment 

7.9.1. Sauvegarde et chargement des modèles 
7.9.2. Onnx 
7.9.3. Inférence 

7.10. Cas Pratique: Classification des Images 

7.10.1. Analyse et préparation des données 
7.10.2. Tester le pipeline de formation 
7.10.3. Formation au modèle 
7.10.4. Validation du modèle 

Module 8. Détection d'objets 

8.1. Détection et Suivi des Objets 

8.1.1. Détection d'Objets 
8.1.2. Cas d'utilisation 
8.1.3. Suivi des objets 
8.1.4. Cas d'utilisation 
8.1.5. Occlusions, Rigid and No Rigid Poses 

8.2. Mesures d'Évaluation 

8.2.1. IOU - Intersection Over Union 
8.2.2. Confidence Score 
8.2.3. Recall 
8.2.4. Précision 
8.2.5. Recall - Precisión Curve 
8.2.6. Mean Average Precision (MAP) 

8.3. Méthodes traditionnelles 

8.3.1. Sliding window 
8.3.2. Viola detector 
8.3.3. HOG 
8.3.4. Non Maximal Supresion (NMS) 

8.4. Datasets 

8.4.1. Pascal VC 
8.4.2. MS Coco 
8.4.3. ImageNet (2014) 
8.4.4. MOTA Challenge 

8.5. Two Shot Object Detector 

8.5.1. R-CNN 
8.5.2. Fast R-CNN 
8.5.3. Faster R-CNN 
8.5.4. Mask R-CNN 

8.6. Single Shot Object Detector 

8.6.1. SSD 
8.6.2. YOLO 
8.6.3. RetinaNet 
8.6.4. CenterNet 
8.6.5. EfficientDet 

8.7. Backbones 

8.7.1. VGG 
8.7.2. ResNet 
8.7.3. Mobilenet 
8.7.4. Shufflenet 
8.7.5. Darknet 

8.8. Object Tracking 

8.8.1. Approches classiques 
8.8.2. Filtres à particules 
8.8.3. Kalman 
8.8.4. Sort tracker 
8.8.5. Deep Sort 

8.9. Déploiement 

8.9.1. Plateforme de Calcul 
8.9.2. Choix de la Backbone 
8.9.3. Choix de Framework 
8.9.4. Optimisation des Modèles 
8.9.5. Version du Modèle 

8.10. Étude: Détection et Suivi des Personnes 

8.10.1. Détection de personnes 
8.10.2. Suivi des personnes 
8.10.3. Ré-identification 
8.10.4. Compter les personnes dans les foules 

Module 9. Segmentation des Images avec Deep Learning 

9.1. Détection d'Objets et Segmentation 

9.1.1. Segmentation sémantique 

9.1.1.1. Cas d'utilisation de la segmentation sémantique 

9.1.2. Segmentation Instanciée 

9.1.2.1. Cas d'utilisation de la segmentation instanciée 

9.2. Mesures d'évaluation 

9.2.1. Similitudes avec d'autres méthodes 
9.2.2. Pixel Accuracy 
9.2.3. Dice Coefficient (F1 Score) 

9.3. Fonctions de coût 

9.3.1. Dice Loss 
9.3.2. Focal Loss 
9.3.3. Tversky Loss 
9.3.4. Autres fonctions 

9.4. Méthodes traditionnelles de Segmentation 

9.4.1. Application du seuil avec Otsu et Riddlen 
9.4.2. Cartes auto-organisées 
9.4.3. Algorithme GMM-EM 

9.5. Segmentation Sémantique grâce à Deep Learning: FCN 

9.5.1. FCN 
9.5.2. Architecture 
9.5.3. Applications du FCN 

9.6. Segmentation sémantique grâce à Deep Learning: U-NET 

9.6.1. U-NET 
9.6.2. Architecture 
9.6.3. Application U-NET 

9.7. Segmentation sémantique grâce à Deep Learning: Deep Lab 

9.7.1. Deep Lab 
9.7.2. Architecture 
9.7.3. Application de Deep Lab 

9.8. Segmentation instanciée par Deep Learning: Mask RCNN 

9.8.1. Mask RCNN 
9.8.2. Architecture 
9.8.3. Mise en œuvre d'un Mas RCNN 

9.9. Segmentation vidéo 

9.9.1. STFCN 
9.9.2. Semantic Video CNNs 
9.9.3. Clockwork Convnets 
9.9.4. Low-Latency 

9.10. Segmentation des nuages de points 

9.10.1. Nuage de points 
9.10.2. PointNet 
9.10.3. A-CNN 

Module 10. Segmentation Avancée des Images et Techniques Avancées de Vision par Ordinateur 

10.1. Base de données pour les problèmes de Segmentation Générale 

10.1.1. Pascal Context 
10.1.2. CelebAMask-HQ 
10.1.3. Cityscapes Dataset 
10.1.4. CCP Dataset 

10.2. Segmentation Sémantique en Médecine 

10.2.1. Segmentation Sémantique en Médecine 
10.2.2. Ensembles de données pour les problèmes médicaux 
10.2.3. Application pratique 

10.3. Outils d'annotation 

10.3.1. Computer Vision Annotation Tool 
10.3.2. LabelMe 
10.3.3. Autres outils 

10.4. Outils de Segmentation utilisant différents frameworks 

10.4.1. Keras 
10.4.2. Tensorflow v2 
10.4.3. Pytorch 
10.4.4. Autres 

10.5. Projet de Segmentation sémantique. Les données, Phase 1 

10.5.1. Analyse du problème 
10.5.2. Source d'entrée des données 
10.5.3. Analyse des données 
10.5.4. Préparations des données 

10.6. Projet de Segmentation sémantique. Formation, Phase 2 

10.6.1. Sélection de l'algorithme 
10.6.2. Entrainement 
10.6.3. Évaluation 

10.7. Projet de Segmentation sémantique. Résultats, Phase 3 

10.7.1. Réglage fin 
10.7.2. Présentation de la solution 
10.7.3. Conclusions 

10.8. Auto-codeurs 

10.8.1.  Auto-codeurs 
10.8.2. Architecture d’un Autocodeur 
10.8.3. Autocodeurs à Réduction de Bruit 
10.8.4. Autocodeur de Coloration Automatique 

10.9. Réseaux Adversariaux Génératifs (GAN) 

10.9.1. Réseaux Adversariaux Génératifs (GAN) 
10.9.2. Architecture du DCGAN 
10.9.3. Architecture GAN Conditionnelle 

10.10. Réseaux Adversoriels Génératifs Améliorés 

10.10.1. Aperçu du problème 
10.10.2. WGAN 
10.10.3. LSGAN 
10.10.4. ACGAN

Module 11. Industrie 3D 

11.1. Industrie de la 3D en Animation et Jeux Vidéo 

11.1.1. Animation 3D 
11.1.2. Industrie de la 3D en Animation et Jeux Vidéo 
11.1.3. L’Animation 3D Futur 

11.2. La 3D dans les Jeux vidéo 

11.2.1. Les Jeux Vidéo Limites 
11.2.2. Développement d'un jeu vidéo 3D. Difficultés 
11.2.3. Solutions aux difficultés dans le développement d'un jeu vidéo 

11.3. Logiciel 3D dans les jeux vidéo 

11.3.1. Maya. Avantages et inconvénients 
11.3.2. 3Ds Max. Avantages et inconvénients 
11.3.3. Blender. Avantages et inconvénients 

11.4. Pipeline dans la génération d’ assets 3D pour les Jeux Vidéo 

11.4.1. Idée et montage à partir d'un Modelsheet 
11.4.2. Modélisation avec une faible géométrie et des détails élevés 
11.4.3. Projection des détails par texture 

11.5. Styles artistiques clés en 3D pour les jeux vidéo 

11.5.1. Style cartoon 
11.5.2. Style réaliste 
11.5.3. Cel shading 
11.5.4. Motion capture 

11.6. Intégration 3D 

11.6.1. Intégration 2d dans le monde numérique 
11.6.2. Intégration 3d dans le monde numérique 
11.6.3. Intégration dans le monde réel (AR, MR/XR) 

11.7. Facteurs clés de la 3D pour différentes industries 

11.7.1. 3D dans le cinéma et la série 
11.7.2. 3D dans les jeux 
11.7.3. 3D dans la publicité 

11.8. Render: Render en temps réel et pré-rendu 

11.8.1. Éclairage 
11.8.2. Définition des ombres 
11.8.3. Qualité vs. Vitesse 

11.9. Génération d’ assets 3D sur 3D Max 

11.9.1. Software 3D Max 
11.9.2. Interface, menus, barre d'outils 
11.9.3. Contrôles 
11.9.4. Scène 
11.9.5. Viewports 
11.9.6. Basic shapes 
11.9.7. Génération, modification et transformation d'objets 
11.9.8. Pour créer une scène 3D 
11.9.9. Modélisation 3D de Assets professionnels pour les jeux vidéo 
11.9.10. Éditeurs de matériaux 

11.9.10.1. Création et édition de documents 
11.9.10.2. Application de la lumière aux matériaux 
11.9.10.3. Commutateur UVW Map. Coordonnées de mappage 
11.9.10.4. Création de textures 

11.10. Organisation de l'espace de travail et bonnes pratiques 

11.10.1. Création d'un projet 
11.10.2. Structure du dossier 
11.10.3. Fonctionnalité personnalisée 

Module 12. Art et le 3D dans l'Industrie du Jeu vidéo 

12.1. Projets 3D en VR 

12.1.1. Logiciel de maillage 3D 
12.1.2. Logiciel de retouche d'image 
12.1.3. Réalité Virtuelle 

12.2. Problème type, solutions et besoins du projet 

12.2.1. Besoins du Projet 
12.2.2. Problèmes éventuels 
12.2.3. Solutions 

12.3. Étude de ligne esthétique pour la génération du style artistique d'un jeu vidéo: De la conception de jeux à la génération d'art 3D 

12.3.1. Choix du Destinataire du jeu vidéo. Qui voulons-nous atteindre 
12.3.2. Possibilités artistiques du développeur 
12.3.3. Définition finale de la ligne esthétique 

12.4. Recherche de références et analyse de concurrents au niveau esthétique 

12.4.1. Pinterest et pages similaires 
12.4.2. Création d'un Modelsheet 
12.4.3. Recherche de concurrents 

12.5. Création de la bible et briefing 

12.5.1. Création de la Bible 
12.5.2. Développement d'une bible 
12.5.3. Développement d'un briefing 

12.6. Scénarios et assets 

12.6.1. Planification de la production des assets aux niveaux 
12.6.2. Conception des scénarios 
12.6.3. Conception des assets 

12.7. Intégration des assets aux niveaux et aux tests 

12.7.1. Processus d'intégration aux niveaux 
12.7.2. Textures 
12.7.3. Dernières retouches 

12.8. Personnages 

12.8.1. Planification de la production de personnages 
12.8.2. Conception des personnages 
12.8.3. Conception de assets pour personnages 

12.9. Intégration des personnages dans les scénarios et les tests 

12.9.1. Processus d'intégration des personnages aux niveaux 
12.9.2. Besoins du projet 
12.9.3. Animations 

12.10. Audio dans les jeux vidéo 3D 

12.10.1. Interprétation du dossier de projet pour la génération de l'identité sonore du jeu vidéo 
12.10.2. Processus de composition et de production 
12.10.3. Conception de la bande son 
12.10.4. Conception d'effets sonores 
12.10.5. Conception de voix 

Module 13. 3D Avancé 

13.1. Techniques avancées de modélisation 3D 

13.1.1. Configuration de l'interface 
13.1.2. Observation à Modéliser 
13.1.3. Modélisation haute 
13.1.4. Modélisation organique pour les jeux vidéo 
13.1.5. Mappage avancé des objets 3D 

13.2. Texturing 3D avancé 

13.2.1. Interface de Substance Painter 
13.2.2. Matériaux, alphas et utilisation des pinceaux 
13.2.3. Utilisation des particules 

13.3. Exportation pour les logiciels 3D et Unreal Engine 

13.3.1. Intégration de Unreal Engine dans les conceptions 
13.3.2. Intégration de modèles 3D 
13.3.3. Application de textures dans Unreal Engine 

13.4. Sculpting numérique 

13.4.1. Sculpting numérique avec ZBrush 
13.4.2. Premiers pas dans ZBrush 
13.4.3. Interface, menus et navigation 
13.4.4. Images de référence 
13.4.5. Modélistion complète en 3D d'un objet dans zBrush 
13.4.6. Utilisation des maillages de base 
13.4.7. Modélisation par morceaux 
13.4.8. Exportation de modèles 3D dans zBrush 

13.5. L'utilisation de Polypaint 

13.5.1. Brosses avancées 
13.5.2. Textures 
13.5.3. Matériaux par défaut 

13.6. La Rétopologie 

13.6.1. Rhétopologie. Utilisation dans l'industrie du jeu vidéo 
13.6.2. Création de maillage low-poly 
13.6.3. Utilisation de logiciels pour la retopologie 

13.7. Poses du modèle 3D 

13.7.1. Visionneurs d'images de référence 
13.7.2. Utilisation de transpose 
13.7.3. Utilisation du transpose pour les modèles composés de différentes parties 

13.8. Exportation de modèles 3D 

13.8.1. Exportation de modèles 3D 
13.8.2. Génération de textures pour l'exportation 
13.8.3. Configuration du modèle 3d avec les différents matériaux et textures 
13.8.4. Prévisualisation du modèle 3D 

13.9. Techniques de travail avancées 

13.9.1. Le flux de travail de la modélisation 3D 
13.9.2. Organisation des flux de travail de modélisation 3D 
13.9.3. Estimation de l'effort de production 

13.10. Finalisation du modèle et exportation vers d'autres programmes 

13.10.1. Le flux de travail pour la finalisation du modèle 
13.10.2. Exporter avec Zpluging 
13.10.3. Fichiers possibles. Avantages et inconvénients 

Module 14. Animation 3D 

14.1. Manipulation du logiciel 

14.1.1. Gestion de l'information et méthodologie de travail 
14.1.2. Animation 
14.1.3. Timing et poids 
14.1.4.  Animation avec des objets de base 
14.1.5. Cinématique directe et inverse 
14.1.6. Cinématique inverse 
14.1.7. Chaîne cinématique 

14.2. Anatomie Bipède vs. quadrupède 

14.2.1. BipèdeBiped vs
14.2.2. Quadrupède 
14.2.3. Cycle de marche 
14.2.4. Cycle de fonctionnement 

14.3. Rig facial et Morpher 

14.3.1. Le langage du visage. Lip-sync, yeux, concentration de l'attention 
14.3.2. Montage des séquences 
14.3.3. La phonétique. Importance 

14.4. Animation appliquée 

14.4.1. Animation 3D pour le cinéma et la télévision 
14.4.2. Animation pour les jeux vidéo 
14.4.3. Animation pour d'autres applications 

14.5. Capture de mouvement Kinect 

14.5.1. Capture de mouvement pour l'animation 
14.5.2. Séquencement des mouvements 
14.5.3. Intégration dans Blender 

14.6. Squelette, skinning et setup 

14.6.1. Interaction entre le squelette et la géométrie 
14.6.2. Interpolation de maillage 
14.6.3. Poids d'animation 

14.7. Acting 

14.7.1. Le langage du corps 
14.7.2. Poser 
14.7.3. Montage des séquences 

14.8. Appareils photo et prises de vue 

14.8.1. La caméra et l'environnement 
14.8.2. Composition des plans et personnages 
14.8.3. Finition 

14.9. Effets visuels spéciaux 

14.9.1. Effets visuels et animation 
14.9.2. Types d'effets optiques 
14.9.3. 3D VFX L 

14.10. L'animateur en tant qu'acteur 

14.10.1. Expressions 
14.10.2. Références des acteurs 
14.10.3. De la caméra au programme 

Module 15. Maîtrise d'Unity 3D et de l'Intelligence Artificielle 

15.1. Le Jeu vidéo. Unity 3D 

15.1.1. Le jeu vidéo 
15.1.2. LE Jeu Vidéo. Erreurs et Réussites 
15.1.3. Applications du Jeu Vidéo dans d'autres domaines et industries 

15.2. Développement de jeux vidéo. Unity 3D 

15.2.1. Plan de production et phases de développement 
15.2.2. Méthodologie de développement 
15.2.3. Correctifs et contenu supplémentaire 

15.3. Unity 3D 

15.3.1. Unity 3D. Applications 
15.3.2. Scripting dans Unity 3D 
15.3.3. Asset Store et Plugins de tiers 

15.4. Physique, Inputs 

15.4.1. InputSystem 
15.4.2. Physiques en Unity 3D 
15.4.3. Animation et animateur 

15.5. Prototypage dans Unity 

15.5.1. Blocking et colliders 
15.5.2. Prefabs 
15.5.3. Scriptable Objects 

15.6. Techniques de programmation spécifiques 

15.6.1. Modèle Singleton 
15.6.2. Chargement des ressources dans l'exécution des jeux sous Windows 
15.6.3. Performance et Profiler 

15.7. Jeux vidéo pour appareils mobiles 

15.7.1. Jeux pour les appareils Android 
15.7.2. Jeux pour les appareils IOS 
15.7.3. Développements multiplateformes 

15.8. Réalité Augmentée 

15.8.1. Types de jeux de réalité augmentée 
15.8.2. ARkit et ARcore 
15.8.3. Développement de Vuforia 

15.9. Programmation de l'Intelligence Artificielle 

15.9.1. Algorithmes d'intelligence artificielle 
15.9.2. Machines à états finis 
15.9.3. Réseaux neuronaux 

15.10. Distribution et Marketing 

15.10.1. L'art de publier et de promouvoir un jeu vidéo 
15.10.2. La personne responsable du succès 
15.10.3. Stratégies 

Module 16. Développement de jeux vidéo en 2D et 3D 

16.1. Ressources graphiques matricielles 

16.1.1. Sprites 
16.1.2. Atlas 
16.1.3. Textures 

16.2. Développement des Interfaces et des Menus 

16.2.1. Unity GUI 
16.2.2. Unity UI 
16.2.3. UI Toolkit 

16.3. Système d'Animation 

16.3.1. Courbes et Clés d'animation 
16.3.2. Événements d'animation appliqués 
16.3.3. Modificateurs 

16.4. Matériaux et shaders 

16.4.1. Composants d'un matériau 
16.4.2. Types de RenderPass 
16.4.3. Shaders 

16.5. Particules 

16.5.1. Systèmes de particules 
16.5.2. Émetteurs et sous-émetteurs 
16.5.3. Scripting 
16.5.4. Éclairage 

16.6. Modes d'éclairage 

16.6.1. Baking de l'éclairage 
16.6.2. Light probes 

16.7. Mecanim 

16.7.1. State Machines, SubState Machines et Transitions entre les animations 
16.7.2. Blend trees 
16.7.3. Animation Layers et IK 

16.8. Finition cinématique 

16.8.1. Timeline 
16.8.2. Effets de post-traitement 
16.8.3. Universal Render Pipeline et High Definition Render Pipeline 

16.9. VFX avancé 

16.9.1. VFX Graph 
16.9.2. Shader Graph 
16.9.3. Pipeline tools 

16.10. Composants Audio 

16.10.1. Audio Source et Audio Listener 
16.10.2. Audio Mixer 
16.10.3. Audio Spatializer 

Module 17. Programmation, génération de mécaniques et techniques de prototypage de jeux vidéo 

17.1. Processus technique 

17.1.1. Modèles lowpoly et highpoly à Unity 
17.1.2. Paramètres des matériaux 
17.1.3. High Definition Render Pipeline 

17.2. Design des personnages 

17.2.1. Mouvement 
17.2.2. Conception du collisionneur 
17.2.3. Création et comportement 

17.3. Importer des Skeletal Meshes a Unity 

17.3.1. Exportation Skeletal Meshes à partir d'un logiciel 3D 
17.3.2. Skeletal meshes dans Unity 
17.3.3. Points d'ancrage pour les accessoires 

17.4. Importation d'animations 

17.4.1. Préparation de l'animation 
17.4.2. Importation d'animations 
17.4.3. Animator et transitions 

17.5. Monteur d'animation 

17.5.1. Création des blend spaces 
17.5.2. Créer un animation montage 
17.5.3. Edition d'animations en Read-Only 

17.6. Création et simulation d'un Ragdoll 

17.6.1. Composition d'un Ragdoll 
17.6.2. Ragdoll vers un graphique d'animation 
17.6.3. Démonstration d'un Ragdoll 

17.7. Ressources pour la construction de personnages 

17.7.1. Bibliothèques 
17.7.2. Importation et exportation de documents de bibliothèque 
17.7.3. Manipulation des matériaux 

17.8. Équipe de travail 

17.8.1. Hiérarchie et rôles de travail 
17.8.2. Système de contrôle de la versions 
17.8.3. Résolution des conflits 

17.9. Exigences pour un développement réussi 

17.9.1. La production pour le succès 
17.9.2. Développement optimal 
17.9.3. Exigences essentielles 

17.10. Emballage pour la publication 

17.10.1. Player Settings 
17.10.2. Build 
17.10.3. Création d'un installateur 

Module 18. Développement de Jeux Vidéo Immersifs en RV 

18.1. Caractère unique de la RV 

18.1.1. Jeux Vidéo Traditionnels et RV. Différences 
18.1.2. Motion Sickness: fluidité et effets 
18.1.3. Des interactions RV uniques 

18.2. Interaction 

18.2.1. Événements 
18.2.2. Triggers physiques 
18.2.3. Monde virtuel vs réalité 

18.3. Locomotion immersive 

18.3.1. Téléportation 
18.3.2. Arm Swinging 
18.3.3. Forward movement avec Facing et sans lui 

18.4. Physique de la RV 

18.4.1. Objets saisissables et jetables 
18.4.2. Poids et masse en RV 
18.4.3. La gravité en RV 

18.5. UI en RV 

18.5.1. Positionnement et courbure des éléments de l'interface utilisateur 
18.5.2. Modes d'interaction du menu RV 
18.5.3. Meilleures pratiques pour une expérience confortable 

18.6. Animation dans la RV 

18.6.1. Intégration de modèles animés dans la RV 
18.6.2. Objets et personnages animés vs. Objets physiques 
18.6.3. Transitions animées ou procédurales 

18.7. L’Avatar 

18.7.1. Représentation de l'avatar à partir de vos propres yeux 
18.7.2. Représentation externe de l'avatar lui-même 
18.7.3. Cinématique inverse et animation procédurale appliquées à l'avatar 

18.8. Audio 

18.8.1. Configuration des Audio Sources et Audio Listeners pour RV 
18.8.2. Effets disponibles pour une expérience plus immersive 
18.8.3. Audio Spatializer RV 

18.9. Optimisation dans les projets RV et AR 

18.9.1. Occlusion culling 
18.9.2. Static Batching 
18.9.3. Paramètres de qualité et types de Render Pass 

18.10. Pratique: Escape Room RV 

18.10.1. Design d'expérience 
18.10.2. Layout du scénario 
18.10.3. Développement de la mécanique 

Module 19. Audio Professionnel pour les Jeux vidéo 3d en RV 

19.1. L’Audio dans les jeux vidéo professionnels 3D 

19.1.1. Audio dans les jeux 
19.1.2. Types de styles audio dans les jeux vidéo actuels 
19.1.3. Modèles audio spatiaux 

19.2. Étude préliminaire des matériaux 

19.2.1. Étude de la documentation relative à la conception des jeux 
19.2.2. Étude de la documentation de conception des niveaux 
19.2.3. Évaluation de la complexité et de la typologie du projet de création de l'audio 

19.3. Étude des références sonores 

19.3.1. Liste des principales références par similitude avec le projet 
19.3.2. Références audio d'autres médias pour donner au jeu vidéo son identité 
19.3.3. Étude des références et élaboration de conclusions 

19.4. Conception de l'identité sonore du jeu vidéo 

19.4.1. Principaux facteurs influençant le projet 
19.4.2. Aspects pertinents dans la composition de l'audio: instrumentation, tempo, autres 
19.4.3. Définition des voix 

19.5. Création de la bande sonore 

19.5.1. Liste d'environnements et d'audios 
19.5.2. Définition du motif, du thème et de l'instrumentation 
19.5.3. Composition et test audio de prototypes fonctionnels 

19.6. Création d'effets sonores (FX) 

19.6.1. Effets sonores: types de FX et liste complète selon les besoins du projet 
19.6.2. Définition du motif, du thème et de la création 
19.6.3. Évaluation des effets sonores et essais sur des prototypes fonctionnels 

19.7. Création de la voix 

19.7.1. Types de voix et liste de phrases 
19.7.2. Recherche et évaluation d'acteurs et actrices de doublage 
19.7.3. Évaluation des enregistrements et test des voix sur des prototypes fonctionnels 

19.8. Évaluation de la qualité audio 

19.8.1. Élaboration de sessions d'écoute avec l'équipe de développement 
19.8.2. Intégration de tous les audios dans un prototype fonctionnel 
19.8.3. Test et évaluation des résultats obtenus 

19.9. Exportation, formatage et importation d'audio dans le projet 

19.9.1. Formats audio et compression dans les jeux vidéo 
19.9.2. Exportation audio 
19.9.3. Importer de l'audio dans le projet 

19.10. Préparation de bibliothèques audio pour la commercialisation 

19.10.1. Conception de bibliothèques sonores polyvalentes pour les professionnels du jeu vidéo 
19.10.2. Sélection de l'audio par type: bande sonore, effets et voix 
19.10.3. Marketing des bibliothèques d’ assets d’audio 

Module 20. Production et financement de jeux vidéo 

20.1. Production dans les jeux vidéo 

20.1.1. Méthodologies en cascade 
20.1.2. Casuistique du manque de gestion de Projet et de l'absence de plan de travail 
20.1.3. Conséquences de l'absence d'un département de production dans l'industrie du jeu vidéo 

20.2. L'équipe de développement 

20.2.1. Départements clés lors du développement de projets 
20.2.2. Les profils clés du micro-management: LEAD et SENIOR 
20.2.3. Problème du manque d'expérience des profils JUNIOR 
20.2.4. Mise en place d'un plan de formation pour les profils à faible expérience 

20.3. Méthodologies agiles dans le développement de jeux vidéo 

20.3.1. SCRUM 
20.3.2. AGILE 
20.3.3. Méthodes hybrides 

20.4. Estimation de l'effort, du temps et des coûts 

20.4.1. Le prix du développement des jeux vidéo: concepts des Coûts principaux 
20.4.2. Planification des tâches: points critiques, clés et aspects à prendre en compte 
20.4.3. Estimations basées sur les points d'effort VS calcul en heures 

20.5. La hiérarchisation des priorités dans la planification des prototypes 

20.5.1. Fixer les objectifs généraux du Projet 
20.5.2. Hiérarchisation des fonctionnalités et contenus clés: ordre et besoins selon le département 
20.5.3. Regroupement des fonctionnalités et des contenus en production pour constituer des livrables (prototypes fonctionnels) 

20.6. Bonnes pratiques dans la production de jeux vidéo 

20.6.1. Réunions, daylies, weekly meeting, réunions de fin de sprint, réunions pour vérifier les résultats des étapes ALFA, BETA y RELEASE
20.6.2. Mesure de la vitesse du Sprint 
20.6.3. Détection de la démotivation et de la faible productivité et anticipation des éventuels problèmes de production 

20.7. Analyse en production 

20.7.1. Analyse préliminaire I: examen de la situation du marché 
20.7.2. Analyse préliminaire 2: établissement des principaux points de référence du projet (concurrents directs) 
20.7.3. Conclusions des analyses préliminaires 

20.8. Calcul des coûts de développement 

20.8.1. Ressources humaines 
20.8.2. Technologie et licences 
20.8.3. Coûts de développement externes 

20.9. Recherche d'investissements 

20.9.1. Types d'investisseurs 
20.9.2. Résumé exécutif 
20.9.3. Pitch deck 
20.9.4. Publishers 
20.9.5. Autofinancement 

20.10. Élaboration de Post Mortems de projet 

20.10.1. Processus d'élaboration du Post Mortem dans l'entreprise 
20.10.2. Analyse des points positifs du projet 
20.10.3. Étude des points négatifs du projet 
20.10.4. Proposition d'amélioration sur les points négatifs du projet et conclusions 

##IMAGE##

Avec le programme de cours TECH, nous vous aidons à comprendre et à analyser le monde à travers les yeux de la technologie" 

Mastère Avancé en Réalité Virtuelle et Vision Industrielle

Si la création d'environnements artificiels immersifs semblait des scénarios lointains dans le temps, l'évolution accélérée de la technologie informatique a non seulement rendu l'accès à ces outils possible pour les utilisateurs, mais a également permis de les intégrer avec succès dans différents domaines tels que les jeux vidéo, l'éducation et l'architecture. Comme l'avenir de cette technologie montre un avenir prometteur, Chez TECH Université Technologique, nous avons développé le Mastère Avancé en Réalité Virtuelle et Vision Industrielle, un programme qui vous fournira les dernières connaissances disponibles dans ce domaine afin que vous puissiez vous spécialiser dans les développements les plus importants produits, la maîtrise d'outils de pointe tels que Unreal Engine et les techniques les plus avancées en matière de traitement d'images numériques 3D, entre autres aspects. De cette façon, vous serez en mesure de rejoindre les projets les plus ambitieux des entreprises consolidées et de devenir un expert de référence dans le secteur.

Spécialisez-vous en Réalité Virtuelle et Vision Artificielle

Si vos objectifs comprennent l'atteinte d'un niveau supérieur de connaissances dans l'étude de la technologie informatique, ce programme est pour vous. Chez TECH Université Technologique, vous recevrez une formation complète et de haute qualité, car nous avons le contenu le plus complet sur le marché de l'éducation, des méthodes d'apprentissage innovantes pour l'éducation en ligne et le soutien d'experts qui guideront votre processus. Ainsi, vous aurez accès à des techniques, des stratégies, des programmes et des ressources qui favoriseront l'exécution de votre travail dans la modélisation et la simulation des environnements sensoriels, tridimensionnels et artificiels. Ce Mastère Avancé est une opportunité inédite et efficace pour garantir votre croissance professionnelle.