Diplôme universitaire
La plus grande faculté d’informatique au monde”
Présentation
Positionnez-vous dans un secteur en plein essor, avec le meilleur programme sur la scène universitaire que seule TECH peut offrir"

La Réalité Virtuelle nous transporte dans des mondes immersifs, permettant des expériences allant de la simulation d'opérations chirurgicales complexes à la conception architecturale en temps réel. L'impact de cette discipline transcende la sphère technologique, car elle façonne notre façon de vivre, de travailler et d'apprendre. Son évolution constante exige non seulement des professionnels formés à la mise en œuvre de ces outils, mais aussi des visionnaires capables d'étendre leurs applications à de nouveaux horizons.
La Vision Artificielle donne aux machines la capacité d'interpréter et d'analyser les images et les vidéos, ce qui permet le développement de technologies avancées. Il s'agit notamment des véhicules autonomes, qui révolutionnent les transports, et des plateformes de diagnostic médical, qui améliorent la précision et l'efficacité des soins de santé. En outre, les récentes avancées dans le domaine, telles que les modèles multitâches et les technologies génératives, ouvrent de nouvelles possibilités dans la création de solutions innovantes. L'intégration avec le edge computing a également facilité le traitement des données en temps réel, ce qui élargit encore les applications de la Vision Artificielle. Pour toutes ces raisons, être un professionnel formé dans ces disciplines ouvre non seulement des portes dans un secteur technologique en croissance constante, mais permet également de participer à des projets qui ont un impact réel sur la vie quotidienne. Il contribue également au développement de technologies qui continuent à transformer la façon dont nous interagissons avec le monde et à améliorer notre qualité de vie.
Le programme d'études de TECH, avec sa méthodologie 100% en ligne et son approche d'apprentissage Relearning, permet à l'étudiant de se concentrer pleinement sur les matières clés pour se spécialiser dans ces domaines technologiques. En outre, le diplômé bénéficiera du soutien du personnel enseignant le plus spécialisé et des recherches les plus récentes dans le domaine universitaire. Tout cela sans horaires et depuis n'importe quel endroit du monde, ce qui permet aux étudiants d'adapter leurs études à leur propre rythme, sans interférer avec leurs engagements personnels ou professionnels.
La combinaison de la créativité et de la technologie vous attend pour commencer à développer de grandes solutions ayant un impact mondial"
Ce Mastère avancé en Réalité Virtuelle et Vision Artificielle contient le programme le plus complet et le plus actualisé du marché. Ses caractéristiques sont les suivantes:
- Le développement d'études de cas présentées par des experts en informatique
- Le contenu graphique, schématique et éminemment pratique du programme fournit des informations scientifiques et pratiques sur les disciplines essentielles à la pratique professionnelle
- Les exercices pratiques où effectuer le processus d’auto-évaluation pour améliorer l’apprentissage
- Il met l'accent sur les méthodologies innovantes en Réalité Virtuelle et Vision Artificielle
- Cours théoriques, questions à l'expert, forums de discussion sur des sujets controversés et travail de réflexion individuel
- La possibilité d'accéder aux contenus depuis n'importe quel appareil fixe ou portable doté d'une connexion internet
Devenez les meilleurs dans le domaine de la Réalité Virtuelle et de la Vision Automatique, à votre propre rythme, sans horaires et depuis n'importe où dans le monde"
Son corps enseignant comprend des professionnels de l’informatique, qui apportent l'expérience de leur travail à ce programme, ainsi que des spécialistes reconnus issus de grandes entreprises et d'universités prestigieuses.
Son contenu multimédia, développé avec les dernières technologies éducatives, permettra au professionnel un apprentissage situé et contextuel, c'est-à-dire un environnement simulé qui fournira un étude immersif programmé pour s'entraîner dans des situations réelles.
La conception de ce programme est axée sur l'Apprentissage par les Problèmes, grâce auquel l’étudiant doit essayer de résoudre les différentes situations de la pratique professionnelle qui se présentent tout au long du programme académique. Pour ce faire, le professionnel aura l'aide d'un système vidéo interactif innovant créé par des experts reconnus.
Maîtrisez ces technologies grâce aux outils didactiques que TECH vous offre et commencez à changer des vies"

Développez des applications et relevez les défis les plus passionnants dans la plus grande université numérique du monde"
Programme d'études
Le programme d'études du Mastère avancé en Réalité Virtuelle et Vision Artificielle est conçu comme une opportunité académique complète et avancée dans ces deux disciplines clés. Le programme commence par des bases solides dans les domaines de la programmation, des mathématiques appliquées et du traitement de l'image. Tout au long du programme, les étudiants se plongeront dans le développement d'environnements virtuels à l'aide d'outils de pointe. En outre, ils exploreront des techniques avancées de simulation et d'interaction dans des environnements immersifs.

Rejoignez TECH et vous commencerez à transformer le divertissement avec des expériences immersives dans le domaine de la Vision Artificielle”
Module 1. Vision artificielle
1.1. La perception humaine
1.1.1. Système visuel humain
1.1.2. La couleur
1.1.3. Fréquences visibles et non visibles
1.2. Chronique de la Vision Artificielle
1.2.1. Principes
1.2.2. Évolution
1.2.3. L'importance de la vision industrielle
1.3. Composition d'images numériques
1.3.1. L’Image Numérique
1.3.2. Types d'images
1.3.3. Espaces de couleurs
1.3.4. RGB
1.3.5. HSV et HSL
1.3.6. CMY-CMYK
1.3.7. YCbCr
1.3.8. Image indexée
1.4. Systèmes d'acquisition d'images
1.4.1. Fonctionnement d'un appareil photo numérique
1.4.2. L'exposition correcte pour chaque situation
1.4.3. Profondeur de champ
1.4.4. Résolution
1.4.5. Formats d'image
1.4.6. Mode HDR
1.4.7. Caméras à haute résolution
1.4.8. Caméras à haute vitesse
1.5. Systèmes Optiques
1.5.1. Principes optiques
1.5.2. Lentilles conventionnelles
1.5.3. Lentilles télécentriques
1.5.4. Types d'objectifs autofocus
1.5.5. Longueur focale
1.5.6. Profondeur de champ
1.5.7. Distorsion optique
1.5.8. Calibrage d'une image
1.6. Systèmes d'éclairage
1.6.1. Importance de l'éclairage
1.6.2. Réponse en fréquence
1.6.3. Éclairage Led
1.6.4. Éclairage extérieur
1.6.5. Types d'éclairage pour les applications industrielles. Effets
1.7. Systèmes de Captation 3D
1.7.1. Vision Stéréo
1.7.2. Triangulation
1.7.3. Lumière structurée
1.7.4. Time of Flight
1.7.5. Lidar
1.8. Multispectre
1.8.1. Caméras Multispectrales
1.8.2. Caméras Hyperspectrales
1.9. Spectre proche Non Visible
1.9.1. Caméras IR
1.9.2. Caméras UV
1.9.3. Conversion du Non-visible au Visible par illumination
1.10. Autres bandes de fréquences
1.10.1. Rayons X
1.10.2. Terahertz
Module 2. Applications et état de l'art
2.1. Applications industrielles
2.1.1. Bibliothèques de vision industrielle
2.1.2. Appareils photo compacts
2.1.3. Systèmes basés sur PC
2.1.4. Robotique industrielle
2.1.5. Pick and place 2D
2.1.6. Bin picking
2.1.7. Contrôle de la qualité
2.1.8. Présence absence de composants
2.1.9. Contrôle dimensionnel
2.1.10. Contrôle de l'étiquetage
2.1.11. Traçabilité
2.2. Le véhicule autonome
2.2.1. Assistance au conducteur
2.2.2. Conduite autonome
2.3. La Vision Artificielle pour l'Analyse de Contenu
2.3.1. Filtrage du contenu
2.3.2. Modération du contenu visuel
2.3.3. Systèmes de suivi
2.3.4. Identification des marques et des logos
2.3.5. Étiquetage et classification des vidéos
2.3.6. Détection des changements de scène
2.3.7. Extraction de textes ou de crédits
2.4. Applications médicales
2.4.1. Détection et localisation des maladies
2.4.2. Cancer et Analyse aux rayons X
2.4.3. Progrès de la vision industrielle dus au Covid19
2.4.4. Assistance en salle d'opération
2.5. Applications spatiales
2.5.1. Analyse d'images satellites
2.5.2. La vision artificielle pour la surveillance de l'espace
2.5.3. Mission vers Mars
2.6. Applications commerciales
2.6.1. Contrôle des stocks
2.6.2. Vidéo surveillance, sécurité domestique
2.6.3. Caméras de parking
2.6.4. Des caméras pour contrôler la population
2.6.5. Radars de vitesse
2.7. Vision Appliquée à la Robotique
2.7.1. Drones
2.7.2. AGV
2.7.3. La vision dans les robots collaboratifs
2.7.4. Les yeux des robots
2.8. Réalité Augmentée
2.8.1. Fonctionnement
2.8.2. Dispositifs
2.8.3. Applications dans l'industrie
2.8.4. Applications commerciales
2.9. Cloud Computing
2.9.1. Plateformes de Cloud Computing
2.9.2. Du Cloud Computing à la production
2.10. Recherche et État de l'Art
2.10.1. La communauté scientifique
2.10.2. Ce qui se prépare
2.10.3. L'avenir de la vision industrielle
Module 3. Traitement numérique des images
3.1. Environnement de développement de la Vision par Ordinateur
3.1.1. Bibliothèques de Vision par Ordinateur
3.1.2. Environnement de programmation
3.1.3. Outils de visualisation
3.2. Traitement numérique des images
3.2.1. Relations entre les pixels
3.2.2. Opérations sur les images
3.2.3. Transformations géométriques
3.3. Opérations sur les pixels
3.3.1. Histogramme
3.3.2. Transformations de l'histogramme
3.3.3. Opérations sur les images en couleur
3.4. Opérations logiques et arithmétiques
3.4.1. Addition et soustraction
3.4.2. Produit et Division
3.4.3. And/Nand
3.4.4. Or/Nor
3.4.5. Xor/Xnor
3.5. Filtres
3.5.1. Masques et Convolution
3.5.2. Filtrage linéaire
3.5.3. Filtrage non linéaire
3.5.4. Analyse de Fourier
3.6. Opérations morphologiques
3.6.1. Erode and Dilating
3.6.2. Closing and Open
3.6.3. Top_hat et Black hat
3.6.4. Détection des contours
3.6.5. Squelette
3.6.6. Remplissage des trous
3.6.7. Convex hull
3.7. Outils d'analyse d'images
3.7.1. Détection des bords
3.7.2. Détection de blobs
3.7.3. Contrôle dimensionnel
3.7.4. Contrôle des couleurs
3.8. Segmentation d'objets
3.8.1. Segmentation d'images
3.8.2. Techniques classiques de segmentation
3.8.3. Application réelle
3.9. Calibrage de l'image
3.9.1. Calibrage de l'image
3.9.2. Méthodes d'étalonnage
3.9.3. Processus d'étalonnage dans un système caméra/robot 2D
3.10. Traitement des images dans un environnement réel
3.10.1. Analyse de la problématique
3.10.2. Traitement des images
3.10.3. Extraction de caractéristiques
3.10.4. Résultat final
Module 4. Traitement numérique des images avancé
4.1. Reconnaissance optique de caractères (OCR)
4.1.1. Prétraitement des images
4.1.2. Détection de texte
4.1.3. Reconnaissance du texte
4.2. Lecture du code
4.2.1. Codes 1D
4.2.2. Codes 2D
4.2.3. Applications
4.3. Recherche de motifs
4.3.1. Recherche de motifs
4.3.2. Modèles basés sur le niveau de gris
4.3.3. Modèles basés sur les contours
4.3.4. Motifs basés sur des formes géométriques
4.3.5. Autres techniques
4.4. Suivi d'objets avec la vision conventionnelle
4.4.1. Extraction de l'arrière-plan
4.4.2. Meanshift
4.4.3. Camshift
4.4.4. Optical flow
4.5. Reconnaissance faciale
4.5.1. Facial Landmark Detection
4.5.2. Applications
4.5.3. Reconnaissance faciale
4.5.4. Reconnaissance des émotions
4.6. Panoramique et alignements
4.6.1. Stitching
4.6.2. Composition d'images
4.6.3. Photomontage
4.7. High Dinamic Range (HDR) and Photometric Stereo
4.7.1. Amélioration de la plage dynamique
4.7.2. Composition d'images pour l'amélioration des contours
4.7.3. Techniques d'utilisation des applications dynamiques
4.8. Compression d'images
4.8.1. Compression d'images
4.8.2. Types de compresseurs
4.8.3. Techniques de compression d'images
4.9. Traitement vidéo
4.9.1. Séquences d'images
4.9.2. Formats vidéo et codecs
4.9.3. Lecture d'une vidéo
4.9.4. Traitement des cadres
4.10. Application réelle du Traitement des Images
4.10.1. Analyse de la problématique
4.10.2. Traitement des images
4.10.3. Extraction de caractéristiques
4.10.4. Résultat final
Module 5. Traitement des images 3D
5.1. Image 3D
5.1.1. Image 3D
5.1.2. Logiciels de traitement d'images 3d et Visualisations
5.1.3. Logiciels de Métrologie
5.2. Open3D
5.2.1. Bibliothèque pour le Traitement des Données 3D
5.2.2. Caractéristiques
5.2.3. Installation et Utilisation
5.3. Les données
5.3.1. Cartes de profondeur d'images 2D
5.3.2. Pointclouds
5.3.3. Normales
5.3.4. Surfaces
5.4. Visualisation
5.4.1. Visualisation des Données
5.4.2. Contrôles
5.4.3. Visualisation du Web
5.5. Filtres
5.5.1. Distance entre les points, suppression des outliers
5.5.2. Filtre passe-haut
5.5.3. Downsampling
5.6. Géométrie et extraction de caractéristiques
5.6.1. Extraction de profils
5.6.2. Mesure de la profondeur
5.6.3. Volume
5.6.4. Formes géométriques 3D
5.6.5. Plans
5.6.6. Projection d'un point
5.6.7. Distances géométriques
5.6.8. Kd Tree
5.6.9. Features 3D
5.7. Enregistrement et Meshing
5.7.1. Concaténation
5.7.2. ICP
5.7.3. Ransac 3D
5.8. Reconnaissance d'objets en 3D
5.8.1. Recherche d'un objet dans la scène 3d
5.8.2. Segmentation
5.8.3. Bin picking
5.9. Analyse de surface
5.9.1. Smoothing
5.9.2. Surfaces orientables
5.9.3. Octree
5.10. Triangulation
5.10.1. De Mesh au Point Cloud
5.10.2. Triangulation des cartes de profondeur
5.10.3. Triangulation de PointClouds non ordonnés
Module 6. Deep Learning
6.1. Intelligence artificielle
6.1.1. Machine Learning
6.1.2. Deep Learning
6.1.3. L'explosion de Deep Learning. Pourquoi maintenant?
6.2. Réseaux neuronaux
6.2.1. Réseau neuronal
6.2.2. Utilisations des réseaux neuronaux
6.2.3. Régression linéaire et Perceptron
6.2.4. Forward Propagation
6.2.5. Backpropagation
6.2.6. Feature vectors
6.3. Loss Functions
6.3.1. Loss function
6.3.2. Types de Loss Functions
6.3.3. Choix des Loss Function
6.4. Fonctions d'activation
6.4.1. Fonction d'activation
6.4.2. Fonctions linéaires
6.4.3. Fonctions non linéaires
6.4.4. Output vs Hidden layer activation functions
6.5. Régularisation et Normalisation
6.5.1. Régularisation et Normalisation
6.5.2. Overfitting and Data Augmentation
6.5.3. Regularization Methods: L1, L2 and dropout
6.5.4. Normalization Methods: Batch, Weight, Layer
6.6. Optimisation
6.6.1. Gradient Descent
6.6.2. Stochastic Gradient Descent
6.6.3. Mini Batch Gradient Descent
6.6.4. Momentum
6.6.5. Adam
6.7. Hyperparameter Tuning et Poids
6.7.1. Hyperparamètres
6.7.2. Batch Size vs. Learning Rate vs Step Decay
6.7.3. Poids
6.8. Mesures d'évaluation des réseaux neuronaux
6.8.1. Précision
6.8.2. Dice Coefficient
6.8.3. Sensitivity vs. Specificity / Recall vs. precision
6.8.4. Courbe ROC (AUC)
6.8.5. F1-score
6.8.6. Confusion matrix
6.8.7. Cross-validation
6.9. Frameworks et Hardware
6.9.1. Tensor Flow
6.9.2. Pytorch
6.9.3. Caffe
6.9.4. Keras
6.9.5. Hardware pour la Phase de Formation
6.10. Création d’un Réseau Neuronal - Formation et Validation
6.10.1. Dataset
6.10.2. Construction du réseau
6.10.3. Entrainement
6.10.4. Visualisation des résultats
Module 7. Réseaux Convolutifs et Classification des Images
7.1. Réseaux neuronaux convolutifs
7.1.1. Introduction
7.1.2. Convolution
7.1.3. CNN Building Blocks
7.2. Types de bouchons CNN
7.2.1. Convolutionnel
7.2.2. Activation
7.2.3. Normalisation par lots
7.2.4. Polling
7.2.5. Fully connected
7.3. Métriques
7.3.1. Confusion des Matrices
7.3.2. Précision
7.3.3. Précision
7.3.4. Recall
7.3.5. F1 Score
7.3.6. ROC Curve
7.3.7. AUC
7.4. Principales architectures
7.4.1. AlexNet
7.4.2. VGG
7.4.3. Resnet
7.4.4. GoogleLeNet
7.5. Classification des images
7.5.1. Introduction
7.5.2. Analyse des données
7.5.3. Préparations des données
7.5.4. Formation au modèle
7.5.5. Validation du modèle
7.6. Considérations pratiques pour la formation CNN
7.6.1. Sélection de l'optimiseur
7.6.2. Learning Rate Scheduler
7.6.3. Planificateur du taux d'apprentissage
7.6.4. Formation avec régularisation
7.7. Meilleures pratiques en Deep Learning
7.7.1. Transfer learning
7.7.2. Fine Tuning
7.7.3. Data Augmentation
7.8. Évaluation statistique des données
7.8.1. Nombre d'ensembles de données
7.8.2. Nombre d'étiquettes
7.8.3. Nombre d'images
7.8.4. Équilibrage des données
7.9. Deployment
7.9.1. Sauvegarde et chargement des modèles
7.9.2. Onnx
7.9.3. Inférence
7.10. Cas Pratique: Classification des Images
7.10.1. Analyse et préparation des données
7.10.2. Tester le pipeline de formation
7.10.3. Formation au modèle
7.10.4. Validation du modèle
Module 8. Détection d'objets
8.1. Détection et Suivi des Objets
8.1.1. Détection d'Objets
8.1.2. Cas d'utilisation
8.1.3. Suivi des objets
8.1.4. Cas d'utilisation
8.1.5. Occlusions, Rigid and No Rigid Poses
8.2. Mesures d'Évaluation
8.2.1. IOU - Intersection Over Union
8.2.2. Confidence Score
8.2.3. Recall
8.2.4. Précision
8.2.5. Recall - Precisión Curve
8.2.6. Mean Average Precision (MAP)
8.3. Méthodes traditionnelles
8.3.1. Sliding window
8.3.2. Viola detector
8.3.3. HOG
8.3.4. Non Maximal Supresion (NMS)
8.4. Datasets
8.4.1. Pascal VC
8.4.2. MS Coco
8.4.3. ImageNet (2014)
8.4.4. MOTA Challenge
8.5. Two Shot Object Detector
8.5.1. R-CNN
8.5.2. Fast R-CNN
8.5.3. Faster R-CNN
8.5.4. Mask R-CNN
8.6. Single Shot Object Detector
8.6.1. SSD
8.6.2. YOLO
8.6.3. RetinaNet
8.6.4. CenterNet
8.6.5. EfficientDet
8.7. Backbones
8.7.1. VGG
8.7.2. ResNet
8.7.3. Mobilenet
8.7.4. Shufflenet
8.7.5. Darknet
8.8. Object Tracking
8.8.1. Approches classiques
8.8.2. Filtres à particules
8.8.3. Kalman
8.8.4. Sort tracker
8.8.5. Deep Sort
8.9. Déploiement
8.9.1. Plateforme de Calcul
8.9.2. Choix de la Backbone
8.9.3. Choix de Framework
8.9.4. Optimisation des Modèles
8.9.5. Version du Modèle
8.10. Étude: Détection et Suivi des Personnes
8.10.1. Détection de personnes
8.10.2. Suivi des personnes
8.10.3. Ré-identification
8.10.4. Compter les personnes dans les foules
Module 9. Segmentation des Images avec Deep Learning
9.1. Détection d'Objets et Segmentation
9.1.1. Segmentation sémantique
9.1.1.1. Cas d'utilisation de la segmentation sémantique
9.1.2. Segmentation Instanciée
9.1.2.1. Cas d'utilisation de la segmentation instanciée
9.2. Mesures d'évaluation
9.2.1. Similitudes avec d'autres méthodes
9.2.2. Pixel Accuracy
9.2.3. Dice Coefficient (F1 Score)
9.3. Fonctions de coût
9.3.1. Dice Loss
9.3.2. Focal Loss
9.3.3. Tversky Loss
9.3.4. Autres fonctions
9.4. Méthodes traditionnelles de Segmentation
9.4.1. Application du seuil avec Otsu et Riddlen
9.4.2. Cartes auto-organisées
9.4.3. Algorithme GMM-EM
9.5. Segmentation Sémantique grâce à Deep Learning: FCN
9.5.1. FCN
9.5.2. Architecture
9.5.3. Applications du FCN
9.6. Segmentation sémantique grâce à Deep Learning: U-NET
9.6.1. U-NET
9.6.2. Architecture
9.6.3. Application U-NET
9.7. Segmentation sémantique grâce à Deep Learning: Deep Lab
9.7.1. Deep Lab
9.7.2. Architecture
9.7.3. Application de Deep Lab
9.8. Segmentation instanciée par Deep Learning: Mask RCNN
9.8.1. Mask RCNN
9.8.2. Architecture
9.8.3. Mise en œuvre d'un Mas RCNN
9.9. Segmentation vidéo
9.9.1. STFCN
9.9.2. Semantic Video CNNs
9.9.3. Clockwork Convnets
9.9.4. Low-Latency
9.10. Segmentation des nuages de points
9.10.1. Nuage de points
9.10.2. PointNet
9.10.3. A-CNN
Module 10. Segmentation Avancée des Images et Techniques Avancées de Vision par Ordinateur
10.1. Base de données pour les problèmes de Segmentation Générale
10.1.1. Pascal Context
10.1.2. CelebAMask-HQ
10.1.3. Cityscapes Dataset
10.1.4. CCP Dataset
10.2. Segmentation Sémantique en Médecine
10.2.1. Segmentation Sémantique en Médecine
10.2.2. Ensembles de données pour les problèmes médicaux
10.2.3. Application pratique
10.3. Outils d'annotation
10.3.1. Computer Vision Annotation Tool
10.3.2. LabelMe
10.3.3. Autres outils
10.4. Outils de Segmentation utilisant différents frameworks
10.4.1. Keras
10.4.2. Tensorflow v2
10.4.3. Pytorch
10.4.4. Autres
10.5. Projet de Segmentation sémantique. Les données, Phase 1
10.5.1. Analyse du problème
10.5.2. Source d'entrée des données
10.5.3. Analyse des données
10.5.4. Préparations des données
10.6. Projet de Segmentation sémantique. Formation, Phase 2
10.6.1. Sélection de l'algorithme
10.6.2. Entrainement
10.6.3. Évaluation
10.7. Projet de Segmentation sémantique. Résultats, Phase 3
10.7.1. Réglage fin
10.7.2. Présentation de la solution
10.7.3. Conclusions
10.8. Auto-codeurs
10.8.1. Auto-codeurs
10.8.2. Architecture d’un Autocodeur
10.8.3. Autocodeurs à Réduction de Bruit
10.8.4. Autocodeur de Coloration Automatique
10.9. Réseaux Adversariaux Génératifs (GAN)
10.9.1. Réseaux Adversariaux Génératifs (GAN)
10.9.2. Architecture du DCGAN
10.9.3. Architecture GAN Conditionnelle
10.10. Réseaux Adversoriels Génératifs Améliorés
10.10.1. Aperçu du problème
10.10.2. WGAN
10.10.3. LSGAN
10.10.4. ACGAN
Module 11. Industrie 3D
11.1. Industrie de la 3D en Animation et Jeux Vidéo
11.1.1. Animation 3D
11.1.2. Industrie de la 3D en Animation et Jeux Vidéo
11.1.3. L’Animation 3D Futur
11.2. La 3D dans les Jeux vidéo
11.2.1. Les Jeux Vidéo Limites
11.2.2. Développement d'un jeu vidéo 3D. Difficultés
11.2.3. Solutions aux difficultés dans le développement d'un jeu vidéo
11.3. Logiciel 3D dans les jeux vidéo
11.3.1. Maya. Avantages et inconvénients
11.3.2. 3Ds Max. Avantages et inconvénients
11.3.3. Blender. Avantages et inconvénients
11.4. Pipeline dans la génération d’ assets 3D pour les Jeux Vidéo
11.4.1. Idée et montage à partir d'un Modelsheet
11.4.2. Modélisation avec une faible géométrie et des détails élevés
11.4.3. Projection des détails par texture
11.5. Styles artistiques clés en 3D pour les jeux vidéo
11.5.1. Style cartoon
11.5.2. Style réaliste
11.5.3. Cel shading
11.5.4. Motion capture
11.6. Intégration 3D
11.6.1. Intégration 2d dans le monde numérique
11.6.2. Intégration 3d dans le monde numérique
11.6.3. Intégration dans le monde réel (AR, MR/XR)
11.7. Facteurs clés de la 3D pour différentes industries
11.7.1. 3D dans le cinéma et la série
11.7.2. 3D dans les jeux
11.7.3. 3D dans la publicité
11.8. Render: Render en temps réel et pré-rendu
11.8.1. Éclairage
11.8.2. Définition des ombres
11.8.3. Qualité vs. Vitesse
11.9. Génération d’ assets 3D sur 3D Max
11.9.1. Software 3D Max
11.9.2. Interface, menus, barre d'outils
11.9.3. Contrôles
11.9.4. Scène
11.9.5. Viewports
11.9.6. Basic shapes
11.9.7. Génération, modification et transformation d'objets
11.9.8. Pour créer une scène 3D
11.9.9. Modélisation 3D de Assets professionnels pour les jeux vidéo
11.9.10. Éditeurs de matériaux
11.9.10.1. Création et édition de documents
11.9.10.2. Application de la lumière aux matériaux
11.9.10.3. Commutateur UVW Map. Coordonnées de mappage
11.9.10.4. Création de textures
11.10. Organisation de l'espace de travail et bonnes pratiques
11.10.1. Création d'un projet
11.10.2. Structure du dossier
11.10.3. Fonctionnalité personnalisée
Module 12. Art et le 3D dans l'Industrie du Jeu vidéo
12.1. Projets 3D en VR
12.1.1. Logiciel de maillage 3D
12.1.2. Logiciel de retouche d'image
12.1.3. Réalité Virtuelle
12.2. Problème type, solutions et besoins du projet
12.2.1. Besoins du Projet
12.2.2. Problèmes éventuels
12.2.3. Solutions
12.3. Étude de ligne esthétique pour la génération du style artistique d'un jeu vidéo: De la conception de jeux à la génération d'art 3D
12.3.1. Choix du Destinataire du jeu vidéo. Qui voulons-nous atteindre
12.3.2. Possibilités artistiques du développeur
12.3.3. Définition finale de la ligne esthétique
12.4. Recherche de références et analyse de concurrents au niveau esthétique
12.4.1. Pinterest et pages similaires
12.4.2. Création d'un Modelsheet
12.4.3. Recherche de concurrents
12.5. Création de la bible et briefing
12.5.1. Création de la Bible
12.5.2. Développement d'une bible
12.5.3. Développement d'un briefing
12.6. Scénarios et assets
12.6.1. Planification de la production des assets aux niveaux
12.6.2. Conception des scénarios
12.6.3. Conception des assets
12.7. Intégration des assets aux niveaux et aux tests
12.7.1. Processus d'intégration aux niveaux
12.7.2. Textures
12.7.3. Dernières retouches
12.8. Personnages
12.8.1. Planification de la production de personnages
12.8.2. Conception des personnages
12.8.3. Conception de assets pour personnages
12.9. Intégration des personnages dans les scénarios et les tests
12.9.1. Processus d'intégration des personnages aux niveaux
12.9.2. Besoins du projet
12.9.3. Animations
12.10. Audio dans les jeux vidéo 3D
12.10.1. Interprétation du dossier de projet pour la génération de l'identité sonore du jeu vidéo
12.10.2. Processus de composition et de production
12.10.3. Conception de la bande son
12.10.4. Conception d'effets sonores
12.10.5. Conception de voix
Module 13. 3D Avancé
13.1. Techniques avancées de modélisation 3D
13.1.1. Configuration de l'interface
13.1.2. Observation à Modéliser
13.1.3. Modélisation haute
13.1.4. Modélisation organique pour les jeux vidéo
13.1.5. Mappage avancé des objets 3D
13.2. Texturing 3D avancé
13.2.1. Interface de Substance Painter
13.2.2. Matériaux, alphas et utilisation des pinceaux
13.2.3. Utilisation des particules
13.3. Exportation pour les logiciels 3D et Unreal Engine
13.3.1. Intégration de Unreal Engine dans les conceptions
13.3.2. Intégration de modèles 3D
13.3.3. Application de textures dans Unreal Engine
13.4. Sculpting numérique
13.4.1. Sculpting numérique avec ZBrush
13.4.2. Premiers pas dans ZBrush
13.4.3. Interface, menus et navigation
13.4.4. Images de référence
13.4.5. Modélistion complète en 3D d'un objet dans zBrush
13.4.6. Utilisation des maillages de base
13.4.7. Modélisation par morceaux
13.4.8. Exportation de modèles 3D dans zBrush
13.5. L'utilisation de Polypaint
13.5.1. Brosses avancées
13.5.2. Textures
13.5.3. Matériaux par défaut
13.6. La Rétopologie
13.6.1. Rhétopologie. Utilisation dans l'industrie du jeu vidéo
13.6.2. Création de maillage low-poly
13.6.3. Utilisation de logiciels pour la retopologie
13.7. Poses du modèle 3D
13.7.1. Visionneurs d'images de référence
13.7.2. Utilisation de transpose
13.7.3. Utilisation du transpose pour les modèles composés de différentes parties
13.8. Exportation de modèles 3D
13.8.1. Exportation de modèles 3D
13.8.2. Génération de textures pour l'exportation
13.8.3. Configuration du modèle 3d avec les différents matériaux et textures
13.8.4. Prévisualisation du modèle 3D
13.9. Techniques de travail avancées
13.9.1. Le flux de travail de la modélisation 3D
13.9.2. Organisation des flux de travail de modélisation 3D
13.9.3. Estimation de l'effort de production
13.10. Finalisation du modèle et exportation vers d'autres programmes
13.10.1. Le flux de travail pour la finalisation du modèle
13.10.2. Exporter avec Zpluging
13.10.3. Fichiers possibles. Avantages et inconvénients
Module 14. Animation 3D
14.1. Manipulation du logiciel
14.1.1. Gestion de l'information et méthodologie de travail
14.1.2. Animation
14.1.3. Timing et poids
14.1.4. Animation avec des objets de base
14.1.5. Cinématique directe et inverse
14.1.6. Cinématique inverse
14.1.7. Chaîne cinématique
14.2. Anatomie Bipède vs. quadrupède
14.2.1. BipèdeBiped vs
14.2.2. Quadrupède
14.2.3. Cycle de marche
14.2.4. Cycle de fonctionnement
14.3. Rig facial et Morpher
14.3.1. Le langage du visage. Lip-sync, yeux, concentration de l'attention
14.3.2. Montage des séquences
14.3.3. La phonétique. Importance
14.4. Animation appliquée
14.4.1. Animation 3D pour le cinéma et la télévision
14.4.2. Animation pour les jeux vidéo
14.4.3. Animation pour d'autres applications
14.5. Capture de mouvement Kinect
14.5.1. Capture de mouvement pour l'animation
14.5.2. Séquencement des mouvements
14.5.3. Intégration dans Blender
14.6. Squelette, skinning et setup
14.6.1. Interaction entre le squelette et la géométrie
14.6.2. Interpolation de maillage
14.6.3. Poids d'animation
14.7. Acting
14.7.1. Le langage du corps
14.7.2. Poser
14.7.3. Montage des séquences
14.8. Appareils photo et prises de vue
14.8.1. La caméra et l'environnement
14.8.2. Composition des plans et personnages
14.8.3. Finition
14.9. Effets visuels spéciaux
14.9.1. Effets visuels et animation
14.9.2. Types d'effets optiques
14.9.3. 3D VFX L
14.10. L'animateur en tant qu'acteur
14.10.1. Expressions
14.10.2. Références des acteurs
14.10.3. De la caméra au programme
Module 15. Maîtrise d'Unity 3D et de l'Intelligence Artificielle
15.1. Le Jeu vidéo. Unity 3D
15.1.1. Le jeu vidéo
15.1.2. LE Jeu Vidéo. Erreurs et Réussites
15.1.3. Applications du Jeu Vidéo dans d'autres domaines et industries
15.2. Développement de jeux vidéo. Unity 3D
15.2.1. Plan de production et phases de développement
15.2.2. Méthodologie de développement
15.2.3. Correctifs et contenu supplémentaire
15.3. Unity 3D
15.3.1. Unity 3D. Applications
15.3.2. Scripting dans Unity 3D
15.3.3. Asset Store et Plugins de tiers
15.4. Physique, Inputs
15.4.1. InputSystem
15.4.2. Physiques en Unity 3D
15.4.3. Animation et animateur
15.5. Prototypage dans Unity
15.5.1. Blocking et colliders
15.5.2. Prefabs
15.5.3. Scriptable Objects
15.6. Techniques de programmation spécifiques
15.6.1. Modèle Singleton
15.6.2. Chargement des ressources dans l'exécution des jeux sous Windows
15.6.3. Performance et Profiler
15.7. Jeux vidéo pour appareils mobiles
15.7.1. Jeux pour les appareils Android
15.7.2. Jeux pour les appareils IOS
15.7.3. Développements multiplateformes
15.8. Réalité Augmentée
15.8.1. Types de jeux de réalité augmentée
15.8.2. ARkit et ARcore
15.8.3. Développement de Vuforia
15.9. Programmation de l'Intelligence Artificielle
15.9.1. Algorithmes d'intelligence artificielle
15.9.2. Machines à états finis
15.9.3. Réseaux neuronaux
15.10. Distribution et Marketing
15.10.1. L'art de publier et de promouvoir un jeu vidéo
15.10.2. La personne responsable du succès
15.10.3. Stratégies
Module 16. Développement de jeux vidéo en 2D et 3D
16.1. Ressources graphiques matricielles
16.1.1. Sprites
16.1.2. Atlas
16.1.3. Textures
16.2. Développement des Interfaces et des Menus
16.2.1. Unity GUI
16.2.2. Unity UI
16.2.3. UI Toolkit
16.3. Système d'Animation
16.3.1. Courbes et Clés d'animation
16.3.2. Événements d'animation appliqués
16.3.3. Modificateurs
16.4. Matériaux et shaders
16.4.1. Composants d'un matériau
16.4.2. Types de RenderPass
16.4.3. Shaders
16.5. Particules
16.5.1. Systèmes de particules
16.5.2. Émetteurs et sous-émetteurs
16.5.3. Scripting
16.5.4. Éclairage
16.6. Modes d'éclairage
16.6.1. Baking de l'éclairage
16.6.2. Light probes
16.7. Mecanim
16.7.1. State Machines, SubState Machines et Transitions entre les animations
16.7.2. Blend trees
16.7.3. Animation Layers et IK
16.8. Finition cinématique
16.8.1. Timeline
16.8.2. Effets de post-traitement
16.8.3. Universal Render Pipeline et High Definition Render Pipeline
16.9. VFX avancé
16.9.1. VFX Graph
16.9.2. Shader Graph
16.9.3. Pipeline tools
16.10. Composants Audio
16.10.1. Audio Source et Audio Listener
16.10.2. Audio Mixer
16.10.3. Audio Spatializer
Module 17. Programmation, génération de mécaniques et techniques de prototypage de jeux vidéo
17.1. Processus technique
17.1.1. Modèles lowpoly et highpoly à Unity
17.1.2. Paramètres des matériaux
17.1.3. High Definition Render Pipeline
17.2. Design des personnages
17.2.1. Mouvement
17.2.2. Conception du collisionneur
17.2.3. Création et comportement
17.3. Importer des Skeletal Meshes a Unity
17.3.1. Exportation Skeletal Meshes à partir d'un logiciel 3D
17.3.2. Skeletal meshes dans Unity
17.3.3. Points d'ancrage pour les accessoires
17.4. Importation d'animations
17.4.1. Préparation de l'animation
17.4.2. Importation d'animations
17.4.3. Animator et transitions
17.5. Monteur d'animation
17.5.1. Création des blend spaces
17.5.2. Créer un animation montage
17.5.3. Edition d'animations en Read-Only
17.6. Création et simulation d'un Ragdoll
17.6.1. Composition d'un Ragdoll
17.6.2. Ragdoll vers un graphique d'animation
17.6.3. Démonstration d'un Ragdoll
17.7. Ressources pour la construction de personnages
17.7.1. Bibliothèques
17.7.2. Importation et exportation de documents de bibliothèque
17.7.3. Manipulation des matériaux
17.8. Équipe de travail
17.8.1. Hiérarchie et rôles de travail
17.8.2. Système de contrôle de la versions
17.8.3. Résolution des conflits
17.9. Exigences pour un développement réussi
17.9.1. La production pour le succès
17.9.2. Développement optimal
17.9.3. Exigences essentielles
17.10. Emballage pour la publication
17.10.1. Player Settings
17.10.2. Build
17.10.3. Création d'un installateur
Module 18. Développement de Jeux Vidéo Immersifs en RV
18.1. Caractère unique de la RV
18.1.1. Jeux Vidéo Traditionnels et RV. Différences
18.1.2. Motion Sickness: fluidité et effets
18.1.3. Des interactions RV uniques
18.2. Interaction
18.2.1. Événements
18.2.2. Triggers physiques
18.2.3. Monde virtuel vs réalité
18.3. Locomotion immersive
18.3.1. Téléportation
18.3.2. Arm Swinging
18.3.3. Forward movement avec Facing et sans lui
18.4. Physique de la RV
18.4.1. Objets saisissables et jetables
18.4.2. Poids et masse en RV
18.4.3. La gravité en RV
18.5. UI en RV
18.5.1. Positionnement et courbure des éléments de l'interface utilisateur
18.5.2. Modes d'interaction du menu RV
18.5.3. Meilleures pratiques pour une expérience confortable
18.6. Animation dans la RV
18.6.1. Intégration de modèles animés dans la RV
18.6.2. Objets et personnages animés vs. Objets physiques
18.6.3. Transitions animées ou procédurales
18.7. L’Avatar
18.7.1. Représentation de l'avatar à partir de vos propres yeux
18.7.2. Représentation externe de l'avatar lui-même
18.7.3. Cinématique inverse et animation procédurale appliquées à l'avatar
18.8. Audio
18.8.1. Configuration des Audio Sources et Audio Listeners pour RV
18.8.2. Effets disponibles pour une expérience plus immersive
18.8.3. Audio Spatializer RV
18.9. Optimisation dans les projets RV et AR
18.9.1. Occlusion culling
18.9.2. Static Batching
18.9.3. Paramètres de qualité et types de Render Pass
18.10. Pratique: Escape Room RV
18.10.1. Design d'expérience
18.10.2. Layout du scénario
18.10.3. Développement de la mécanique
Module 19. Audio Professionnel pour les Jeux vidéo 3d en RV
19.1. L’Audio dans les jeux vidéo professionnels 3D
19.1.1. Audio dans les jeux
19.1.2. Types de styles audio dans les jeux vidéo actuels
19.1.3. Modèles audio spatiaux
19.2. Étude préliminaire des matériaux
19.2.1. Étude de la documentation relative à la conception des jeux
19.2.2. Étude de la documentation de conception des niveaux
19.2.3. Évaluation de la complexité et de la typologie du projet de création de l'audio
19.3. Étude des références sonores
19.3.1. Liste des principales références par similitude avec le projet
19.3.2. Références audio d'autres médias pour donner au jeu vidéo son identité
19.3.3. Étude des références et élaboration de conclusions
19.4. Conception de l'identité sonore du jeu vidéo
19.4.1. Principaux facteurs influençant le projet
19.4.2. Aspects pertinents dans la composition de l'audio: instrumentation, tempo, autres
19.4.3. Définition des voix
19.5. Création de la bande sonore
19.5.1. Liste d'environnements et d'audios
19.5.2. Définition du motif, du thème et de l'instrumentation
19.5.3. Composition et test audio de prototypes fonctionnels
19.6. Création d'effets sonores (FX)
19.6.1. Effets sonores: types de FX et liste complète selon les besoins du projet
19.6.2. Définition du motif, du thème et de la création
19.6.3. Évaluation des effets sonores et essais sur des prototypes fonctionnels
19.7. Création de la voix
19.7.1. Types de voix et liste de phrases
19.7.2. Recherche et évaluation d'acteurs et actrices de doublage
19.7.3. Évaluation des enregistrements et test des voix sur des prototypes fonctionnels
19.8. Évaluation de la qualité audio
19.8.1. Élaboration de sessions d'écoute avec l'équipe de développement
19.8.2. Intégration de tous les audios dans un prototype fonctionnel
19.8.3. Test et évaluation des résultats obtenus
19.9. Exportation, formatage et importation d'audio dans le projet
19.9.1. Formats audio et compression dans les jeux vidéo
19.9.2. Exportation audio
19.9.3. Importer de l'audio dans le projet
19.10. Préparation de bibliothèques audio pour la commercialisation
19.10.1. Conception de bibliothèques sonores polyvalentes pour les professionnels du jeu vidéo
19.10.2. Sélection de l'audio par type: bande sonore, effets et voix
19.10.3. Marketing des bibliothèques d’ assets d’audio
Module 20. Production et financement de jeux vidéo
20.1. Production dans les jeux vidéo
20.1.1. Méthodologies en cascade
20.1.2. Casuistique du manque de gestion de Projet et de l'absence de plan de travail
20.1.3. Conséquences de l'absence d'un département de production dans l'industrie du jeu vidéo
20.2. L'équipe de développement
20.2.1. Départements clés lors du développement de projets
20.2.2. Les profils clés du micro-management: LEAD et SENIOR
20.2.3. Problème du manque d'expérience des profils JUNIOR
20.2.4. Mise en place d'un plan de formation pour les profils à faible expérience
20.3. Méthodologies agiles dans le développement de jeux vidéo
20.3.1. SCRUM
20.3.2. AGILE
20.3.3. Méthodes hybrides
20.4. Estimation de l'effort, du temps et des coûts
20.4.1. Le prix du développement des jeux vidéo: concepts des Coûts principaux
20.4.2. Planification des tâches: points critiques, clés et aspects à prendre en compte
20.4.3. Estimations basées sur les points d'effort VS calcul en heures
20.5. La hiérarchisation des priorités dans la planification des prototypes
20.5.1. Fixer les objectifs généraux du Projet
20.5.2. Hiérarchisation des fonctionnalités et contenus clés: ordre et besoins selon le département
20.5.3. Regroupement des fonctionnalités et des contenus en production pour constituer des livrables (prototypes fonctionnels)
20.6. Bonnes pratiques dans la production de jeux vidéo
20.6.1. Réunions, daylies, weekly meeting, réunions de fin de sprint, réunions pour vérifier les résultats des étapes ALFA, BETA y RELEASE
20.6.2. Mesure de la vitesse du Sprint
20.6.3. Détection de la démotivation et de la faible productivité et anticipation des éventuels problèmes de production
20.7. Analyse en production
20.7.1. Analyse préliminaire I: examen de la situation du marché
20.7.2. Analyse préliminaire 2: établissement des principaux points de référence du projet (concurrents directs)
20.7.3. Conclusions des analyses préliminaires
20.8. Calcul des coûts de développement
20.8.1. Ressources humaines
20.8.2. Technologie et licences
20.8.3. Coûts de développement externes
20.9. Recherche d'investissements
20.9.1. Types d'investisseurs
20.9.2. Résumé exécutif
20.9.3. Pitch deck
20.9.4. Publishers
20.9.5. Autofinancement
20.10. Élaboration de Post Mortems de projet
20.10.1. Processus d'élaboration du Post Mortem dans l'entreprise
20.10.2. Analyse des points positifs du projet
20.10.3. Étude des points négatifs du projet
20.10.4. Proposition d'amélioration sur les points négatifs du projet et conclusions

Avec le programme de cours TECH, nous vous aidons à comprendre et à analyser le monde à travers les yeux de la technologie"
Mastère Avancé en Réalité Virtuelle et Vision Industrielle
Si la création d'environnements artificiels immersifs semblait des scénarios lointains dans le temps, l'évolution accélérée de la technologie informatique a non seulement rendu l'accès à ces outils possible pour les utilisateurs, mais a également permis de les intégrer avec succès dans différents domaines tels que les jeux vidéo, l'éducation et l'architecture. Comme l'avenir de cette technologie montre un avenir prometteur, Chez TECH Université Technologique, nous avons développé le Mastère Avancé en Réalité Virtuelle et Vision Industrielle, un programme qui vous fournira les dernières connaissances disponibles dans ce domaine afin que vous puissiez vous spécialiser dans les développements les plus importants produits, la maîtrise d'outils de pointe tels que Unreal Engine et les techniques les plus avancées en matière de traitement d'images numériques 3D, entre autres aspects. De cette façon, vous serez en mesure de rejoindre les projets les plus ambitieux des entreprises consolidées et de devenir un expert de référence dans le secteur.
Spécialisez-vous en Réalité Virtuelle et Vision Artificielle
Si vos objectifs comprennent l'atteinte d'un niveau supérieur de connaissances dans l'étude de la technologie informatique, ce programme est pour vous. Chez TECH Université Technologique, vous recevrez une formation complète et de haute qualité, car nous avons le contenu le plus complet sur le marché de l'éducation, des méthodes d'apprentissage innovantes pour l'éducation en ligne et le soutien d'experts qui guideront votre processus. Ainsi, vous aurez accès à des techniques, des stratégies, des programmes et des ressources qui favoriseront l'exécution de votre travail dans la modélisation et la simulation des environnements sensoriels, tridimensionnels et artificiels. Ce Mastère Avancé est une opportunité inédite et efficace pour garantir votre croissance professionnelle.