Presentación

No dejes escapar la oportunidad de especializarte con este Grand Máster y posiciónate con ventaja para acceder a los mejores proyectos de desarrollo de Realidad Virtual” 

maestria realidad virtual vision artificial

El mercado de la realidad virtual y la visión artificial se encuentra en plena expansión, requiriendo cada vez más de profesionales con cualificaciones específicas en este campo. Tal es así, que desde hace unos años la inteligencia artificial, otra tecnología ligada, ha producido una gran revolución en el mundo digital. Así, sus aplicaciones van desde las ciencias computacionales hasta la investigación en el ámbito sanitario y el desarrollo de herramientas como vehículos, robots o videojuegos.

Por este motivo, este Grand Máster de TECH contiene todo lo esperable y exigible para el informático que quiera conducir su carrera hacia la creación y virtualización de entornos realistas o fantasiosos. En este programa desarrollará sus habilidades más avanzadas en el ámbito de la creación y virtualización de modelos 3D, al mismo tiempo que perfeccionará sus competencias en las herramientas más punteras del sector. De esta forma, tendrá una solidez suficiente para liderar los proyectos de Realidad Virtual y Visión Artificial más ambiciosos.

Asimismo, el informático analizará a lo largo de toda la titulación cómo las máquinas procesan la información visual recibida y cómo esa información se puede emplear, ya sea para mejorar la relación de la propia máquina con su propio entorno o para recoger datos de forma eficaz. El Deep Learning, campo en continuo desarrollo, se aborda en el programa desde un prisma innovador y práctico. El informático conocerá los frameworks y hardware más importantes al respecto, al igual que la aplicación del mismo en los diferentes campos de acción de la Visión Artificial.

Además, el informático disfrutará de la metodología 100% online de TECH, especialmente diseñada para que pueda compaginar este programa con toda clase de trabajos o responsabilidades, puesto que se adapta a sus circunstancias personales. Esto le permite la flexibilidad de cursar esta titulación sin horarios fijos ni asistencia obligatoria a centros físicos. Así, tiene la libertad de distribuir el contenido didáctico según sus propias obligaciones personales, pues todo el material se puede descargar desde cualquier dispositivo con acceso a internet.

Anticípate a los demás y matricúlate en esta titulación para ser un auténtico experto en las tecnologías que están cambiando el mundo actual”

##Este/Esta## ##ESTUDIO## en Realidad Virtual y Visión Artificial contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:

  • El desarrollo de casos prácticos presentados por expertos en Realidad Virtual y Visión Artificial
  • Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que están concebidos recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional
  • Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje
  • Su especial hincapié en metodologías innovadoras en realidad virtual, animación 3D y visión artificial
  • Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual
  • La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet

Profundiza en la Inteligencia Artificial y el Deep Learning para convertirte en toda una referencia en el ámbito de la Visión Artificial, aprovechando las herramientas tecnológicas más avanzadas del sector”

Incluye en su cuadro docente a profesionales pertenecientes al ámbito de la informática, que vierten en este programa la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio.

Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará un estudio inmersivo programado para entrenarse ante situaciones reales.

El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el alumno deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, el profesional contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.

No te quedes atrás y conoce todas las novedades de la Realidad Virtual y Visión Artificial, dando un paso decisivo en tu trayectoria profesional al incorporar este Grand Máster en tu CV”

magister realidad virtual vision artificial

Únete a los proyectos más ambiciosos de empresas consolidadas como Valve, Microsoft, Google, Ubisoft o Samsung”

Temario

Los contenidos de este Grand Máster han sido diseñados por grandes expertos internacionales en la materia, garantizando al informático el acceso a conocimientos altamente especializados y actualizados que le colocarán como una referencia del sector. En este programa podrá profundizar en aspectos como la Visión Artificial para el estudio del espacio y para análisis de contenido, en la búsqueda de patrones y códigos, así como en todos los campos relativos a la animación e informática 3D en entornos de realidad virtual, con temas y subtemas dedicados a las principales herramientas, métodos de trabajo, recursos digitales y formas de organización de equipos.

mejor maestria realidad virtual vision artificial

Accede a una biblioteca de contenidos de alta calidad, que profundizan con videos en detalle, casos simulados y lecturas complementarias en el amplio mundo de la Realidad Virtual y Visión Artificial”

Módulo 1. Visión artificial

1.1. Percepción humana 

1.1.1. Sistema visual humano 
1.1.2. El color 
1.1.3. Frecuencias visibles y no visibles 

1.2. Crónica de la Visión Artificial

1.2.1. Principios 
1.2.2. Evolución 
1.2.3. La importancia de la visión artificial 

1.3. Composición de imágenes digitales 

1.3.1. La Imagen digital 
1.3.2. Tipos de imágenes 
1.3.3. Espacios de color 
1.3.4. RGB 
1.3.5. HSV y HSL 
1.3.6. CMY-CMYK 
1.3.7. YCbCr 
1.3.8. Imagen indexada 

1.4. Sistemas de captación de imágenes

1.4.1. Funcionamiento de una cámara digital 
1.4.2. La correcta exposición para cada situación 
1.4.3. Profundidad de campo 
1.4.4. Resolución 
1.4.5. Formatos de imagen 
1.4.6. Modo HDR 
1.4.7. Cámaras de alta resolución 
1.4.8. Cámaras de alta velocidad 

1.5. Sistemas Ópticos 

1.5.1. Principios ópticos 
1.5.2. Objetivos convencionales 
1.5.3. Objetivos telecéntricos 
1.5.4. Tipos de autoenfoque 
1.5.5. Distancia focal 
1.5.6. Profundidad de campo 
1.5.7. Distorsión óptica 
1.5.8. Calibración de una imagen 

1.6. Sistemas de iluminación 

1.6.1. Importancia de la iluminación 
1.6.2. Respuesta frecuencial 
1.6.3. Iluminación Led 
1.6.4. Iluminación en exteriores 
1.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos 

1.7. Sistemas Captación 3D 

1.7.1. Estéreo Visión 
1.7.2. Triangulación 
1.7.3. Luz estructurada 
1.7.4. Time of Flight 
1.7.5. Lidar 

1.8. Multiespectro 

1.8.1. Cámaras Multiespectrales 
1.8.2. Cámaras Hiperespectrales 87

1.9. Espectro cercano No visible 

1.9.1. Cámaras IR 
1.9.2. Cámaras UV 
1.9.3. Convertir de No visible a Visible gracias a la iluminación 

1.10. Otras bandas del espectro 

1.10.1. Rayos X 
1.10.2. Teraherzios 

Módulo 2. Aplicaciones y estado del arte

2.1. Aplicaciones industriales 

2.1.1. Librerías de visión industrial 
2.1.2. Cámaras compactas 
2.1.3. Sistemas basados en PC 
2.1.4. Robótica industrial 
2.1.5. Pick and place 2D 
2.1.6. Bin picking 
2.1.7. Control de calidad 
2.1.8. Presencia ausencia de componentes 
2.1.9. Control dimensional 
2.1.10. Control etiquetaje 
2.1.11. Trazabilidad 

2.2. Vehículos autónomos 

2.2.1. Asistencia al conductor 
2.2.2. Conducción autónoma 

2.3. Visión Artificial para Análisis de Contenidos 

2.3.1. Filtro por contenido 
2.3.2. Moderación de contenido visual 
2.3.3. Sistemas de seguimiento 
2.3.4. Identificación de marcas y logos 
2.3.5. Etiquetación y clasificación de videos 
2.3.6. Detección de cambios de escena 
2.3.7. Extracción de textos o créditos 

2.4. Aplicaciones médicas 

2.4.1. Detección y localización de enfermedades 
2.4.2. Cáncer y Análisis de radiografías 
2.4.3. Avances en visión artificial dada la COVID-19 
2.4.4. Asistencia en el quirófano

2.5. Aplicaciones espaciales 

2.5.1. Análisis de imagen por satélite 
2.5.2. Visión artificial para el estudio del espacio 
2.5.3. Misión a Marte 

2.6. Aplicaciones comerciales 

2.6.1. Control stock 
2.6.2. Videovigilancia, seguridad en casa 
2.6.3. Cámaras aparcamiento 
2.6.4. Cámaras control población 
2.6.5. Cámaras velocidad 

2.7. Visión Aplicada a la Robótica 

2.7.1. Drones 
2.7.2. AGV 
2.7.3. Visión en robots colaborativos 
2.7.4. Los ojos de los robots 

2.8. Realidad Aumentada 

2.8.1. Funcionamiento 
2.8.2. Dispositivos 
2.8.3. Aplicaciones en la industria 
2.8.4. Aplicaciones comerciales 

2.9. Cloud computing 

2.9.1. Plataformas de Cloud Computing 
2.9.2. Del Cloud Computing a la producción

2.10. Investigación y Estado del Arte 

2.10.1. La comunidad científica 
2.10.2. Qué se está cociendo 
2.10.3. El futuro de la visión artificial 

Módulo 3. Procesado digital de imágenes 

3.1. Entorno de desarrollo en Visión por Computador 

3.1.1. Librerías de Visión por Computador 
3.1.2. Entorno de programación 
3.1.3. Herramientas de visualización 

3.2. Procesamiento digital de imágenes 

3.2.1. Relaciones entre pixeles 
3.2.2. Operaciones con imágenes 
3.2.3. Transformaciones geométricas 

3.3. Operaciones de pixeles 

3.3.1. Histograma 
3.3.2. Transformaciones a partir de histograma 
3.3.3. Operaciones en imágenes en color 

3.4. Operaciones lógicas y aritméticas 

3.4.1. Suma y resta 
3.4.2. Producto y División 
3.4.3. And / Nand 
3.4.4. Or / Nor 
3.4.5. Xor / Xnor 

3.5. Filtros 

3.5.1. Máscaras y Convolución 
3.5.2. Filtrado lineal 
3.5.3. Filtrado no lineal 
3.5.4. Análisis de Fourier

3.6. Operaciones morfológicas 

3.6.1. Erode and Dilating 
3.6.2. Closing and Open 
3.6.3. Top_hat y Black hat 
3.6.4. Detección de contornos 
3.6.5. Esqueleto 
3.6.6. Relleno de agujeros 
3.6.7. Convex hull 

3.7. Herramientas de análisis de imágenes 

3.7.1. Detección de bordes 
3.7.2. Detección de blobs 
3.7.3. Control dimensional 
3.7.4. Inspección de color

3.8. Segmentación de objetos 

3.8.1. Segmentación de imágenes 
3.8.2. Técnicas de segmentación clásicas 
3.8.3. Aplicaciones reales 

3.9. Calibración de imágenes 

3.9.1. Calibración de imagen 
3.9.2. Métodos de calibración 
3.9.3. Proceso de calibración en un sistema cámara 2D/robot 

3.10. Procesado de imágenes en entorno real 

3.10.1. Análisis de la problemática 
3.10.2. Tratamiento de la imagen 
3.10.3. Extracción de características 
3.10.4. Resultados finales 

Módulo 4. Procesado digital de imágenes avanzado

4.1. Reconocimiento óptico de caracteres (OCR) 

4.1.1. Preprocesado de la imagen 
4.1.2. Detección de texto 
4.1.3. Reconocimiento de texto 

4.2. Lectura de códigos 

4.2.1. Códigos 1D 
4.2.2. Códigos 2D 
4.2.3. Aplicaciones 

4.3. Búsqueda de patrones 

4.3.1. Búsqueda de patrones 
4.3.2. Patrones basados en nivel de gris 
4.3.3. Patrones basados en contornos 
4.3.4. Patrones basados en formas geométricas 
4.3.5. Otras técnicas

4.4. Seguimiento de objetos con visión convencional 

4.4.1. Extracción de fondo 
4.4.2. Meanshift 
4.4.3. Camshift 
4.4.4. Optical flow 

4.5. Reconocimiento facial 

4.5.1. Facial Landmark detection 
4.5.2. Aplicaciones 
4.5.3. Reconocimiento facial 
4.5.4. Reconocimiento de emociones

4.6. Panorámica y alineaciones 

4.6.1. Stitching 
4.6.2. Composición de imágenes 
4.6.3. Fotomontaje 

4.7. High Dinamic Range (HDR) and Photometric Stereo 

4.7.1. Incremento del rango dinámico 
4.7.2. Composición de imágenes para mejorar contornos 
4.7.3. Técnicas para el uso de aplicaciones en dinámico 

4.8. Compresión de imágenes 

4.8.1. La compresión de imágenes 
4.8.2. Tipos de compresores 
4.8.3. Técnicas de compresión de imágenes 

4.9. Procesado de video 

4.9.1. Secuencias de imágenes 
4.9.2. Formatos y códecs de video 
4.9.3. Lectura de un video
4.9.4. Procesado del fotograma 

4.10. Aplicación real de Procesado de Imágenes 

4.10.1. Análisis de la problemática 
4.10.2. Tratamiento de la imagen 
4.10.3. Extracción de características 
4.10.4. Resultados finales 

Módulo 5. Procesado de imágenes 3D

5.1. Imagen 3D 

5.1.1. Imagen 3D 
5.1.2. Software de procesado de imágenes 3D y Visualizaciones 
5.1.3. Software de Metrología

5.2. Open3D 

5.2.1. Librería para Proceso de Datos 3D 
5.2.2. Características 
5.2.3. Instalación y Uso 

5.3. Los datos 

5.3.1. Mapas de profundidad en imagen 2D 
5.3.2. Pointclouds 
5.3.3. Normales 
5.3.4. Superficies

5.4. Visualización 

5.4.1. Visualización de Datos 
5.4.2. Controles 
5.4.3. Visualización Web 

5.5. Filtros 

5.5.1. Distancia entre puntos, eliminar Outliers 
5.5.2. Filtro paso alto 
5.5.3. Downsampling 

5.6. Geometría y extracción de características 

5.6.1. Extracción de un perfil 
5.6.2. Medición de profundidad 
5.6.3. Volumen 
5.6.4. Formas geométricas 3D 
5.6.5. Planos 
5.6.6. Proyección de un punto 
5.6.7. Distancias geométricas 
5.6.8. Kd Tree 
5.6.9. Features 3D 

5.7. Registro y Meshing 

5.7.1. Concatenación 
5.7.2. ICP 
5.7.3. Ransac 3D 

5.8. Reconocimiento de objetos 3D 

5.8.1. Búsqueda de un objeto en la escena 3D
5.8.2. Segmentación 
5.8.3. Bin picking 

5.9. Análisis de superficies 

5.9.1. Smoothing 
5.9.2. Superficies orientables 
5.9.3. Octree 

5.10. Triangulación 

5.10.1. De Mesh a Point Cloud 
5.10.2. Triangulación de mapas de profundidad 
5.10.3. Triangulación de PointClouds no ordenados 

Módulo 6. Deep learning

6.1. Inteligencia artificial 

6.1.1. Machine Learning 
6.1.2. Deep Learning 
6.1.3. La explosión del Deep Learning. Por qué ahora

6.2. Redes neuronales 

6.2.1. La red neuronal 
6.2.2. Usos de las redes neuronales 
6.2.3. Regresión lineal y Perceptron 
6.2.4. Forward propagation 
6.2.5. Backpropagation 
6.2.6. Feature vectors 

6.3. Loss Functions 

6.3.1. Loss function 
6.3.2. Tipos de loss functions 
6.3.3. Elección de la loss function 

6.4. Funciones de activación 

6.4.1. Función de activación 
6.4.2. Funciones lineales 
6.4.3. Funciones no lineales 
6.4.4. Output vs. Hidden layer activation functions 

6.5. Regularización y Normalización 

6.5.1. Regularización y Normalización 
6.5.2. Overfitting and Data Augmentation 
6.5.3. Regularization methods: L1, L2 and dropout 
6.5.4. Normalization methods: Batch, Weight, Layer

6.6. Optimización 

6.6.1. Gradient Descent 
6.6.2. Stochastic Gradient Descent 
6.6.3. Mini Batch Gradient Descent 
6.6.4. Momentum 
6.6.5. Adam 

6.7. Hyperparameter Tuning y Pesos 

6.7.1. Los hiperparámetros 
6.7.2. Batch Size vs. Learning Rate vs. Step Decay 
6.7.3. Pesos 

6.8. Métricas de evaluación de una red neuronal 

6.8.1. Accuracy 
6.8.2. Dice coefficient 
6.8.3. Sensitivity vs. Specificity / Recall vs. precision 
6.8.4. Curva ROC (AUC) 
6.8.5. F1-score 
6.8.6. Confusion matrix 
6.8.7. Cross-validation 

6.9. Frameworks y Hardware

6.9.1. Tensor Flow 
6.9.2. Pytorch 
6.9.3. Caffe 
6.9.4. Keras 
6.9.5. Hardware para la Fase de Entrenamiento

6.10. Creación de una Red Neuronal-Entrenamiento y Validación 

6.10.1. Dataset 
6.10.2. Construcción de la red 
6.10.3. Entrenamiento 
6.10.4. Visualización de resultados

Módulo 7. Redes Convolucionales y Clasificación de Imágenes 

7.1. Redes neuronales convolucionales

7.1.1. Introducciónn 
7.1.2. La convolución
7.1.3. CNN Building Blocks

7.2. Tipos de capas CNN 

7.2.1. Convolutional 
7.2.2. Activation 
7.2.3. Batch normalization 
7.2.4. Polling 
7.2.5. Fully connected 

7.3. Métricas 

7.3.1. Confusion Matrix 
7.3.2. Accuracy 
7.3.3. Precision 
7.3.4. Recall 
7.3.5. F1 Score 
7.3.6. ROC Curve 
7.3.7. AUC 

7.4. Principales Arquitecturas

7.4.1.AlexNet 
7.4.2. VGG 
7.4.3. Resnet 
7.4.4. GoogleLeNet 

7.5. Clasificación de Imágenes 

7.5.1. Introducción 
7.5.2. Análisis de los datos 
7.5.3. Preparación de los datos 
7.5.4. Entrenamiento del modelo 
7.5.5. Validación del modelo 

7.6. Consideraciones prácticas para el entrenamiento de CNN 

7.6.1. Selección de optimizador 
7.6.2. Learning Rate Scheduler 
7.6.3. Comprobar pipeline de entrenamiento 
7.6.4. Entrenamiento con regularización 

7.7. Buenas prácticas en Deep Learning 

7.7.1. Transfer learning 
7.7.2. Fine Tuning 
7.7.3. Data Augmentation 

7.8. Evaluación estadística de datos 

7.8.1. Número de datasets 
7.8.2. Número de etiquetas 
7.8.3. Número de imágenes 
7.8.4. Balanceo de datos 

7.9. Deployment 

7.9.1. Guardando y cargando modelos 
7.9.2. Onnx 
7.9.3. Inferencia 

7.10. Caso Práctico: Clasificación de Imágenes 

7.10.1. Análisis y preparación de los datos 
7.10.2. Testeo del pipeline de entrenamiento 
7.10.3. Entrenamiento del modelo 
7.10.4. Validación del modelo 

Módulo 8. Detección de objetos

8.1. Detección y Seguimiento de Objetos 

8.1.1. Detección de Objetos 
8.1.2. Casos de uso 
8.1.3. Seguimiento de objetos 
8.1.4. Casos de uso 
8.1.5. Oclusiones, Rigid and No Rigid Poses 

8.2. Métricas de Evaluación

8.2.1. IOU - Intersection Over Union 
8.2.2. Confidence Score 
8.2.3. Recall 
8.2.4. Precisión 
8.2.5. Recall-Precisión Curve 
8.2.6. Mean Average Precision (mAP)

8.3. Métodos tradicionales 

8.3.1. Sliding window 
8.3.2. Viola detector 
8.3.3. HOG 
8.3.4. Non Maximal Supresion (NMS) 

8.4. Datasets

8.4.1. Pascal VC 
8.4.2. MS Coco 
8.4.3. ImageNet (2014) 
8.4.4. MOTA Challenge 

8.5. Two Shot Object Detector 

8.5.1. R-CNN 
8.5.2. Fast R-CNN 
8.5.3. Faster R-CNN 
8.5.4. Mask R-CNN 

8.6. Single Shot Object Detector 

8.6.1. SSD 
8.6.2. YOLO 
8.6.3. RetinaNet 
8.6.4. CenterNet 
8.6.5. EfficientDet

8.7. Backbones 

8.7.1. VGG 
8.7.2. ResNet 
8.7.3. Mobilenet 
8.7.4. Shufflenet 
8.7.5. Darknet 

8.8. Object Tracking 

8.8.1. Enfoques clásicos 
8.8.2. Filtros de partículas 
8.8.3. Kalman 
8.8.4. Sort tracker 
8.8.5. Deep Sort

8.9. Despliegue 

8.9.1. Plataforma de Computación 
8.9.2. Elección del Backbone 
8.9.3. Elección del Framework 
8.9.4. Optimización de Modelos 
8.9.5. Versionado de Modelos 

8.10. Estudio: Detección y Seguimiento de Personas 

8.10.1. Detección de personas 
8.10.2. Seguimiento de personas 
8.10.3. Reidentificación 
8.10.4. Conteo de personas en multitudes 

Módulo 9. Segmentación de Imágenes con Deep Learning

9.1. Detección de Objetos y Segmentación

9.1.1. Segmentación semántica

9.1.1.1. Casos de uso de segmentación semántica

9.1.2. Segmentación Instanciada 

9.1.2.1. Casos de uso segmentación instanciada

9.2. Métricas de evaluación 

9.2.1. Similitudes con otros métodos 
9.2.2. Pixel Accuracy 
9.2.3. Dice Coefficient (F1 Score)

9.3. Funciones de coste 

9.3.1. Dice Loss 
9.3.2. Focal Loss 
9.3.3. Tversky Loss 
9.3.4. Otras funciones 

9.4. Métodos tradicionales de Segmentación 

9.4.1. Aplicación de umbral con Otsu y Riddlen 
9.4.2. Mapas auto organizados 
9.4.3. GMM-EM algorithm 

9.5. Segmentación Semántica aplicando Deep Learning: FCN 

9.5.1. FCN 
9.5.2. Arquitectura 
9.5.3. Aplicaciones de FCN 

9.6. Segmentación semántica aplicando Deep Learning: U-NET 

9.6.1. U-NET 
9.6.2. Arquitectura 
9.6.3. Aplicación U-NET 

9.7. Segmentación semántica aplicando Deep Learning: Deep Lab 

9.7.1. Deep Lab 
9.7.2. Arquitectura 
9.7.3. Aplicación de Deep Lab 

9.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN 

9.8.1. Mask RCNN 
9.8.2. Arquitectura 
9.8.3. Aplicación de un Mas RCNN 

9.9. Segmentación en videos 

9.9.1. STFCN 
9.9.2. Semantic Video CNNs 
9.9.3. Clockwork Convnets 
9.9.4. Low-Latency 

9.10. Segmentación en nubes de puntos 

9.10.1. La nube de puntos 
9.10.2. PointNet 
9.10.3. A-CNN 

Módulo 10. Segmentación de Imágenes Avanzada y Técnicas Avanzadas de Visión por Computador

10.1. Base de datos para problemas de Segmentación General

10.1.1. Pascal Context 
10.1.2. CelebAMask-HQ 
10.1.3. Cityscapes Dataset 
10.1.4. CCP Dataset

10.2. Segmentación Semántica en la Medicina 

10.2.1. Segmentación Semántica en la Medicina 
10.2.2. Datasets para problemas médicos 
10.2.3. Aplicación práctica 

10.3. Herramientas de anotación 

10.3.1. Computer Vision Annotation Tool 
10.3.2. LabelMe 
10.3.3. Otras herramientas 

10.4. Herramientas de Segmentación usando diferentes frameworks 

10.4.1. Keras 
10.4.2. Tensorflow v2 
10.4.3. Pytorch 
10.4.4. Otros

10.5. Proyecto Segmentación semántica. Los datos, Fase 1

10.5.1. Análisis del problema 
10.5.2. Fuente de entrada para datos 
10.5.3. Análisis de datos 
10.5.4. Preparación de datos

10.6. Proyecto Segmentación semántica. Entrenamiento, Fase 2 

10.6.1. Selección del algoritmo 
10.6.2. Entrenamiento 
10.6.3. Evaluación

10.7. Proyecto Segmentación semántica. Resultados, Fase 3

10.7.1. Ajuste fino 
10.7.2. Presentación de la solución 
10.7.3. Conclusiones

10.8. Autocodificadores 

10.8.1. Autocodificadores 
10.8.2. Arquitectura de un Autocodificador 
10.8.3. Autocodificadores de Eliminación de Ruido 
10.8.4. Autocodificador de Coloración Automática 

10.9. Las Redes Generativas Adversariales (GAN)

10.9.1. Redes Generativas Adversariales (GAN) 
10.9.2. Arquitectura DCGAN  
10.9.3. Arquitectura GAN Condicionada 

10.10. Redes Generativas Adversariales Mejoradas 

10.10.1. Visión general del problema 
10.10.2. WGAN 
10.10.3. LSGAN 
10.10.4. ACGAN

Módulo 11. Informática gráfica 3D

11.1. Entorno 3D 

11.1.1. Programa 3D 
11.1.2. Comparativa entre programas 
11.1.3. 3D: arte o tecnología

11.2. Tendencias en 3D: realismo o cartoon 

11.2.1. Tendencias realistas 
11.2.2. Tendencias cartoon 
11.2.3. Estética realista vs. Estética cartoon 

11.3. El mundo real y el mundo virtual 

11.3.1. 3D aplicado al mundo real 
11.3.2. 3D aplicado al mundo virtual  
11.3.3. Creación de un mundo virtual o un mundo real 

11.4. 3D para producción de videojuegos, producción de cine y publicidad 

11.4.1. 3D para videojuegos 
11.4.2. 3D para producción de cine 
11.4.3. 3D para publicidad 

11.5. La interfaz de 3D Max 

11.5.1. La escena 3D 
11.5.2. Interfaz general 
11.5.3. Modificación o transformación de objetos 
11.5.4. Creación de una escena y un objeto en 3D

11.6. Interfaz y terminología 

11.6.1. Los viewports 
11.6.2. La barra de menús 
11.6.3. La barra de herramientas principal 
11.6.4. Los controles 

11.7. Modelado 3D 

11.7.1. El modelado 3D 
11.7.2. Programas especializados más utilizados 
11.7.3. Aplicaciones de diseño gráfico  
11.7.4. Motores de render

11.8. Aplicación de los materiales a los diferentes modelos 

11.8.1. Editores de materiales 
11.8.2. Creación y edición de materiales  
11.8.3. Aplicación de la luz a los materiales 
11.8.4. Modificador UVW Map. Coordenadas de mapeado 
11.8.5. Creación de texturas 

11.9. Utilización de la informática gráfica para el mercado laboral actual

11.9.1. Tendencias en el mercado laboral actual 
11.9.2. Últimas aplicaciones 
11.9.3. Utilización de la infografía

11.10. Organización del trabajo 

11.10.1. Creación de un proyecto  
11.10.2. Estructura de carpetas 
11.10.3. Funcionalidad personalizada 

Módulo 12. Modelado 3D avanzado

12.1. Técnicas avanzadas de modelado 3D 

12.1.1. Configuración de la interfaz 
12.1.2. La importancia de observar para modelar 
12.1.3. Modelado en alta 
12.1.4. Modelado orgánico para videojuegos 
12.1.5. Mapeado avanzado de objetos 3D

12.2. Texturing 3D avanzado 

12.2.1. Interfaz de Substance Painter 
12.2.2. Materiales, alphas y el uso de pinceles 
12.2.3. Uso de partículas

12.3. Integración con software 3D y Unreal Engine 

12.3.1. Integración de Unreal Engine en los diseños 
12.3.2. Integración de modelos 3D

12.4. Sculpting digital

12.4.1. Sculpting digital con ZBrush 
12.4.2. Configuración de la interfaz y atajos 

12.5. Modelado en ZBrush

12.5.1. Atajos de teclado 
12.5.2. Manejo de las imágenes de referencia  
12.5.3. Modelado por piezas  
12.5.4. Modelado con una malla base 
12.5.5. Estudio de la musculatura humana y animal

12.6. El uso de Polypaint  

12.6.1. Pinceles avanzados 
12.6.2. Texturas 
12.6.3. Materiales por defecto

12.7. La retopología

12.7.1. La retopología. Usos 
12.7.2. Creación de malla low-poly 
12.7.3. Uso del software para la retopología

12.8. Posados de los modelos 3D

12.8.1. Visualizadores de imágenes de referencia 
12.8.2. Utilización de transpose  
12.8.3. Uso del transpose para modelos compuestos por diferentes piezas 

12.9. La exportación de modelos 3D

12.9.1. Exportación de modelos 3D 
12.9.2. Generación de texturas para la exportación 
12.9.3. Configuración del modelo 3d con los diferentes materiales y texturas  
12.9.4. Previsualización del modelo 3D

12.10. Técnicas avanzadas de trabajo 

12.10.1. El flujo de trabajo 
12.10.2. Organización de los procesos 
12.10.3. Timing de producción 

Módulo 13. Animación y simulación avanzada 

13.1. Manejo del software  

13.1.1. Manejo de información y metodología de trabajo 
13.1.2. La animación 
13.1.3. Timing y peso  
13.1.4. Animación con objetos básicos

13.2. Cinemática directa e inversa 

13.2.1. Cinemática inversa 
13.2.2. Cadena cinemática 

13.3. Anatomía. Bípedo vs. Cuadrúpedo 

13.3.1. Bípedo. Sencillez y utilidad 
13.3.2. Cuadrúpedo. Sencillez y utilidad 
13.3.3. Ciclo de caminar 
13.3.4. Ciclo de correr

13.4. Rig facial y Morpher 

13.4.1. Lenguaje facial. Lip-sync, ojos, focos de atención 
13.4.2. Edición de secuencias

13.5. Animación aplicada 

13.5.1. Animación 3D. para cine y televisión 
13.5.2. Animación para videojuegos 
13.5.3. Animación para otras aplicaciones 

13.6. Captura de movimiento con Kinect 

13.6.1. Captura de movimientos para animación 
13.6.2. Secuencia de movimientos 
13.6.3. Integración en Blender

13.7. Esqueleto, skinning y setup  

13.7.1. Interacción entre esqueleto y geometría 
13.7.2. Interpolación de mallas 
13.7.3. Pesos de animación

13.8. Acting 

13.8.1. El lenguaje corporal 
13.8.2. Las poses 
13.8.3. Edición de secuencias

13.9. El plano 

13.9.1. La cámara y el entorno 
13.9.2. Composición del plano y los personajes 
13.9.3. Acabados 

13.10. Efectos visuales  

13.10.1. Los efectos visuales y la animación 
13.10.2. Tipos de efectos ópticos 
13.10.3. 3D VFX L

Módulo 14. Desarrollo creativo y conceptual. Briefing de proyectos

14.1. Desarrollo de la idea

14.1.1. Idea general
14.1.2. DAFO (debilidades, amenazas, fortalezas y oportunidades)
14.1.3. Anticipación de problemas, soluciones y necesidades del proyecto

14.2. Escenarios y assets

14.2.1. Diseño de los escenarios
14.2.2. Diseño de los assets
14.2.3. Interacción con los niveles
14.2.4. Planificación de producción

14.3. Personajes

14.3.1. Diseño de los personajes
14.3.2. Diseño de todos los assets de los personajes
14.3.3. Interacción con los niveles
14.3.4. Planificación de producción

14.4. Desarrollo del argumento

14.4.1. Descripción general del juego/app
14.4.2. Asignación de objetivos por niveles
14.4.3. Creación de la biblia y briefing para desarrolladores

14.5. Objetivos

14.5.1. Público objetivo
14.5.2. Posicionamiento del proyecto
14.5.3. Detección de posibles competidores

14.6. Diseño del plan de trabajo y producción

14.6.1. Work flow
14.6.2. Nomenclatura de archivos y sistema de carpetas
14.6.3. Elección de herramientas de trabajo
14.6.4. Recursos necesarios
14.6.5. Timing
14.6.6. Costes

14.7. Música y sound effects

14.7.1. Diseño de sonido
14.7.2. Diseño de efectos
14.7.3. Composición y producción

14.8. Producción

14.8.1. Inicio de producción
14.8.2. Supervisión y control de calidad
14.8.3. Primera built para test

14.9. Test and debug

14.9.1. Pruebas internas
14.9.2. Pruebas de laboratorio y/o muestra universal
14.9.3. Test con cliente

14.10. Lanzamiento beta

14.10.1. Primera built
14.10.2. Publicación en soportes y canales de venta
14.10.3. Lanzamiento (comunicación, plan de medios)
14.10.4. Servicio posventa

Módulo 15. Desarrollo de videojuegos

15.1. El videojuego

15.1.1. El videojuego
15.1.2. Errores y aciertos de la historia del videojuego
15.1.3. Aplicaciones en otras áreas e industrias

15.2. Desarrollo de los videojuegos

15.2.1. Plan de producción y fases de desarrollo
15.2.2. Metodología de desarrollo

15.3. Unity 3D

15.3.1. Unity 3D. Aplicaciones
15.3.2. Scripting en Unity 3D
15.3.3. Mercado de assets

15.4. Físicas, inputs y otros aspectos

15.4.1. Físicas en Unity 3D
15.4.2. Particle system
15.4.3. Animation y animator

15.5. Programación de comportamientos físicos

15.5.1. Uso y desarrollo de motores físicos
15.5.2. Uso concreto de motores profesionales
15.5.3. PhysX

15.6. Técnicas de programación específicas

15.6.1. Lenguajes de script
15.6.2. Carga de recursos en la ejecución de juegos en Windows
15.6.3. Rendimiento

15.7. Videojuegos para dispositivos móviles

15.7.1. Desarrollos multiplataforma
15.7.2. Juegos para dispositivos IOS
15.7.3. Juegos para dispositivos Android

15.8. Realidad aumentada

15.8.1. Tipos de juegos de realidad aumentada
15.8.2. ARkit y ARcore
15.8.3. Desarrollo Vuforia

15.9. Programación de inteligencia artificial

15.9.1. Lenguajes de script
15.9.2. Matemáticas y algoritmos de inteligencia artificial
15.9.3. Redes neuronales

15.10. Distribución y marketing

15.10.1. El arte de publicar y promocionar un videojuego
15.10.2. El responsable del éxito
15.10.3. Estrategias

Módulo 16. Unreal Engine avanzado

16.1. Programación en Unreal

16.1.1. Unreal y Blueprints
16.1.2. Programación en C++
16.1.3. Uso de modelos 3D y animaciones
16.1.4. Inteligencia artificial

16.2. Construcción avanzada de niveles

16.2.1. Montaje de un nivel mediante módulos
16.2.2. Importación de assets
16.2.3. Configuración para controles del jugador

16.3. Iluminación en Unreal Engine

16.3.1. Preparación del entorno para iluminación
16.3.2. Tipos de luces: point lights, spot lights, directional lights y skylights
16.3.3. Lightmaps
16.3.4. Luces estáticas y dinámicas
16.3.5. Ajustes de resolución

16.4. Shaders Complejos

16.4.1. Materiales opacos y con transparencia
16.4.2. Reflexiones estáticas y dinámicas
16.4.3. Blending de materiales
16.4.4. Materiales especiales

16.5. El uso de Blueprints

16.5.1. Blueprints. Lógica de programación
16.5.2. Creación de controles de movimiento
16.5.3. Creación de objetos interactivos

16.6. Creación de cámaras

16.6.1. Tipos de cámaras
16.6.2. Propiedades de las cámaras
16.6.3. Cámaras jugables y cinemáticas

16.7. Efectos post processing

16.7.1. Retoque de imagen
16.7.2. Efectos: luz, sombreado, desenfoque
16.7.3. Profundidad de campo

16.8. Juegos multijugador

16.8.1. Juegos en red
16.8.2. Desarrollo de juegos en red multijugador
16.8.3. Resolución de problemas de conectividad

16.9. Producción

16.9.1. Proceso de desarrollo
16.9.2. Organización del equipo
16.9.3. Planificación y metodologías

16.10. Desarrollo de videojuegos y equipos implicados

16.10.1. Colaboración con diseñadores
16.10.2. Elaboración del concepto y diseño
16.10.3. Productores y distribuidores

Módulo 17. Unity 3D Avanzado

17.1. Proceso técnico

17.1.1. Creación y optimización de personajes
17.1.2. Aplicación de retopologías avanzadas
17.1.3. Transferencias de alta poligonización
17.1.4. Fotometría

17.2. Diseño de personajes

17.2.1. Destrezas
17.2.2. Técnicas de anatomía
17.2.3. Creación y comportamiento

17.3. Exportación de skeletal meshes e importación en Unreal

17.3.1. Exportación skeletal meshes del software de 3D
17.3.2. Importación skeletal meshes en unreal
17.3.3. Optimización

17.4. Importación de animaciones

17.4.1. Preparación de animación
17.4.2. Importación de animaciones
17.4.3. Resolución de errores en la importación

17.5. Editor de animaciones

17.5.1. Creación de blend spaces
17.5.2. Creación de animation montage
17.5.3. Creación de notifies para generar eventos en una animación
17.5.4. Creación de shokets para vincular con objetos o partículas

17.6. Físicas aplicadas a un personaje u objeto

17.6.1. Física 3D en Unity
17.6.2. Dotación de realismo al personaje
17.6.3. Las leyes físicas

17.7. Creación y simulación de un ragdoll Physx

17.7.1. Configuración de un ragdoll
17.7.2. Ragdoll a un gráfico de animación
17.7.3. Simulación de un ragdoll

17.8. Recursos para la creación de personajes

17.8.1. Bibliotecas
17.8.2. Importación y exportación de materiales de bibliotecas
17.8.3. Manipulación de materiales

17.9. Equipos de trabajo

17.9.1. Canalización de recursos
17.9.2. Procesador de activos
17.9.3. Generador de recursos

17.10. Requisitos para un desarrollo exitoso

17.10.1. Producción para el éxito
17.10.2. Desarrollo óptimo
17.10.3.  Requisitos imprescindibles

Módulo 18. Creación de cinemáticas con Sequencer y Niagara

18.1. Las cámaras

18.1.1. Visión global de una escena
18.1.2. Visión específica y detalles de una escena
18.1.3. Planteamiento de la escena

18.2. Herramienta Sequencer de Unreal Engine

18.2.1. Sequencer
18.2.2. Generación de cinemáticas
18.2.3. Tipos de cámaras

18.3. Creación de cinemáticas con Sequencer

18.3.1. Animación de cámaras cinemáticas
18.3.2. Creación y edición de planos
18.3.3. Reproducción de animaciones secuenciadas

18.4. Objetos animados in-game

18.4.1. Animación de objetos en Unreal con Sequencer
18.4.2. Tipos de animación
18.4.3. Creación de un turntable

18.5. Sistema de partículas con Niagara

18.5.1. Tipos de sistemas de partículas
18.5.2. Creación de sistemas de partículas

18.6. Partículas específicas

18.6.1. Partículas de agua
18.6.2. Partículas de fuego
18.6.3. Partículas de explosiones
18.6.4. Partículas de rayos

18.7. Scripting con Blueprint avanzado

18.7.1. Síncrona y asíncrona
18.7.2. Creación de una IA básica
18.7.3. Creación de una nav mesh
18.7.4. Creación de interfaz básica con Unreal Motion Graphics

18.8. Optimización del juego

18.8.1. Distancia de renderizado
18.8.2. Niveles de detalle de los modelos
18.8.3. Uso de cull distance volumes

18.9. Empaquetado y creación de un instalable

18.9.1. Configuración del empaquetado
18.9.2. Empaquetado del proyecto
18.9.3. Retoques y perfeccionadores

18.10. Juegos para dispositivos móviles

18.10.1. Peculiaridades del mobile
18.10.2. Assets específicos
18.10.3. Assets compatibles
18.10.4. Plataformas digitales

Módulo 19. Realidad virtual

19.1. Realidad virtual

19.1.1. Realidad virtual
19.1.2. Aplicaciones de la realidad virtual
19.1.3. La percepción de entornos virtuales, evaluación, presencia e inmersión

19.2. Dispositivos de entrada y salida

19.2.1. Dispositivos de entrada
19.2.2. Renderizado de audio 3D
19.2.3. Displays y otros dispositivos

19.3. Visión estereoscópica

19.3.1. La visión estéreo
19.3.2. Algoritmos principales y formatos actuales
19.3.3. Dispositivos HMD

19.4. Interacción háptica

19.4.1. La interacción háptica en realidad virtual
19.4.2. Algoritmos de renderizado háptico
19.4.3. Métodos de navegación háptica

19.5. Arquitecturas orientadas a la realidad virtual

19.5.1. Arquitectura y software de las aplicaciones de realidad virtual
19.5.2. Diseño
19.5.3. Simuladores de realidad virtual

19.6. Técnicas de interacción

19.6.1. Técnicas de interacción para entornos inmersivos
19.6.2. Principales algoritmos y dispositivos
19.6.3. Interfaces cerebro-ordenador

19.7. Toma de decisiones en tiempo real

19.7.1. Organización del modelo en REVIT para su utilización
19.7.2. Funcionalidades de Enscape
19.7.3. Alternativas

19.8. Imagen 360

19.8.1. Lumion
19.8.2. Bidireccionalidad
19.8.3. Funcionalidades de Lumion
19.8.4. Tratamiento de imagen 360

19.9. Vídeo 360

19.9.1. Twinmotion
19.9.2. Funcionalidades de Twinmotion
19.9.3. Tratamiento de vídeo 360

19.10. Tour virtual

19.10.1. Render 360
19.10.2. Fotografía 360
19.10.3. Edición de imagen 360
19.10.4. Creación de tour virtual

Módulo 20. Software para desarrollo de realidad virtual

20.1. Aplicaciones avanzadas de realidad virtual

20.1.1. Creación de aplicaciones avanzadas en VR para móviles
20.1.2. Creación de aplicaciones avanzadas en VR para standalone
20.1.3. Creación de aplicaciones avanzadas en VR para PC

20.2. Realidad virtual con Unreal Engine

20.2.1. Bidireccionalidad
20.2.2. Organización del contenido
20.2.3. Desarrollo de aplicaciones

20.3. Realidad virtual con Unity

20.3.1. Bidireccionalidad
20.3.2. Organización del contenido
20.3.3. Desarrollo de aplicaciones

20.4. Coordinación de diseño en realidad virtual

20.4.1. Aspectos generales a tener en cuenta
20.4.2. Flujo de trabajo
20.4.3. Herramientas

20.5. La realidad extendida

20.5.1. Realidad extendida
20.5.2. Contextualización
20.5.3. Implantación

20.6. Realidad mixta

20.6.1. Realidad mixta
20.6.2. Usos de la realidad mixta
20.6.3. Tipos de aplicaciones de realidad mixta

20.7. Software de realidad mixta

20.7.1. Realidad mixta con Unity
20.7.2. Realidad mixta con Unreal Engine
20.7.3. Dispositivos de realidad mixta

20.8. Realidad aumentada

20.8.1. La realidad aumentada
20.8.2. Creación de experiencias de realidad aumentada
20.8.3. Aplicaciones de la realidad aumentada

20.9. Creación de aplicaciones de realidad aumentada

20.9.1. Realidad aumentada con Unity
20.9.2. Realidad aumentada con Vuforia
20.9.3. Realidad aumentada con Unreal Engine

20.10. Implantación de la realidad virtual

20.10.1. Usos de la realidad virtual
20.10.2. Aplicaciones educativas y formativas de realidad virtual
20.10.3. Creación de una aplicación de realidad virtual útil
20.10.4. Estrategia de venta de una aplicación de realidad virtual 

estudiar realidad virtual vision artificial

Con los conocimientos avanzados que adquirirás en este Grand Máster podrás acceder a puestos de trabajo en las mejores empresas de videojuegos y diseño 3D”

Grand Master en Realidad Virtual y Visión Artificial

Pese a que la creación de entornos artificiales inmersivos parecían escenarios distantes en el tiempo, la evolución acelerada de la tecnología informática no solo ha hecho posible el acceso a estos instrumentos para los usuarios, sino que ha permitido integrarlos con éxito a diferentes ámbitos como los videojuegos, la educación y la arquitectura. En tanto que el futuro de esta tecnología evidencia un futuro prometedor, en TECH Universidad hemos elaborado el Grand Master en Realidad Virtual y Visión Artificial, un programa que te brindará los últimos conocimientos disponibles en este campo para que puedas especializarte en los desarrollos más importantes producidos, el dominio de herramientas de punta como Unreal Engine y las técnicas más avanzadas del procesado digital de imágenes 3D, entre otros aspectos. De esta manera, podrás unirte a los proyectos más ambiciosos de empresas consolidadas y convertirte en un experto de referencia en el sector.

Especialízate en la Realidad Virtual y Visión Artificial

Si entre tus objetivos se encuentra alcanzar un nivel de conocimiento superior en el estudio de la tecnología informática, este programa es para ti. En TECH Universidad recibirás una capacitación integral y de alta calidad, puesto que contamos con el contenido más completo del mercado educativo, métodos de aprendizaje innovadores para la educación en línea y el acompañamiento de expertos que guiarán tu proceso. Así, tendrás acceso a técnicas, estrategias, programas y recursos que favorecerán el desempeño de tu trabajo en el modelado y simulación de entornos sensoriales, tridimensionales, y artificiales. Este Grand Master es una oportunidad novedosa y eficaz para garantizar tu crecimiento profesional.