Presentación del programa

Controlarás el Modelado 3D de Assets para crear videojuegos visualmente impresionantes e inmersivos, gracias a este Grand Máster 100% online”

##IMAGE##

La Realidad Virtual y la Visión Artificial están consideradas como las tecnologías del futuro con un gran potencial disruptivo. Esto se debe a que estas herramientas ofrecen ventajas para un amplio abanico de sectores, desde la industria o investigación hasta la salud. Además, sus instrumentos tienen aplicaciones que mejoran la sociedad. Por ejemplo, en el área sanitaria, se utilizan para el diagnóstico médico, la monitorización de pacientes e incluso la detección temprana de enfermedades. Sin lugar a dudas, especializarse en estas ramas de la Inteligencia Artificial abre oportunidades laborales en sectores emergentes y de rápido crecimiento.

Ante esta realidad, TECH lanza un pionero programa en Realidad Virtual y Visión Artificial. Diseñado por expertos en estas materias, el plan de estudios ahondará en las técnicas más innovadoras para el Procesado de Imágenes 3D.  En sintonía, el temario profundizará en la Clasificación de Imágenes a partir de las Redes Convolucionales, teniendo presente el testeo de la pipeline de entrenamiento. Además, los materiales didácticos brindarán al alumnado los pasos para el correcto desarrollo de un videojuego, abarcando desde el diseño de personajes hasta los procesos de composición y producción. También la capacitación ahondará en el funcionamiento del Unity 3D, herramienta que permitirá a los egresados crear experiencias interactivas de alta calidad para diversos dispositivos.

En lo que respecta a la metodología de esta titulación universitaria, se imparte mediante una modalidad 100% online. De este modo, los alumnos podrán compaginar sus estudios con el resto de sus quehaceres personales y laborales. Asimismo, los estudiantes accederán al Campus Virtual para disfrutar de recursos didácticos que fortalecerán sus conocimientos de un modo dinámico y ameno. Para ello, lo único que necesitará el alumnado es un dispositivo electrónico con conexión a internet. Asimismo, contará en todo momento con el respaldo del cuadro docente, que le ofrecerá tanto un asesoramiento personalizado como respuestas a las dudas que puedan surgirles durante su proceso de aprendizaje.

Manejarás con eficacia las Cámaras de Alta Resolución y destacarás por capturar detalles que pasan desapercibidos por la vista humana gracias a TECH”

Este Grand Máster en Realidad Virtual y Visión Artificial contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:

El desarrollo de casos prácticos presentados por expertos en Inteligencia Artificial
Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que están concebidos recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional
Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje
Su especial hincapié en metodologías innovadoras el Procesado Digital de Imágenes Avanzado
Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual
La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet

¿Quieres especializarte en el diseño de la Identidad Sonora de los Videojuegos? Con este programa, crearás las voces y los efectos más vanguardistas para conectar con el público”

Incluye en su cuadro docente a profesionales pertenecientes al ámbito de la Inteligencia Artificial, que vierten en este programa la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio.

Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará un estudio inmersivo programado para entrenarse ante situaciones reales.

El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el alumno deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, el profesional contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.

Dominarás las Redes Generativas Adversariales para mejorar la calidad de las imágenes y generar datos sintéticos de gran utilidad"

##IMAGE##

Por medio del sistema de enseñanza Relearning afianzarás los conceptos claves que te ofrece este plan de estudios"

Plan de estudios

Diseñado por expertos en Inteligencia Artificial, este Grand Máster dotará al alumnado de una visión integral relativa tanto a la Realidad Virtual como Visión Artificial. Compuesto por 20 módulos, el plan de estudios profundizará en cuestiones tales como el Procesado Digital de Imágenes, Deep Learning o Redes Convolucionales. Durante la capacitación, los estudiantes desarrollarán habilidades prácticas para crear soluciones innovadoras en una amplia gama de áreas, como el entretenimiento o educación. Asimismo, los materiales didácticos ofrecerán las técnicas más vanguardistas para desarrollar videojuegos y las plataformas más efectivas para lograrlo. Así, este programa elevará los horizontes profesionales de los egresados.

##IMAGE##

TECH pone a tu disposición el acceso a una de las mejores bibliotecas virtuales, que incluye recursos como resúmenes interactivos o infografías. ¡Actualizarás tus competencias de forma dinámica!”

Módulo 1. Visión artificial

1.1. Percepción humana

1.1.1. Sistema visual humano
1.1.2. El color
1.1.3. Frecuencias visibles y no visibles

1.2. Crónica de la Visión Artificial

1.2.1. Principios
1.2.2. Evolución
1.2.3. La importancia de la visión artificial

1.3. Composición de imágenes digitales

1.3.1. La Imagen digital
1.3.2. Tipos de imágenes
1.3.3. Espacios de color
1.3.4.RGB
1.3.5.HSV y HSL
1.3.6.CMY-CMYK
1.3.7. YCbCr
1.3.8. Imagen indexada

1.4. Sistemas de captación de imágenes

1.4.1. Funcionamiento de una cámara digital
1.4.2. La correcta exposición para cada situación
1.4.3. Profundidad de campo
1.4.4. Resolución
1.4.5. Formatos de imagen
1.4.6. Modo HDR
1.4.7. Cámaras de alta resolución
1.4.8. Cámaras de alta velocidad

1.5. Sistemas Ópticos

1.5.1. Principios ópticos
1.5.2. Objetivos convencionales
1.5.3. Objetivos telecéntricos
1.5.4. Tipos de autoenfoque
1.5.5. Distancia focal
1.5.6. Profundidad de campo
1.5.7. Distorsión óptica
1.5.8. Calibración de una imagen

1.6. Sistemas de iluminación

1.6.1. Importancia de la iluminación
1.6.2. Respuesta frecuencial
1.6.3. Iluminación Led
1.6.4. Iluminación en exteriores
1.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos

1.7. Sistemas Captación 3D

1.7.1. Estéreo Visión
1.7.2. Triangulación
1.7.3. Luz estructurada
1.7.4. Time of Flight
1.7.5. Lidar

1.8. Multiespectro

1.8.1. Cámaras Multiespectrales
1.8.2. Cámaras Hiperespectrales

1.9. Espectro cercano No visible

1.9.1. Cámaras IR
1.9.2. Cámaras UV
1.9.3. Convertir de No visible a Visible gracias a la iluminación

1.10. Otras bandas del espectro

1.10.1. Rayos X
1.10.2. Teraherzios

Módulo 2. Aplicaciones y estado del arte

2.1. Aplicaciones industriales

2.1.1. Librerías de visión industrial
2.1.2. Cámaras compactas
2.1.3. Sistemas basados en PC
2.1.4. Robótica industrial
2.1.5. Pick and place 2D
2.1.6. Bin picking
2.1.7. Control de calidad
2.1.8. Presencia ausencia de componentes
2.1.9. Control dimensional
2.1.10. Control etiquetaje
2.1.11. Trazabilidad

2.2. Vehículos autónomos

2.2.1. Asistencia al conductor
2.2.2. Conducción autónoma

2.3. Visión Artificial para Análisis de Contenidos

2.3.1. Filtro por contenido
2.3.2. Moderación de contenido visual
2.3.3. Sistemas de seguimiento
2.3.4. Identificación de marcas y logos
2.3.5. Etiquetación y clasificación de videos
2.3.6. Detección de cambios de escena
2.3.7. Extracción de textos o créditos

2.4. Aplicaciones médicas

2.4.1. Detección y localización de enfermedades
2.4.2. Cáncer y Análisis de radiografías
2.4.3. Avances en visión artificial dada la Covid19
2.4.4. Asistencia en el quirófano

2.5. Aplicaciones espaciales

2.5.1. Análisis de imagen por satélite
2.5.2. Visión artificial para el estudio del espacio
2.5.3. Misión a Marte

2.6. Aplicaciones comerciales

2.6.1. Control stock
2.6.2. Videovigilancia, seguridad en casa
2.6.3. Cámaras aparcamiento
2.6.4. Cámaras control población
2.6.5. Cámaras velocidad

2.7. Visión Aplicada a la Robótica

2.7.1. Drones
2.7.2. AGV
2.7.3. Visión en robots colaborativos
2.7.4. Los ojos de los robots

2.8. Realidad Aumentada

2.8.1. Funcionamiento
2.8.2. Dispositivos
2.8.3. Aplicaciones en la industria
2.8.4. Aplicaciones comerciales

2.9. Cloud computing

2.9.1. Plataformas de Cloud Computing
2.9.2. Del Cloud Computing a la producción

2.10. Investigación y Estado del Arte

2.10.1. La comunidad científica
2.10.2. Qué se está cociendo
2.10.3. El futuro de la visión artificial

Módulo 3. Procesado digital de imágenes

3.1. Entorno de desarrollo en Visión por Computador

3.1.1. Librerías de Visión por Computador
3.1.2. Entorno de programación
3.1.3. Herramientas de visualización

3.2. Procesamiento digital de imágenes

3.2.1. Relaciones entre pixeles
3.2.2. Operaciones con imágenes
3.2.3. Transformaciones geométricas

3.3. Operaciones de pixeles

3.3.1. Histograma
3.3.2. Transformaciones a partir de histograma
3.3.3. Operaciones en imágenes en color

3.4. Operaciones lógicas y aritméticas

3.4.1. Suma y resta
3.4.2. Producto y División
3.4.3. And / Nand
3.4.4. Or / Nor
3.4.5. Xor / Xnor

3.5. Filtros

3.5.1. Máscaras y Convolución
3.5.2. Filtrado lineal
3.5.3. Filtrado no lineal
3.5.4. Análisis de Fourier

3.6. Operaciones morfológicas

3.6.1. Erode and Dilating
3.6.2. Closing and Open
3.6.3. Top_hat y Black hat
3.6.4. Detección de contornos
3.6.5. Esqueleto
3.6.6. Relleno de agujeros
3.6.7. Convex hull

3.7. Herramientas de análisis de imágenes

3.7.1. Detección de bordes
3.7.2. Detección de blobs
3.7.3. Control dimensional
3.7.4. Inspección de color

3.8. Segmentación de objetos

3.8.1. Segmentación de imágenes
3.8.2. Técnicas de segmentación clásicas
3.8.3. Aplicaciones reales

3.9. Calibración de imágenes

3.9.1. Calibración de imagen
3.9.2. Métodos de calibración
3.9.3. Proceso de calibración en un sistema cámara 2D/robot

3.10. Procesado de imágenes en entorno real

3.10.1. Análisis de la problemática
3.10.2. Tratamiento de la imagen
3.10.3. Extracción de características
3.10.4. Resultados finales

Módulo 4. Procesado digital de imágenes avanzado

4.1. Reconocimiento óptico de caracteres (OCR)

4.1.1. Preprocesado de la imagen
4.2.2. Detección de texto
4.3.3. Reconocimiento de texto

4.2. Lectura de códigos

4.2.1. Códigos 1D
4.2.2. Códigos 2D
4.2.3. Aplicaciones

4.3. Búsqueda de patrones

4.3.1. Búsqueda de patrones
4.3.2. Patrones basados en nivel de gris
4.3.3. Patrones basados en contornos
4.3.4. Patrones basados en formas geométricas
4.3.5. Otras técnicas

4.4. Seguimiento de objetos con visión convencional

4.4.1. Extracción de fondo
4.4.2. Meanshift
4.4.3. Camshift
4.4.4. Optical flow

4.5. Reconocimiento facial

4.5.1. Facial Landmark detection
4.5.2. Aplicaciones
4.5.3. Reconocimiento facial
4.5.4. Reconocimiento de emociones

4.6. Panorámica y alineaciones

4.6.1. Stitching
4.6.2. Composición de imágenes
4.6.3. Fotomontaje

4.7. High Dinamic Range (HDR) and Photometric Stereo

4.7.1. Incremento del rango dinámico
4.7.2. Composición de imágenes para mejorar contornos
4.7.3. Técnicas para el uso de aplicaciones en dinámico

4.8. Compresión de imágenes

4.8.1. La compresión de imágenes
4.8.2. Tipos de compresores
4.8.3. Técnicas de compresión de imágenes

4.9. Procesado de video

4.9.1. Secuencias de imágenes
4.9.2. Formatos y códecs de video
4.9.3. Lectura de un video.
4.9.4. Procesado del fotograma

4.10. Aplicación real de Procesado de Imágenes

4.10.1. Análisis de la problemática
4.10.2. Tratamiento de la imagen
4.10.3. Extracción de características
4.10.4. Resultados finales

Módulo 5. Procesado de imágenes 3D

5.1. Imagen 3D

5.1.1. Imagen 3D
5.1.2. Software de procesado de imágenes 3d y Visualizaciones
5.1.3. Software de Metrología

5.2. Open3D

5.2.1. Librería para Proceso de Datos 3D
5.2.2. Características
5.2.3. Instalación y Uso

5.3. Los datos

5.3.1. Mapas de profundidad en imagen 2D
5.3.2. Pointclouds
5.3.3. Normales
5.3.4. Superficies

5.4. Visualización

5.4.1. Visualización de Datos
5.4.2. Controles
5.4.3. Visualización Web

5.5. Filtros

5.5.1. Distancia entre puntos, eliminar Outliers
5.5.2. Filtro paso alto
5.5.3. Downsampling

5.6. Geometría y extracción de características

5.6.1. Extracción de un perfil
5.6.2. Medición de profundidad
5.6.3. Volumen
5.6.4. Formas geométricas 3D
5.6.5. Planos
5.6.6. Proyección de un punto
5.6.7. Distancias geométricas
5.6.8. Kd Tree
5.6.9. Features 3D

5.7. Registro y Meshing

5.7.1. Concatenación
5.7.2. ICP
5.7.3. Ransac 3D

5.8. Reconocimiento de objetos 3D

5.8.1. Búsqueda de un objeto en la escena 3d
5.8.2. Segmentación
5.8.3. Bin picking

5.9. Análisis de superficies

5.9.1. Smoothing
5.9.2. Superficies orientables
5.9.3. Octree

5.10. Triangulación

5.10.1. De Mesh a Point Cloud
5.10.2. Triangulación de mapas de profundidad
5.10.3. Triangulación de PointClouds no ordenados

Módulo 6. Deep learning

6.1. Inteligencia Artificial

6.1.1. Machine Learning
6.1.2. Deep Learning
6.1.3. La explosión del Deep Learning. Por qué ahora

6.2. Redes neuronales

6.2.1. La red neuronal
6.2.2. Usos de las redes neuronales
6.2.3. Regresión lineal y Perceptron
6.2.4. Forward propagation
6.2.5. Backpropagation
6.2.6. Feature vectors

6.3. Loss Functions

6.3.1. Loss function
6.3.2. Tipos de loss functions
6.3.3. Elección de la loss function

6.4. Funciones de activación

6.4.1. Función de activación
6.4.2. Funciones lineales
6.4.3. Funciones no lineales
6.4.4. Output vs Hidden layer activation functions

6.5. Regularización y Normalización

6.5.1. Regularización y Normalización
6.5.2. Overfitting and Data Augmentation
6.5.3. Regularization methods: L1, L2 and dropout
6.5.4. Normalization methods: Batch, Weight, Layer

6.6. Optimización

6.6.1. Gradient Descent
6.6.2. Stochastic Gradient Descent
6.6.3. Mini Batch Gradient Descent
6.6.4. Momentum
6.6.5. Adam

6.7. Hyperparameter Tuning y Pesos

6.7.1. Los hiperparámetros
6.7.2. Batch Size vs Learning Rate vs Step Decay
6.7.3. Pesos

6.8. Métricas de evaluación de una red neuronal

6.8.1. Accuracy
6.8.2. Dice coefficient
6.8.3. Sensitivity vs Specificity / Recall vs precision
6.8.4. Curva ROC (AUC)
6.8.5. F1-score
6.8.6. Confusion matrix
6.8.7. Cross-validation

6.9. Frameworks y Hardware

6.9.1. Tensor Flow
6.9.2. Pytorch
6.9.3. Caffe
6.9.4. Keras
6.9.5. Hardware para la Fase de Entrenamiento

6.10. Creación de una Red Neuronal – Entrenamiento y Validación

6.10.1. Dataset
6.10.2. Construcción de la red
6.10.3. Entrenamiento
6.10.4. Visualización de resultados

Módulo 7. Redes Convolucionales y Clasificación de Imágenes

7.1. Redes neuronales convolucionales

7.1.1. Introducciónn
7.1.2. La convolución
7.1.3. CNN Building Blocks

7.2. Tipos de capas CNN

7.2.1. Convolutional
7.2.2. Activation
7.2.3. Batch normalization
7.2.4. Polling
7.2.5. Fully connected

7.3. Métricas

7.3.1. Confusión Matrix
7.3.2. Accuracy
7.3.3. Precisión
7.3.4. Recall
7.3.5. F1 Score
7.3.6. ROC Curve
7.3.7.  AUC

7.4. Principales arquitecturas

7.4.1. AlexNet
7.4.2. VGG
7.4.3. Resnet
7.4.4. GoogleLeNet

7.5. Clasificación de imágenes

7.5.1. Introducciónn
7.5.2. Análisis de los datos
7.5.3. Preparación de los datos
7.5.4. Entrenamiento del modelo
7.5.5. Validación del modelo

7.6. Consideraciones prácticas para el entrenamiento de CNN

7.6.1.Selección de optimizador
7.6.2.Learning Rate Scheduler
7.6.3. Comprobar pipeline de entrenamiento
7.6.4. Entrenamiento con regularización

7.7. Buenas prácticas en Deep Learning

7.7.1. Transfer learning
7.7.2. Fine Tuning
7.7.3. Data Augmentation

7.8. Evaluación estadística de datos

7.8.1. Número de datasets
7.8.2. Número de etiquetas
7.8.3. Número de imágenes
7.8.4. Balanceo de datos

7.9. Deployment

7.9.1. Guardando y cargando modelos
7.9.2. Onnx
7.9.3. Inferencia

7.10. Caso Práctico: Clasificación de Imágenes

7.10.1.  Análisis y preparación de los datos
7.10.2.  Testeo de la pipeline de entrenamiento
7.10.3.  Entrenamiento del modelo
7.10.4.  Validación del modelo

Módulo 8. Detección de objetos

8.1. Detección y Seguimiento de Objetos

8.1.1. Detección de Objetos
8.1.2. Casos de uso
8.1.3. Seguimiento de objetos
8.1.4. Casos de uso
8.1.5. Oclusiones, Rigid and No Rigid Poses

8.2. Métricas de Evaluación

8.2.1. IOU - Intersection Over Union
8.2.2. Confidence Score
8.2.3. Recall
8.2.4. Precisión
8.2.5. Recall – Precisión Curve
8.2.6. Mean Average Precision (mAP)

8.3. Métodos tradicionales

8.3.1. Sliding window
8.3.2. Viola detector
8.3.3. HOG
8.3.4. Non Maximal Supresion (NMS)

8.4. Datasets

8.4.1. Pascal VC
8.4.2. MS Coco
8.4.3. ImageNet (2014)
8.4.4. MOTA Challenge

8.5. Two Shot Object Detector

8.5.1. R-CNN
8.5.2. Fast R-CNN
8.5.3. Faster R-CNN
8.5.4. Mask R-CNN

8.6. Single Shot Object Detector

8.6.1. SSD
8.6.2. YOLO
8.6.3. RetinaNet
8.6.4. CenterNet
8.6.5. EfficientDet

8.7. Backbones

8.7.1. VGG
8.7.2. ResNet
8.7.3. Mobilenet
8.7.4. Shufflenet
8.7.5. Darknet

8.8. Object Tracking

8.8.1. Enfoques clásicos
8.8.2. Filtros de partículas
8.8.3. Kalman
8.8.4. Sort tracker
8.8.5. Deep Sort

8.9. Despliegue

8.9.1. Plataforma de Computación
8.9.2. Elección del Backbone
8.9.3. Elección del Framework
8.9.4. Optimización de Modelos
8.9.5. Versionado de Modelos

8.10. Estudio: Detección y Seguimiento de Personas

8.10.1. Detección de personas
8.10.2. Seguimiento de personas
8.10.3. Reidentificación
8.10.4. Conteo de personas en multitudes

Módulo 9. Segmentación de Imágenes con deep learning

9.1. Detección de Objetos y Segmentación

9.1.1. Segmentación semántica

9.1.1.1. Casos de uso de segmentación semántica

9.1.2. Segmentación Instanciada

9.1.2.1. Casos de uso segmentación instanciada

9.2. Métricas de evaluación

9.2.1. Similitudes con otros métodos
9.2.2. Pixel Accuracy
9.2.3. Dice Coefficient (F1 Score)

9.3. Funciones de coste

9.3.1. Dice Loss
9.3.2. Focal Loss
9.3.3. Tversky Loss
9.3.4. Otras funciones

9.4. Métodos tradicionales de Segmentación

9.4.1. Aplicación de umbral con Otsu y Riddlen
9.4.2. Mapas auto organizados
9.4.3. GMM-EM algorithm

9.5. Segmentación Semántica aplicando Deep Learning: FCN

9.5.1. FCN
9.5.2. Arquitectura
9.5.3. Aplicaciones de FCN

9.6. Segmentación semántica aplicando Deep Learning : U-NET

9.6.1. U-NET
9.6.2. Arquitectura
9.6.3. Aplicación U-NET

9.7. Segmentación semántica aplicando Deep Learning: Deep Lab

9.7.1. Deep Lab
9.7.2. Arquitectura
9.7.3. Aplicación de Deep Lab

9.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN

9.8.1. Mask RCNN
9.8.2. Arquitectura
9.8.3. Aplicación de un Mas RCNN

9.9. Segmentación en videos

9.9.1. STFCN
9.9.2. Semantic Video CNNs
9.9.3. Clockwork Convnets
9.9.4. Low-Latency

9.10. Segmentación en nubes de puntos

9.10.1. La nube de puntos
9.10.2. PointNet
9.10.3. A-CNN

Módulo 10. Segmentación de Imágenes Avanzada y Técnicas Avanzadas de Visión por Computador

10.1. Base de datos para problemas de Segmentación General

10.1.1. Pascal Context
10.1.2. CelebAMask-HQ
10.1.3. Cityscapes Dataset
10.1.4. CCP Dataset

10.2. Segmentación Semántica en la Medicina

10.2.1. Segmentación Semántica en la Medicina
10.2.2. Datasets para problemas médicos
10.2.3. Aplicación práctica

10.3. Herramientas de anotación

10.3.1. Computer Vision Annotation Tool
10.3.2. LabelMe
10.3.3. Otras herramientas

10.4. Herramientas de Segmentación usando diferentes frameworks

10.4.1. Keras
10.4.2. Tensorflow v2
10.4.3. Pytorch
10.4.4. Otros

10.5. Proyecto Segmentación semántica. Los datos, Fase 1

10.5.1. Análisis del problema
10.5.2. Fuente de entrada para datos
10.5.3. Análisis de datos
10.5.4. Preparación de datos

10.6. Proyecto Segmentación semántica. Entrenamiento, Fase 2

10.6.1. Selección del algoritmo
10.6.2. Entrenamiento
10.6.3. Evaluación

10.7. Proyecto Segmentación semántica. Resultados, Fase 3

10.7.1. Ajuste fino
10.7.2. Presentación de la solución
10.7.3. Conclusiones

10.8. Autocodificadores

10.8.1. Autocodificadores
10.8.2. Arquitectura de un Autocodificador
10.8.3. Autocodificadores de Eliminación de Ruido
10.8.4. Autocodificador de Coloración Automática

10.9. Las Redes Generativas Adversariales (GAN)

10.9.1. Redes Generativas Adversariales (GAN)
10.9.2. Arquitectura DCGAN
10.9.3. Arquitectura GAN Condicionada

10.10. Redes Generativas Adversariales Mejoradas

10.10.1. Visión general del problema
10.10.2. WGAN
10.10.3. LSGAN
10.10.4. ACGAN

Módulo 11. La Industria del 3D

11.1. Industria del 3D en Animación y Videojuegos

11.1.1. La Animación 3D
11.1.2. Industria del 3D en Animación y Videojuegos
11.1.3. La Animación 3D. Futuro

11.2. El 3D en los Videojuegos

11.2.1. Los Videojuegos. Limitaciones
11.2.2. Desarrollo de un videojuego 3D. Dificultades
11.2.3. Soluciones a las dificultades en el desarrollo de un videojuego

11.3. Software para 3D en videojuegos

11.3.1. Maya. Pros y contras
11.3.2. 3Ds Max. Pros y contras
11.3.3. Blender. Pros y contras

11.4. Pipeline en la generación de assets 3D para Videojuegos

11.4.1. Idea y montaje a partir de un Modelsheet
11.4.2. Modelado con baja geometría y detalles en alta
11.4.3. Proyección de detalles por texturas

11.5. Estilos artísticos clave en el 3D para videojuegos

11.5.1. Estilo cartoon
11.5.2. Estilo realista
11.5.3. Cel shading
11.5.4. Motion capture

11.6. Integración de 3D

11.6.1. Integración 2d en el mundo digital
11.6.2. Integración 3d en el mundo digital
11.6.3. Integración en el mundo real (AR, MR/XR)

11.7. Factores clave del 3D para diferentes industrias

11.7.1. 3D en cine y series
11.7.2. 3D en videojuegos
11.7.3. 3D en publicidad

11.8. Render: Render en tiempo real y el prerrenderizado

11.8.1. Iluminación
11.8.2. Definición de sombras
11.8.3. Calidad vs. Velocidad

11.9. Generación de assets 3D en 3D Max

11.9.1. Software 3D Max
11.9.2. Interface, menús, barra de herramientas
11.9.3. Controles
11.9.4. Escena
11.9.5. Viewports
11.9.6. Basic shapes
11.9.7. Generación, modificación y transformación de objetos
11.9.8. Creación de una escena 3D
11.9.9. Modelado 3D de assets profesionales para videojuegos
11.9.10. Editores de materiales

11.9.10.1. Creación y edición de materiales
11.9.10.2. Aplicación de la luz a los materiales
11.9.10.3. Modificador UVW Map. Coordenadas de mapeado
11.9.10.4. Creación de texturas

11.10. Organización del espacio de trabajo y buenas prácticas

11.10.1. Creación de un proyecto
11.10.2. Estructura de carpetas
11.10.3. Funcionalidad personalizada

Módulo 12. Arte y 3D en la Industria del Videojuego

12.1. Proyectos 3D en VR

12.1.1. Software de creación de malla 3D
12.1.2. Software de edición de imagen
12.1.3. Realidad Virtual

12.2. Problemática típica, soluciones y necesidades del proyecto

12.2.1. Necesidades del Proyecto
12.2.2. Posibles problemas
12.2.3. Soluciones

12.3. Estudio de línea estética para la generación del estilo artístico en videojuegos: Del diseño de juego a la generación de arte 3D

12.3.1. Elección del Destinatario del videojuego. A quién queremos llegar
12.3.2. Posibilidades artísticas del desarrollador
12.3.3. Definición final de la línea estética

12.4. Búsqueda de referencias y análisis de competidores a nivel estético

12.4.1. Pinterest y páginas similares
12.4.2. Creación de un Modelsheet
12.4.3. Búsqueda de competidores

12.5. Creación de la biblia y briefing

12.5.1. Creación de la Biblia
12.5.2. Desarrollo de una biblia
12.5.3. Desarrollo de un briefing

12.6. Escenarios y assets

12.6.1. Planificación de producción de los assets en los niveles
12.6.2. Diseño de los escenarios
12.6.3. Diseño de los assets

12.7. Integración de los assets en los niveles y pruebas

12.7.1. Proceso de integración en los niveles
12.7.2. Texturas
12.7.3. Retoques finales

12.8. Personajes

12.8.1. Planificación de producción de personajes
12.8.2. Diseño de los personajes
12.8.3. Diseño de assets para personajes

12.9. Integración de personajes en escenarios y pruebas

12.9.1. Proceso de integración de personajes en los niveles
12.9.2. Necesidades del proyecto
12.9.3. Animaciones

12.10. Audio en videojuegos 3D

12.10.1. Interpretación del dossier del proyecto para la generación de la identidad sonora del videojuego
12.10.2. Procesos de composición y producción
12.10.3. Diseño de banda sonora
12.10.4. Diseño de efectos de sonido
12.10.5. Diseño de voces

Módulo 13. 3D avanzado

13.1. Técnicas avanzadas de modelado 3D

13.1.1. Configuración de la interfaz
13.1.2. Observación para Modelar
13.1.3. Modelado en alta
13.1.4. Modelado orgánico para videojuegos
13.1.5. Mapeado avanzado de objetos 3D

13.2. Texturing 3D avanzado

13.2.1. Interfaz de Substance Painter
13.2.2. Materiales, alphas y el uso de pinceles
13.2.3. Uso de partículas

13.3. Exportación para software 3D y Unreal Engine

13.3.1. Integración de Unreal Engine en los diseños
13.3.2. Integración de modelos 3D
13.3.3. Aplicación de texturas en Unreal Engine

13.4. Sculpting digital

13.4.1. Sculpting digital con zBrush
13.4.2. Primeros pasos en Zbrush
13.4.3. Interfaz, menús y navegación
13.4.4. Imágenes de referencia
13.4.5. Modelado completo en 3D de un objeto en zBrush
13.4.6. Uso de mallas base
13.4.7. Modelado por piezas
13.4.8. Exportación de modelos 3D en zBrush

13.5. El uso de Polypaint

13.5.1. Pinceles avanzados
13.5.2. Texturas
13.5.3. Materiales por defecto

13.6. La Retopología

13.6.1. La retopología. Utilización en la industria del videojuego
13.6.2. Creación de malla low-poly
13.6.3. Uso del software para la retopología

13.7. Posados de los modelos 3D

13.7.1. Visualizadores de imágenes de referencia
13.7.2. Utilización de transpose
13.7.3. Uso del transpose para modelos compuestos por diferentes piezas

13.8. La exportación de modelos 3D

13.8.1. Exportación de modelos 3D
13.8.2. Generación de texturas para la exportación
13.8.3. Configuración del modelo 3d con los diferentes materiales y texturas
13.8.4. Previsualización del modelo 3D

13.9. Técnicas avanzadas de trabajo

13.9.1. El flujo de trabajo en modelado 3D
13.9.2. Organización de los procesos de trabajo en modelado 3D
13.9.3. Estimaciones de esfuerzo para producción

13.10. Finalización del modelo y exportación para otros programas

13.10.1. El flujo de trabajo para finalizar el modelo
13.10.2. Exportación con Zpluging
13.10.3. Posibles archivos. Ventajas y desventajas

Módulo 14. Animación 3D

14.1. Manejo del software

14.1.1. Manejo de información y metodología de trabajo
14.1.2. La animación
14.1.3. Timing y peso
14.1.4.  Animación con objetos básicos
14.1.5. Cinemática directa e inversa
14.1.6. Cinemática inversa
14.1.7. Cadena cinemática

14.2. Anatomía. Bípedo vs. Cuadrúpedo

14.2.1. Bípedo
14.2.2. Cuadrúpedo
14.2.3. Ciclo de caminar
14.2.4. Ciclo de correr

14.3. Rig facial y Morpher

14.3.1. Lenguaje facial. Lip-sync, ojos, focos de atención
14.3.2. Edición de secuencias
14.3.3. La fonética. Importancia

14.4. Animación aplicada

14.4.1. Animación 3D para cine y televisión
14.4.2. Animación para videojuegos
14.4.3. Animación para otras aplicaciones

14.5. Captura de movimiento con Kinect

14.5.1. Captura de movimientos para animación
14.5.2. Secuencia de movimientos
14.5.3. Integración en Blender

14.6. Esqueleto, skinning y setup

14.6.1. Interacción entre esqueleto y geometría
14.6.2. Interpolación de mallas
14.6.3. Pesos de animación

14.7. Acting

14.7.1. El lenguaje corporal
14.7.2. Las poses
14.7.3. Edición de secuencias

14.8. Cámaras y planos

14.8.1. La cámara y el entorno
14.8.2. Composición del plano y los personajes
14.8.3. Acabados

14.9. Efectos visuales especiales

14.9.1. Los efectos visuales y la animación
14.9.2. Tipos de efectos ópticos
14.9.3. 3D VFX L

14.10. El animador como actor

14.10.1. Las expresiones
14.10.2. Referencias de los actores
14.10.3. De la cámara al programa

Módulo 15. Dominio de Unity 3D e Inteligencia Artificial

15.1. El Videojuego. Unity 3D

15.1.1. El videojuego
15.1.2. EL Videojuego. Errores y Aciertos
15.1.3. Aplicaciones del Videojuego en otras áreas e industrias

15.2. Desarrollo de los videojuegos. Unity 3D

15.2.1. Plan de producción y fases de desarrollo
15.2.2. Metodología de desarrollo
15.2.3. Parches y contenido adicional

15.3. Unity 3D

15.3.1. Unity 3D. Aplicaciones
15.3.2. Scripting en Unity 3D
15.3.3. Asset Store y plugins de terceros

15.4. Físicas, inputs

15.4.1. InputSystem
15.4.2. Físicas en Unity 3D
15.4.3. Animation y animator

15.5. Prototipado en Unity

15.5.1. Blocking y colliders
15.5.2. Prefabs
15.5.3. Scriptable Objects

15.6. Técnicas de programación específicas

15.6.1. Modelo Singleton
15.6.2. Carga de recursos en la ejecución de juegos en Windows
15.6.3. Rendimiento y Profiler

15.7. Videojuegos para dispositivos móviles

15.7.1. Juegos para dispositivos Android
15.7.2. Juegos para dispositivos IOS
15.7.3. Desarrollos multiplataforma

15.8. Realidad Aumentada

15.8.1. Tipos de juegos de realidad aumentada
15.8.2. ARkit y ARcore
15.8.3. Desarrollo Vuforia

15.9. Programación de Inteligencia Artificial

15.9.1. Algoritmos de inteligencia artificial
15.9.2. Máquinas de estados finitas
15.9.3. Redes neuronales

15.10. Distribución y Marketing

15.10.1. El arte de publicar y promocionar un videojuego
15.10.2. El responsable del éxito
15.10.3. Estrategias

Módulo 16. Desarrollo de videojuegos 2D y 3D

16.1. Recursos gráficos rasterizados

16.1.1. Sprites
16.1.2. Atlas
16.1.3. Texturas

16.2. Desarrollo de Interfaces y Menús

16.2.1. Unity GUI
16.2.2. Unity UI
16.2.3. UI Toolkit

16.3. Sistema de Animación

16.3.1. Curvas y Claves de animación
16.3.2. Eventos de animación aplicados
16.3.3. Modificadores

16.4. Materiales y shaders

16.4.1. Componentes de un material
16.4.2. Tipos de RenderPass
16.4.3. Shaders

16.5. Partículas

16.5.1. Sistemas de partículas
16.5.2. Emisores y subemisores
16.5.3. Scripting

16.6. Iluminación

16.6.1. Modos de iluminación
16.6.2. Bakeado de luces
16.6.3. Light probes

16.7. Mecanim

16.7.1. State Machines, SubState Machines y Transiciones entre animaciones
16.7.2. Blend trees
16.7.3. Animation Layers e IK

16.8. Acabado cinemático

16.8.1. Timeline
16.8.2. Efectos de postprocesado
16.8.3. Universal Render Pipeline y High Definition Render Pipeline

16.9 VFX avanzado

16.9.1. VFX Graph
16.9.2. Shader Graph
16.9.3. Pipeline tolos

16.10. Componentes de Audio

16.10.1. Audio Source y Audio Listener
16.10.2. Audio Mixer
16.10.3. Audio Spatializer

Módulo 17. Programación, generación de mecánicas y técnicas de prototipado de videojuegos

17.1. Proceso técnico

17.1.1. Modelos lowpoly y highpoly a Unity
17.1.2. Configuración de materiales
17.1.3. High Definition Render Pipeline

17.2. Diseño de personajes

17.2.1. Movimiento
17.2.2. Diseño de colliders
17.2.3. Creación y comportamiento

17.3. Importación de Skeletal Meshes a Unity

17.3.1. Exportación skeletal meshes del software de 3D
17.3.2. Skeletal meshes en Unity
17.3.3. Puntos de anclaje para accesorios

17.4. Importación de animaciones

17.4.1. Preparación de animación
17.4.2. Importación de animaciones
17.4.3. Animator y transiciones

17.5. Editor de animaciones

17.5.1. Creación de blend spaces
17.5.2. Creación de animation montage
17.5.3. Edición de animaciones read-only

17.6. Creación y simulación de un ragdoll

17.6.1. Configuración de un ragdoll
17.6.2. Ragdoll a un gráfico de animación
17.6.3. Simulación de un ragdoll

17.7. Recursos para la creación de personajes

17.7.1. Bibliotecas
17.7.2. Importación y exportación de materiales de bibliotecas
17.7.3. Manipulación de materiales

17.8. Equipos de trabajo

17.8.1. Jerarquía y roles de trabajo
17.8.2. Sistemas de control de versiones
17.8.3. Resolución de conflictos

17.9. Requisitos para un desarrollo exitoso

17.9.1. Producción para el éxito
17.9.2. Desarrollo óptimo
17.9.3. Requisitos imprescindibles

17.10. Empaquetado para publicación

17.10.1. Player settings
17.10.2. Build
17.10.3. Creación de un instalador

Módulo 18. Desarrollo de Videojuegos Inmersivos en VR

18.1. Singularidad de la VR

18.1.1. Videojuegos Tradicionales y VR. Diferencias
18.1.2. Motion sickness: fluidez frente a efectos
18.1.3. Interacciones únicas de la VR

18.2. Interacción

18.2.1. Eventos
18.2.2. Triggers físicos
18.2.3. Mundo virtual vs mundo real

18.3. Locomoción inmersiva

18.3.1. Teletransportación
18.3.2. Arm swinging
18.3.3. Forward movement con Facing y sin él

18.4. Físicas en VR

18.4.1. Objetos agarrables y lanzables
18.4.2. Peso y masa en VR
18.4.3. Gravedad en VR

18.5. UI en VR

18.5.1. Posicionamiento y curvatura de los elementos de UI
18.5.2. Modos de Interacción con menús en VR
18.5.3. Buenas prácticas para una experiencia confortable

18.6. Animación en VR

18.6.1. Integración de modelos animados en VR
18.6.2. Objetos y personajes animados vs. Objetos físicos
18.6.3. Transiciones animadas vs procedurales

18.7. El Avatar

18.7.1. Representación del avatar desde sus propios ojos
18.7.2. Representación externa del propio avatar
18.7.3. Cinemática inversa y animación procedural aplicada al avatar

18.8. Audio

18.8.1. Configuración de Audio Sources y Audio Listeners para VR
18.8.2. Efectos disponibles para una experiencia más inmersiva
18.8.3. Audio Spatializer VR

18.9. Optimización en proyectos de VR y AR

18.9.1. Occlusion culling
18.9.2. Static Batching
18.9.3. Configuración de calidad y tipos de Render Pass

18.10. Práctica: Escape Room VR

18.10.1. Diseño de la experiencia
18.10.2. Layout del escenario
18.10.3. Desarrollo de las mecánicas

Módulo 19. Audio Profesional para Videojuegos 3d en VR

19.1. El Audio en videojuegos profesionales 3D

19.1.1. El audio en videojuegos
19.1.2. Tipos de estilos de audio en videojuegos actuales
19.1.3. Modelos de audio espacial

19.2. Estudio de material previo

19.2.1. Estudio de la documentación de diseño de juego
19.2.2. Estudio de la documentación de diseño de niveles
19.2.3. Evaluación de la complejidad y tipología de proyecto para crear el audio

19.3. Estudio de referencias de sonido

19.3.1. Listado de referencias principales por similitud con el proyecto
19.3.2. Referencias auditivas de otros medios para dotar al videojuego de identidad
19.3.3. Estudio de las referencias y extracción de conclusiones

19.4. Diseño de la identidad sonora del videojuego

19.4.1. Factores principales que influencian el proyecto
19.4.2. Aspectos relevantes en la composición del audio: instrumentación, tempo, otros
19.4.3. Definición de voces

19.5. Creación de banda sonora

19.5.1. Listado de entornos y audios
19.5.2. Definición de motivo, temática e instrumentación
19.5.3. Composición y pruebas de audio en prototipos funcionales

19.6. Creación de efectos de sonido (FX)

19.6.1. Efectos de sonido: tipos de FX y listado completo según necesidades del proyecto
19.6.2. Definición de motivo, temática y creación
19.6.3. Evaluación de FX de sonido y pruebas en prototipos funcionales

19.7. Creación de voces

19.7.1. Tipos de voces y listado de frases
19.7.2. Búsqueda y evaluación de actores y actrices de doblaje
19.7.3. Evaluación de grabaciones y pruebas de las voces en prototipos funcionales

19.8. Evaluación de la calidad del audio

19.8.1. Elaboración de sesiones de escucha con el equipo de desarrollo
19.8.2. Integración de todos los audios en un prototipo funcional
19.8.3. Pruebas y evaluación de los resultados obtenidos

19.9. Exportación, formatos e importación de audio en el proyecto

19.9.1. Formatos y compresión de audio en videojuegos
19.9.2. Exportación de audios
19.9.3. Importación de audios en el proyecto

19.10. Preparación de librerías de audio para comercialización

19.10.1. Diseño de librerías de sonido versátiles para profesionales de los videojuegos
19.10.2. Selección de audios por tipo: banda sonora, FX y voces
19.10.3. Comercialización de librerías de assets de audio

Módulo 20. Producción y financiación de videojuegos

20.1. La producción en videojuegos

20.1.1. Las metodologías en cascada
20.1.2. Casuística de la falta de dirección de Proyecto y la ausencia del plan de trabajo
20.1.3. Consecuencias de la falta de un departamento de producción en la industria del videojuego

20.2. El equipo de desarrollo

20.2.1. Departamentos clave a la hora de desarrollar proyectos
20.2.2. Perfiles clave en la micro gestión: LEAD y SENIOR
20.2.3. Problemática de la falta de experiencia en perfiles JUNIOR
20.2.4. Establecimiento de plan de formación para perfiles de baja experiencia

20.3. Metodologías ágiles en el desarrollo de videojuegos

20.3.1. SCRUM
20.3.2. AGILE
20.3.3. Metodologías híbridas

20.4. Estimaciones de esfuerzo, tiempo y costes

20.4.1. El precio del desarrollo de un videojuego: conceptos Gastos principales
20.4.2. Calendarización de tareas: puntos críticos, claves y aspectos a tener en cuenta
20.4.3. Estimaciones basadas en puntos de esfuerzo VS cálculo en horas

20.5. Priorización en la planificación de prototipos

20.5.1. Establecimiento de objetivos generales del Proyecto
20.5.2. Priorización de funcionalidades y contenidos clave: orden y necesidades según el departamento
20.5.3. Agrupación de funcionalidades y contenidos en producción para constituir entregables (prototipos funcionales)

20.6. Buenas prácticas en la producción de videojuegos

20.6.1. Reuniones, daylies, weekly meeting, reuniones de final de sprint, reuniones de comprobación de resultados en hitos ALFA, BETA y RELEASE.
20.6.2. Medición de la velocidad de Sprint
20.6.3. Detección de falta de motivación y baja productividad y anticipación a posibles problemas en producción

20.7. Análisis en producción

20.7.1. Análisis previos I: revisión del estado del mercado
20.7.2. Análisis previos 2: establecimiento de principales referentes de proyecto (competidores directos)
20.7.3. Conclusiones de los análisis previos

20.8. Cálculo de costes de desarrollo

20.8.1. Recursos humanos
20.8.2. Tecnología y licencias
20.8.3. Gastos externos al desarrollo

20.9. Búsqueda de inversión

20.9.1. Tipos de inversores
20.9.2. Resumen ejecutivo
20.9.3. Pitch deck
20.9.4. Publishers
20.9.5. Autofinanciación

20.10. Elaboración de Post Mortems de proyecto

20.10.1. Proceso de elaboración del Post Mortem en la empresa
20.10.2. Análisis de puntos positivos del proyecto
20.10.3. Estudio de puntos negativos del proyecto
20.10.4. Propuesta de mejora sobre los puntos negativos del proyecto y conclusiones

##IMAGE##

El programa abordará la Producción y Financiación de Videojuegos, que te ayudará a convertirte en una voz autorizada de este campo en constante expansión. No esperes más y matricúlate”

Grand Master en Realidad Virtual y Visión Artificial

En un mundo donde la tecnología avanza a pasos agigantados, la Realidad Virtual y la Visión Artificial se han convertido en pilares fundamentales para diversas industrias, desde el entretenimiento hasta la medicina. Comprender y dominar estas tecnologías no solo amplía las oportunidades laborales, sino que también posiciona a los profesionales en la vanguardia de la innovación. En este contexto, el Grand Master en Realidad Virtual y Visión Artificial se presenta como una opción excepcional para aquellos que buscan profundizar en estas disciplinas. Este posgrado, ofrecido por TECH Universidad Tecnológica, se estructura para proporcionar un aprendizaje integral a través de clases online que permiten la flexibilidad de estudiar desde cualquier lugar del mundo. La combinación de teoría y práctica garantiza que los estudiantes adquieran habilidades relevantes y aplicables en situaciones del mundo real. A lo largo del programa, se explorarán las bases técnicas y conceptuales de la Realidad Virtual y la Visión Artificial, así como sus aplicaciones en sectores como la salud, la educación, el marketing y la industria del entretenimiento.

Lidera el mundo de la Realidad Virtual con este posgrado

Los participantes también tendrán la oportunidad de trabajar en proyectos innovadores, lo que les permitirá experimentar de primera mano el impacto de estas tecnologías en la transformación digital. Además, se contará con el apoyo de un equipo docente altamente calificado, compuesto por expertos en el campo, quienes guiarán a los estudiantes a lo largo de su proceso de aprendizaje. Esta interacción no solo enriquecerá su experiencia académica, sino que también fomentará el desarrollo de una red profesional sólida. Al completar el Grand Master en Realidad Virtual y Visión Artificial, los egresados estarán equipados con los conocimientos y competencias necesarios para enfrentar los retos del mercado laboral actual, así como para contribuir a proyectos innovadores que transformen la manera en que interactuamos con el entorno digital. Aprovecha la oportunidad de ser parte de esta revolución tecnológica con TECH Universidad Tecnológica. Inscríbete ya.