Titulación universitaria
La mayor facultad de informática del mundo”
Presentación
No dejes escapar la oportunidad de especializarte con este Grand Master de Formación Permanente y posiciónate con ventaja para acceder a los mejores proyectos de desarrollo de Realidad Virtual”
El mercado de la realidad virtual y la visión artificial se encuentra en plena expansión, requiriendo cada vez más de profesionales con cualificaciones específicas en este campo. Tal es así, que desde hace unos años la inteligencia artificial, otra tecnología ligada, ha producido una gran revolución en el mundo digital. Así, sus aplicaciones van desde las ciencias computacionales hasta la investigación en el ámbito sanitario y el desarrollo de herramientas como vehículos, robots o videojuegos.
Por este motivo, este Grand Master de Formación Permanente de TECH contiene todo lo esperable y exigible para el informático que quiera conducir su carrera hacia la creación y virtualización de entornos realistas o fantasiosos. En este programa desarrollará sus habilidades más avanzadas en el ámbito de la creación y virtualización de modelos 3D, al mismo tiempo que perfeccionará sus competencias en las herramientas más punteras del sector. De esta forma, tendrá una solidez suficiente para liderar los proyectos de Realidad Virtual y Visión Artificial más ambiciosos.
Asimismo, el informático analizará a lo largo de toda la titulación cómo las máquinas procesan la información visual recibida y cómo esa información se puede emplear, ya sea para mejorar la relación de la propia máquina con su propio entorno o para recoger datos de forma eficaz. El Deep Learning, campo en continuo desarrollo, se aborda en el programa desde un prisma innovador y práctico. El informático conocerá los frameworks y hardware más importantes al respecto, al igual que la aplicación del mismo en los diferentes campos de acción de la Visión Artificial.
Además, el informático disfrutará de la metodología 100% online de TECH, especialmente diseñada para que pueda compaginar este programa con toda clase de trabajos o responsabilidades, puesto que se adapta a sus circunstancias personales. Esto le permite la flexibilidad de cursar esta titulación sin horarios fijos ni asistencia obligatoria a centros físicos. Así, tiene la libertad de distribuir el contenido didáctico según sus propias obligaciones personales, pues todo el material se puede descargar desde cualquier dispositivo con acceso a internet.
Anticípate a los demás y matricúlate en esta titulación para ser un auténtico experto en las tecnologías que están cambiando el mundo actual”
##Este/Esta## ##ESTUDIO## en Realidad Virtual y Visión Artificial contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:
- El desarrollo de casos prácticos presentados por expertos en Realidad Virtual y Visión Artificial
- Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que están concebidos recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional
- Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje
- Su especial hincapié en metodologías innovadoras en realidad virtual, animación 3D y visión artificial
- Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual
- La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet
Profundiza en la Inteligencia Artificial y el Deep Learning para convertirte en toda una referencia en el ámbito de la Visión Artificial, aprovechando las herramientas tecnológicas más avanzadas del sector”
Incluye en su cuadro docente a profesionales pertenecientes al ámbito de la informática, que vierten en este programa la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio.
Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará un estudio inmersivo programado para entrenarse ante situaciones reales.
El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el alumno deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, el profesional contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.
No te quedes atrás y conoce todas las novedades de la Realidad Virtual y Visión Artificial, dando un paso decisivo en tu trayectoria profesional al incorporar este Grand Master de Formación Permanente en tu CV”
Únete a los proyectos más ambiciosos de empresas consolidadas como Valve, Microsoft, Google, Ubisoft o Samsung”
Temario
Los contenidos de este Grand Master de Formación Permanente han sido diseñados por grandes expertos internacionales en la materia, garantizando al informático el acceso a conocimientos altamente especializados y actualizados que le colocarán como una referencia del sector. En este programa podrá profundizar en aspectos como la Visión Artificial para el estudio del espacio y para análisis de contenido, en la búsqueda de patrones y códigos, así como en todos los campos relativos a la animación e informática 3D en entornos de realidad virtual, con temas y subtemas dedicados a las principales herramientas, métodos de trabajo, recursos digitales y formas de organización de equipos.
Accede a una biblioteca de contenidos de alta calidad, que profundizan con videos en detalle, casos simulados y lecturas complementarias en el amplio mundo de la Realidad Virtual y Visión Artificial”
Módulo 1. Visión artificial
1.1. Percepción humana
1.1.1. Sistema visual humano
1.1.2. El color
1.1.3. Frecuencias visibles y no visibles
1.2. Crónica de la Visión Artificial
1.2.1. Principios
1.2.2. Evolución
1.2.3. La importancia de la visión artificial
1.3. Composición de imágenes digitales
1.3.1. La Imagen digital
1.3.2. Tipos de imágenes
1.3.3. Espacios de color
1.3.4. RGB
1.3.5. HSV y HSL
1.3.6. CMY-CMYK
1.3.7. YCbCr
1.3.8. Imagen indexada
1.4. Sistemas de captación de imágenes
1.4.1. Funcionamiento de una cámara digital
1.4.2. La correcta exposición para cada situación
1.4.3. Profundidad de campo
1.4.4. Resolución
1.4.5. Formatos de imagen
1.4.6. Modo HDR
1.4.7. Cámaras de alta resolución
1.4.8. Cámaras de alta velocidad
1.5. Sistemas Ópticos
1.5.1. Principios ópticos
1.5.2. Objetivos convencionales
1.5.3. Objetivos telecéntricos
1.5.4. Tipos de autoenfoque
1.5.5. Distancia focal
1.5.6. Profundidad de campo
1.5.7. Distorsión óptica
1.5.8. Calibración de una imagen
1.6. Sistemas de iluminación
1.6.1. Importancia de la iluminación
1.6.2. Respuesta frecuencial
1.6.3. Iluminación Led
1.6.4. Iluminación en exteriores
1.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos
1.7. Sistemas Captación 3D
1.7.1. Estéreo Visión
1.7.2. Triangulación
1.7.3. Luz estructurada
1.7.4. Time of Flight
1.7.5. Lidar
1.8. Multiespectro
1.8.1. Cámaras Multiespectrales
1.8.2. Cámaras Hiperespectrales 87
1.9. Espectro cercano No visible
1.9.1. Cámaras IR
1.9.2. Cámaras UV
1.9.3. Convertir de No visible a Visible gracias a la iluminación
1.10. Otras bandas del espectro
1.10.1. Rayos X
1.10.2. Teraherzios
Módulo 2. Aplicaciones y estado del arte
2.1. Aplicaciones industriales
2.1.1. Librerías de visión industrial
2.1.2. Cámaras compactas
2.1.3. Sistemas basados en PC
2.1.4. Robótica industrial
2.1.5. Pick and place 2D
2.1.6. Bin picking
2.1.7. Control de calidad
2.1.8. Presencia ausencia de componentes
2.1.9. Control dimensional
2.1.10. Control etiquetaje
2.1.11. Trazabilidad
2.2. Vehículos autónomos
2.2.1. Asistencia al conductor
2.2.2. Conducción autónoma
2.3. Visión Artificial para Análisis de Contenidos
2.3.1. Filtro por contenido
2.3.2. Moderación de contenido visual
2.3.3. Sistemas de seguimiento
2.3.4. Identificación de marcas y logos
2.3.5. Etiquetación y clasificación de videos
2.3.6. Detección de cambios de escena
2.3.7. Extracción de textos o créditos
2.4. Aplicaciones médicas
2.4.1. Detección y localización de enfermedades
2.4.2. Cáncer y Análisis de radiografías
2.4.3. Avances en visión artificial dada la Covid19
2.4.4. Asistencia en el quirófano
2.5. Aplicaciones espaciales
2.5.1. Análisis de imagen por satélite
2.5.2. Visión artificial para el estudio del espacio
2.5.3. Misión a Marte
2.6. Aplicaciones comerciales
2.6.1. Control stock
2.6.2. Videovigilancia, seguridad en casa
2.6.3. Cámaras aparcamiento
2.6.4. Cámaras control población
2.6.5. Cámaras velocidad
2.7. Visión Aplicada a la Robótica
2.7.1. Drones
2.7.2. AGV
2.7.3. Visión en robots colaborativos
2.7.4. Los ojos de los robots
2.8. Realidad Aumentada
2.8.1. Funcionamiento
2.8.2. Dispositivos
2.8.3. Aplicaciones en la industria
2.8.4. Aplicaciones comerciales
2.9. Cloud Computing
2.9.1. Plataformas de Cloud Computing
2.9.2. Del Cloud Computing a la producción
2.10. Investigación y Estado del Arte
2.10.1. La comunidad científica
2.10.2. Qué se está cociendo
2.10.3. El futuro de la visión artificial
Módulo 3. Procesado digital de imágenes
3.1. Entorno de desarrollo en Visión por Computador
3.1.1. Librerías de Visión por Computador
3.1.2. Entorno de programación
3.1.3. Herramientas de visualización
3.2. Procesamiento digital de imágenes
3.2.1. Relaciones entre pixeles
3.2.2. Operaciones con imágenes
3.2.3. Transformaciones geométricas
3.3. Operaciones de pixeles
3.3.1. Histograma
3.3.2. Transformaciones a partir de histograma
3.3.3. Operaciones en imágenes en color
3.4. Operaciones lógicas y aritméticas
3.4.1. Suma y resta
3.4.2. Producto y División
3.4.3. And / Nand
3.4.4. Or / Nor
3.4.5. Xor / Xnor
3.5. Filtros
3.5.1. Máscaras y Convolución
3.5.2. Filtrado lineal
3.5.3. Filtrado no lineal
3.5.4. Análisis de Fourier
3.6. Operaciones morfológicas
3.6.1. Erode and Dilating
3.6.2. Closing and Open
3.6.3. Top_hat y Black hat
3.6.4. Detección de contornos
3.6.5. Esqueleto
3.6.6. Relleno de agujeros
3.6.7. Convex hull
3.7. Herramientas de análisis de imágenes
3.7.1. Detección de bordes
3.7.2. Detección de blobs
3.7.3. Control dimensional
3.7.4. Inspección de color
3.8. Segmentación de objetos
3.8.1. Segmentación de imágenes
3.8.2. Técnicas de segmentación clásicas
3.8.3. Aplicaciones reales
3.9. Calibración de imágenes
3.9.1. Calibración de imagen
3.9.2. Métodos de calibración
3.9.3. Proceso de calibración en un sistema cámara 2D/robot
3.10. Procesado de imágenes en entorno real
3.10.1. Análisis de la problemática
3.10.2. Tratamiento de la imagen
3.10.3. Extracción de características
3.10.4. Resultados finales
Módulo 4. Procesado digital de imágenes avanzado
4.1. Reconocimiento óptico de caracteres (OCR)
4.1.1. Preprocesado de la imagen
4.1.2. Detección de texto
4.1.3. Reconocimiento de texto
4.2. Lectura de códigos
4.2.1. Códigos 1D
4.2.2. Códigos 2D
4.2.3. Aplicaciones
4.3. Búsqueda de patrones
4.3.1. Búsqueda de patrones
4.3.2. Patrones basados en nivel de gris
4.3.3. Patrones basados en contornos
4.3.4. Patrones basados en formas geométricas
4.3.5. Otras técnicas
4.4. Seguimiento de objetos con visión convencional
4.4.1. Extracción de fondo
4.4.2. Meanshift
4.4.3. Camshift
4.4.4. Optical flow
4.5. Reconocimiento facial
4.5.1. Facial Landmark Detection
4.5.2. Aplicaciones
4.5.3. Reconocimiento facial
4.5.4. Reconocimiento de emociones
4.6. Panorámica y alineaciones
4.6.1. Stitching
4.6.2. Composición de imágenes
4.6.3. Fotomontaje
4.7. High Dinamic Range (HDR) and Photometric Stereo
4.7.1. Incremento del rango dinámico
4.7.2. Composición de imágenes para mejorar contornos
4.7.3. Técnicas para el uso de aplicaciones en dinámico
4.8. Compresión de imágenes
4.8.1. La compresión de imágenes
4.8.2. Tipos de compresores
4.8.3. Técnicas de compresión de imágenes
4.9. Procesado de video
4.9.1. Secuencias de imágenes
4.9.2. Formatos y códecs de video
4.9.3. Lectura de un video
4.9.4. Procesado del fotograma
4.10. Aplicación real de Procesado de Imágenes
4.10.1. Análisis de la problemática
4.10.2. Tratamiento de la imagen
4.10.3. Extracción de características
4.10.4. Resultados finales
Módulo 5. Procesado de imágenes 3D
5.1. Imagen 3D
5.1.1. Imagen 3D
5.1.2. Software de procesado de imágenes 3d y Visualizaciones
5.1.3. Software de Metrología
5.2. Open3D
5.2.1. Librería para Proceso de Datos 3D
5.2.2. Características
5.2.3. Instalación y Uso
5.3. Los datos
5.3.1. Mapas de profundidad en imagen 2D
5.3.2. Pointclouds
5.3.3. Normales
5.3.4. Superficies
5.4. Visualización
5.4.1. Visualización de Datos
5.4.2. Controles
5.4.3. Visualización Web
5.5. Filtros
5.5.1. Distancia entre puntos, eliminar Outliers
5.5.2. Filtro paso alto
5.5.3. Downsampling
5.6. Geometría y extracción de características
5.6.1. Extracción de un perfil
5.6.2. Medición de profundidad
5.6.3. Volumen
5.6.4. Formas geométricas 3D
5.6.5. Planos
5.6.6. Proyección de un punto
5.6.7. Distancias geométricas
5.6.8. Kd Tree
5.6.9. Features 3D
5.7. Registro y Meshing
5.7.1. Concatenación
5.7.2. ICP
5.7.3. Ransac 3D
5.8. Reconocimiento de objetos 3D
5.8.1. Búsqueda de un objeto en la escena 3d
5.8.2. Segmentación
5.8.3. Bin picking
5.9. Análisis de superficies
5.9.1. Smoothing
5.9.2. Superficies orientables
5.9.3. Octree
5.10. Triangulación
5.10.1. De Mesh a Point Cloud
5.10.2. Triangulación de mapas de profundidad
5.10.3. Triangulación de PointClouds no ordenados
Módulo 6. Deep Learning
6.1. Inteligencia artificial
6.1.1. Machine Learning
6.1.2. Deep Learning
6.1.3. La explosión del Deep Learning. Por qué ahora
6.2. Redes neuronales
6.2.1. La red neuronal
6.2.2. Usos de las redes neuronales
6.2.3. Regresión lineal y Perceptron
6.2.4. Forward Propagation
6.2.5. Backpropagation
6.2.6. Feature vectors
6.3. Loss Functions
6.3.1. Loss function
6.3.2. Tipos de Loss Functions
6.3.3. Elección de la Loss function
6.4. Funciones de activación
6.4.1. Función de activación
6.4.2. Funciones lineales
6.4.3. Funciones no lineales
6.4.4. Output vs Hidden layer activation functions
6.5. Regularización y Normalización
6.5.1. Regularización y Normalización
6.5.2. Overfitting and Data Augmentation
6.5.3. Regularization methods: L1, L2 and dropout
6.5.4. Normalization methods: Batch, Weight, Layer
6.6. Optimización
6.6.1. Gradient Descent
6.6.2. Stochastic Gradient Descent
6.6.3. Mini Batch Gradient Descent
6.6.4. Momentum
6.6.5. Adam
6.7. Hyperparameter Tuning y Pesos
6.7.1. Los hiperparámetros
6.7.2. Batch Size vs Learning Rate vs Step Decay
6.7.3. Pesos
6.8. Métricas de evaluación de una red neuronal
6.8.1. Accuracy
6.8.2. Dice coefficient
6.8.3. Sensitivity vs Specificity / Recall vs precision
6.8.4. Curva ROC (AUC)
6.8.5. F1-score
6.8.6. Confusion matrix
6.8.7. Cross-validation
6.9. Frameworks y Hardware
6.9.1. Tensor Flow
6.9.2. Pytorch
6.9.3. Caffe
6.9.4. Keras
6.9.5. Hardware para la Fase de Entrenamiento
6.10. Creación de una Red Neuronal - Entrenamiento y Validación
6.10.1. Dataset
6.10.2. Construcción de la red
6.10.3. Entrenamiento
6.10.4. Visualización de resultados
Módulo 7. Redes Convolucionales y Clasificación de Imágenes
7.1. Redes neuronales convolucionales
7.1.1. Introducciónn
7.1.2. La convolución
7.1.3. CNN Building Blocks
7.2. Tipos de capas CNN
7.2.1. Convolutional
7.2.2. Activation
7.2.3. Batch normalization
7.2.4. Polling
7.2.5. Fully connected
7.3. Métricas
7.3.1. Confusión Matrix
7.3.2. Accuracy
7.3.3. Precisión
7.3.4. Recall
7.3.5. F1 Score
7.3.6. ROC Curve
7.3.7. AUC
7.4. Principales arquitecturas
7.4.1.AlexNet
7.4.2. VGG
7.4.3. Resnet
7.4.4. GoogleLeNet
7.5. Clasificación de imágenes
7.5.1. Introducción
7.5.2. Análisis de los datos
7.5.3. Preparación de los datos
7.5.4. Entrenamiento del modelo
7.5.5. Validación del modelo
7.6. Consideraciones prácticas para el entrenamiento de CNN
7.6.1. Selección de optimizador
7.6.2. Learning Rate Scheduler
7.6.3. Comprobar pipeline de entrenamiento
7.6.4. Entrenamiento con regularización
7.7. Buenas prácticas en Deep Learning
7.7.1. Transfer learning
7.7.2. Fine Tuning
7.7.3. Data Augmentation
7.8. Evaluación estadística de datos
7.8.1. Número de datasets
7.8.2. Número de etiquetas
7.8.3. Número de imágenes
7.8.4. Balanceo de datos
7.9. Deployment
7.9.1. Guardando y cargando modelos
7.9.2. Onnx
7.9.3. Inferencia
7.10. Caso Práctico: Clasificación de Imágenes
7.10.1. Análisis y preparación de los datos
7.10.2. Testeo de la pipeline de entrenamiento
7.10.3. Entrenamiento del modelo
7.10.4. Validación del modelo
Módulo 8. Detección de objetos
8.1. Detección y Seguimiento de Objetos
8.1.1. Detección de Objetos
8.1.2. Casos de uso
8.1.3. Seguimiento de objetos
8.1.4. Casos de uso
8.1.5. Oclusiones, Rigid and No Rigid Poses
8.2. Métricas de Evaluación
8.2.1. IOU - Intersection Over Union
8.2.2. Confidence Score
8.2.3. Recall
8.2.4. Precisión
8.2.5. Recall - Precisión Curve
8.2.6. Mean Average Precision (MAP)
8.3. Métodos tradicionales
8.3.1. Sliding window
8.3.2. Viola detector
8.3.3. HOG
8.3.4. Non Maximal Supresion (NMS)
8.4. Datasets
8.4.1. Pascal VC
8.4.2. MS Coco
8.4.3. ImageNet (2014)
8.4.4. MOTA Challenge
8.5. Two Shot Object Detector
8.5.1. R-CNN
8.5.2. Fast R-CNN
8.5.3. Faster R-CNN
8.5.4. Mask R-CNN
8.6. Single Shot Object Detector
8.6.1. SSD
8.6.2. YOLO
8.6.3. RetinaNet
8.6.4. CenterNet
8.6.5. EfficientDet
8.7. Backbones
8.7.1. VGG
8.7.2. ResNet
8.7.3. Mobilenet
8.7.4. Shufflenet
8.7.5. Darknet
8.8. Object Tracking
8.8.1. Enfoques clásicos
8.8.2. Filtros de partículas
8.8.3. Kalman
8.8.4. Sort tracker
8.8.5. Deep Sort
8.9. Despliegue
8.9.1. Plataforma de Computación
8.9.2. Elección del Backbone
8.9.3. Elección del Framework
8.9.4. Optimización de Modelos
8.9.5. Versionado de Modelos
8.10. Estudio: Detección y Seguimiento de Personas
8.10.1. Detección de personas
8.10.2. Seguimiento de personas
8.10.3. Reidentificación
8.10.4. Conteo de personas en multitudes
Módulo 9. Segmentación de Imágenes con Deep Learning
9.1. Detección de Objetos y Segmentación
9.1.1. Segmentación semántica
9.1.1.1. Casos de uso de segmentación semántica
9.1.2. Segmentación Instanciada
9.1.2.1. Casos de uso segmentación instanciada
9.2. Métricas de evaluación
9.2.1. Similitudes con otros métodos
9.2.2. Pixel Accuracy
9.2.3. Dice Coefficient (F1 Score)
9.3. Funciones de coste
9.3.1. Dice Loss
9.3.2. Focal Loss
9.3.3. Tversky Loss
9.3.4. Otras funciones
9.4. Métodos tradicionales de Segmentación
9.4.1. Aplicación de umbral con Otsu y Riddlen
9.4.2. Mapas auto organizados
9.4.3. GMM-EM algorithm
9.5. Segmentación Semántica aplicando Deep Learning: FCN
9.5.1. FCN
9.5.2. Arquitectura
9.5.3. Aplicaciones de FCN
9.6. Segmentación semántica aplicando Deep Learning: U-NET
9.6.1. U-NET
9.6.2. Arquitectura
9.6.3. Aplicación U-NET
9.7. Segmentación semántica aplicando Deep Learning: Deep Lab
9.7.1. Deep Lab
9.7.2. Arquitectura
9.7.3. Aplicación de Deep Lab
9.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN
9.8.1. Mask RCNN
9.8.2. Arquitectura
9.8.3. Aplicación de un Mas RCNN
9.9. Segmentación en videos
9.9.1. STFCN
9.9.2. Semantic Video CNNs
9.9.3. Clockwork Convnets
9.9.4. Low-Latency
9.10. Segmentación en nubes de puntos
9.10.1. La nube de puntos
9.10.2. PointNet
9.10.3. A-CNN
Módulo 10. Segmentación de Imágenes Avanzada y Técnicas Avanzadas de Visión por Computador
10.1. Base de datos para problemas de Segmentación General
10.1.1. Pascal Context
10.1.2. CelebAMask-HQ
10.1.3. Cityscapes Dataset
10.1.4. CCP Dataset
10.2. Segmentación Semántica en la Medicina
10.2.1. Segmentación Semántica en la Medicina
10.2.2. Datasets para problemas médicos
10.2.3. Aplicación práctica
10.3. Herramientas de anotación
10.3.1. Computer Vision Annotation Tool
10.3.2. LabelMe
10.3.3. Otras herramientas
10.4. Herramientas de Segmentación usando diferentes frameworks
10.4.1. Keras
10.4.2. Tensorflow v2
10.4.3. Pytorch
10.4.4. Otros
10.5. Proyecto Segmentación semántica. Los datos, Fase 1
10.5.1. Análisis del problema
10.5.2. Fuente de entrada para datos
10.5.3. Análisis de datos
10.5.4. Preparación de datos
10.6. Proyecto Segmentación semántica. Entrenamiento, Fase 2
10.6.1. Selección del algoritmo
10.6.2. Entrenamiento
10.6.3. Evaluación
10.7. Proyecto Segmentación semántica. Resultados, Fase 3
10.7.1. Ajuste fino
10.7.2. Presentación de la solución
10.7.3. Conclusiones
10.8. Autocodificadores
10.8.1. Autocodificadores
10.8.2. Arquitectura de un Autocodificador
10.8.3. Autocodificadores de Eliminación de Ruido
10.8.4. Autocodificador de Coloración Automática
10.9. Las Redes Generativas Adversariales (GAN)
10.9.1. Redes Generativas Adversariales (GAN)
10.9.2. Arquitectura DCGAN
10.9.3. Arquitectura GAN Condicionada
10.10. Redes Generativas Adversariales Mejoradas
10.10.1. Visión general del problema
10.10.2. WGAN
10.10.3. LSGAN
10.10.4. ACGAN
Módulo 11. La Industria del 3D
11.1. Industria del 3D en Animación y Videojuegos
11.1.1. La Animación 3D
11.1.2. Industria del 3D en Animación y Videojuegos
11.1.3. La Animación 3D. Futuro
11.2. El 3D en los Videojuegos
11.2.1. Los Videojuegos. Limitaciones
11.2.2. Desarrollo de un videojuego 3D. Dificultades
11.2.3. Soluciones a las dificultades en el desarrollo de un videojuego
11.3. Software para 3D en videojuegos
11.3.1. Maya. Pros y contras
11.3.2. 3Ds Max. Pros y contras
11.3.3. Blender. Pros y contras
11.4. Pipeline en la generación de assets 3D para Videojuegos
11.4.1. Idea y montaje a partir de un Modelsheet
11.4.2. Modelado con baja geometría y detalles en alta
11.4.3. Proyección de detalles por texturas
11.5. Estilos artísticos clave en el 3D para videojuegos
11.5.1. Estilo cartoon
11.5.2. Estilo realista
11.5.3. Cel shading
11.5.4. Motion capture
11.6. Integración de 3D
11.6.1. Integración 2d en el mundo digital
11.6.2. Integración 3d en el mundo digital
11.6.3. Integración en el mundo real (AR, MR/XR)
11.7. Factores clave del 3D para diferentes industrias
11.7.1. 3D en cine y series
11.7.2. 3D en videojuegos
11.7.3. 3D en publicidad
11.8. Render: Render en tiempo real y el pre-renderizado
11.8.1. Iluminación
11.8.2. Definición de sombras
11.8.3. Calidad vs. Velocidad
11.9. Generación de assets 3D en 3D Max
11.9.1. Software 3D Max
11.9.2. Interface, menús, barra de herramientas
11.9.3. Controles
11.9.4. Escena
11.9.5. Viewports
11.9.6. Basic shapes
11.9.7. Generación, modificación y transformación de objetos
11.9.8. Creación de una escena 3D
11.9.9. Modelado 3D de assets profesionales para videojuegos
11.9.10. Editores de materiales
11.9.10.1. Creación y edición de materiales
11.9.10.2. Aplicación de la luz a los materiales
11.9.10.3. Modificador UVW Map. Coordenadas de mapeado
11.9.10.4. Creación de texturas
11.10. Organización del espacio de trabajo y buenas prácticas
11.10.1. Creación de un proyecto
11.10.2. Estructura de carpetas
11.10.3. Funcionalidad personalizada
Módulo 12. Arte y 3D en la Industria del Videojuego
12.1. Proyectos 3D en VR
12.1.1. Software de creación de malla 3D
12.1.2. Software de edición de imagen
12.1.3. Realidad Virtual
12.2. Problemática típica, soluciones y necesidades del proyecto
12.2.1. Necesidades del Proyecto
12.2.2. Posibles problemas
12.2.3. Soluciones
12.3. Estudio de línea estética para la generación del estilo artístico en videojuegos: Del diseño de juego a la generación de arte 3D
12.3.1. Elección del Destinatario del videojuego. A quién queremos llegar
12.3.2. Posibilidades artísticas del desarrollador
12.3.3. Definición final de la línea estética
12.4. Búsqueda de referencias y análisis de competidores a nivel estético
12.4.1. Pinterest y páginas similares
12.4.2. Creación de un Modelsheet
12.4.3. Búsqueda de competidores
12.5. Creación de la biblia y briefing
12.5.1. Creación de la Biblia
12.5.2. Desarrollo de una biblia
12.5.3. Desarrollo de un briefing
12.6. Escenarios y assets
12.6.1. Planificación de producción de los assets en los niveles
12.6.2. Diseño de los escenarios
12.6.3. Diseño de los assets
12.7. Integración de los assets en los niveles y pruebas
12.7.1. Proceso de integración en los niveles
12.7.2. Texturas
12.7.3. Retoques finales
12.8. Personajes
12.8.1. Planificación de producción de personajes
12.8.2. Diseño de los personajes
12.8.3. Diseño de assets para personajes
12.9. Integración de personajes en escenarios y pruebas
12.9.1. Proceso de integración de personajes en los niveles
12.9.2. Necesidades del proyecto
12.9.3. Animaciones
12.10. Audio en videojuegos 3D
12.10.1. Interpretación del dossier del proyecto para la generación de la identidad sonora del videojuego
12.10.2. Procesos de composición y producción
12.10.3. Diseño de banda sonora
12.10.4. Diseño de efectos de sonido
12.10.5. Diseño de voces
Módulo 13. 3D Avanzado
13.1. Técnicas avanzadas de modelado 3D
13.1.1. Configuración de la interfaz
13.1.2. Observación para Modelar
13.1.3. Modelado en alta
13.1.4. Modelado orgánico para videojuegos
13.1.5. Mapeado avanzado de objetos 3D
13.2. Texturing 3D avanzado
13.2.1. Interfaz de Substance Painter
13.2.2. Materiales, alphas y el uso de pinceles
13.2.3. Uso de partículas
13.3. Exportación para software 3D y Unreal Engine
13.3.1. Integración de Unreal Engine en los diseños
13.3.2. Integración de modelos 3D
13.3.3. Aplicación de texturas en Unreal Engine
13.4. Sculpting digital
13.4.1. Sculpting digital con zBrush
13.4.2. Primeros pasos en Zbrush
13.4.3. Interfaz, menús y navegación
13.4.4. Imágenes de referencia
13.4.5. Modelado completo en 3D de un objeto en zBrush
13.4.6. Uso de mallas base
13.4.7. Modelado por piezas
13.4.8. Exportación de modelos 3D en zBrush
13.5. El uso de Polypaint
13.5.1. Pinceles avanzados
13.5.2. Texturas
13.5.3. Materiales por defecto
13.6. La Retopología
13.6.1. La retopología. Utilización en la industria del videojuego
13.6.2. Creación de malla low-poly
13.6.3. Uso del software para la retopología
13.7. Posados de los modelos 3D
13.7.1. Visualizadores de imágenes de referencia
13.7.2. Utilización de transpose
13.7.3. Uso del transpose para modelos compuestos por diferentes piezas
13.8. La exportación de modelos 3D
13.8.1. Exportación de modelos 3D
13.8.2. Generación de texturas para la exportación
13.8.3. Configuración del modelo 3d con los diferentes materiales y texturas
13.8.4. Previsualización del modelo 3D
13.9. Técnicas avanzadas de trabajo
13.9.1. El flujo de trabajo en modelado 3D
13.9.2. Organización de los procesos de trabajo en modelado 3D
13.9.3. Estimaciones de esfuerzo para producción
13.10. Finalización del modelo y exportación para otros programas
13.10.1. El flujo de trabajo para finalizar el modelo
13.10.2. Exportación con Zpluging
13.10.3. Posibles archivos. Ventajas y desventajas
Módulo 14. Animación 3D
14.1. Manejo del software
14.1.1. Manejo de información y metodología de trabajo
14.1.2. La animación
14.1.3. Timing y peso
14.1.4. Animación con objetos básicos
14.1.5. Cinemática directa e inversa
14.1.6. Cinemática inversa
14.1.7. Cadena cinemática
14.2. Anatomía. Bípedo vs. cuadrúpedo
14.2.1. Bípedo
14.2.2. Cuadrúpedo
14.2.3. Ciclo de caminar
14.2.4. Ciclo de correr
14.3. Rig facial y Morpher
14.3.1. Lenguaje facial. Lip-sync, ojos, focos de atención
14.3.2. Edición de secuencias
14.3.3. La fonética. Importancia
14.4. Animación aplicada
14.4.1. Animación 3D para cine y televisión
14.4.2. Animación para videojuegos
14.4.3. Animación para otras aplicaciones
14.5. Captura de movimiento con Kinect
14.5.1. Captura de movimientos para animación
14.5.2. Secuencia de movimientos
14.5.3. Integración en Blender
14.6. Esqueleto, skinning y setup
14.6.1. Interacción entre esqueleto y geometría
14.6.2. Interpolación de mallas
14.6.3. Pesos de animación
14.7. Acting
14.7.1. El lenguaje corporal
14.7.2. Las poses
14.7.3. Edición de secuencias
14.8. Cámaras y planos
14.8.1. La cámara y el entorno
14.8.2. Composición del plano y los personajes
14.8.3. Acabados
14.9. Efectos visuales especiales
14.9.1. Los efectos visuales y la animación
14.9.2. Tipos de efectos ópticos
14.9.3. 3D VFX L
14.10. El animador como actor
14.10.1. Las expresiones
14.10.2. Referencias de los actores
14.10.3. De la cámara al programa
Módulo 15. Dominio de Unity 3D e Inteligencia Artificial
15.1. El Videojuego. Unity 3D
15.1.1. El videojuego
15.1.2. EL Videojuego. Errores y Aciertos
15.1.3. Aplicaciones del Videojuego en otras áreas e industrias
15.2. Desarrollo de los videojuegos. Unity 3D
15.2.1. Plan de producción y fases de desarrollo
15.2.2. Metodología de desarrollo
15.2.3. Parches y contenido adicional
15.3. Unity 3D
15.3.1. Unity 3D. Aplicaciones
15.3.2. Scripting en Unity 3D
15.3.3. Asset Store y plugins de terceros
15.4. Físicas, inputs
15.4.1. InputSystem
15.4.2. Físicas en Unity 3D
15.4.3. Animation y animator
15.5. Prototipado en Unity
15.5.1. Blocking y colliders
15.5.2. Prefabs
15.5.3. Scriptable Objects
15.6. Técnicas de programación específicas
15.6.1. Modelo Singleton
15.6.2. Carga de recursos en la ejecución de juegos en Windows
15.6.3. Rendimiento y Profiler
15.7. Videojuegos para dispositivos móviles
15.7.1. Juegos para dispositivos Android
15.7.2. Juegos para dispositivos IOS
15.7.3. Desarrollos multiplataforma
15.8. Realidad Aumentada
15.8.1. Tipos de juegos de realidad aumentada
15.8.2. ARkit y ARcore
15.8.3. Desarrollo Vuforia
15.9. Programación de Inteligencia Artificial
15.9.1. Algoritmos de inteligencia artificial
15.9.2. Máquinas de estados finitas
15.9.3. Redes neuronales
15.10. Distribución y Marketing
15.10.1. El arte de publicar y promocionar un videojuego
15.10.2. El responsable del éxito
15.10.3. Estrategias
Módulo 16. Desarrollo de videojuegos 2D y 3D
16.1. Recursos gráficos rasterizados
16.1.1. Sprites
16.1.2. Atlas
16.1.3. Texturas
16.2. Desarrollo de Interfaces y Menús
16.2.1. Unity GUI
16.2.2. Unity UI
16.2.3. UI Toolkit
16.3. Sistema de Animación
16.3.1. Curvas y Claves de animación
16.3.2. Eventos de animación aplicados
16.3.3. Modificadores
16.4. Materiales y shaders
16.4.1. Componentes de un material
16.4.2. Tipos de RenderPass
16.4.3. Shaders
16.5. Partículas
16.5.1. Sistemas de partículas
16.5.2. Emisores y subemisores
16.5.3. Scripting
16.5.4. Iluminación
16.6. Modos de iluminación
16.6.1. Bakeado de luces
16.6.2. Light probes
16.7. Mecanim
16.7.1. State Machines, SubState Machines y Transiciones entre animaciones
16.7.2. Blend trees
16.7.3. Animation Layers e IK
16.8. Acabado cinemático
16.8.1. Timeline
16.8.2. Efectos de postprocesado
16.8.3. Universal Render Pipeline y High Definition Render Pipeline
16.9. VFX avanzado
16.9.1. VFX Graph
16.9.2. Shader Graph
16.9.3. Pipeline tolos
16.10. Componentes de Audio
16.10.1. Audio Source y Audio Listener
16.10.2. Audio Mixer
16.10.3. Audio Spatializer
Módulo 17. Programación, generación de mecánicas y técnicas de prototipado de videojuegos
17.1. Proceso técnico
17.1.1. Modelos lowpoly y highpoly a Unity
17.1.2. Configuración de materiales
17.1.3. High Definition Render Pipeline
17.2. Diseño de personajes
17.2.1. Movimiento
17.2.2. Diseño de colliders
17.2.3. Creación y comportamiento
17.3. Importación de Skeletal Meshes a Unity
17.3.1. Exportación skeletal meshes del software de 3D
17.3.2. Skeletal meshes en Unity
17.3.3. Puntos de anclaje para accesorios
17.4. Importación de animaciones
17.4.1. Preparación de animación
17.4.2. Importación de animaciones
17.4.3. Animator y transiciones
17.5. Editor de animaciones
17.5.1. Creación de blend spaces
17.5.2. Creación de animation montage
17.5.3. Edición de animaciones read-only
17.6. Creación y simulación de un ragdoll
17.6.1. Configuración de un ragdoll
17.6.2. Ragdoll a un gráfico de animación
17.6.3. Simulación de un ragdoll
17.7. Recursos para la creación de personajes
17.7.1. Bibliotecas
17.7.2. Importación y exportación de materiales de bibliotecas
17.7.3. Manipulación de materiales
17.8. Equipos de trabajo
17.8.1. Jerarquía y roles de trabajo
17.8.2. Sistemas de control de versiones
17.8.3. Resolución de conflictos
17.9. Requisitos para un desarrollo exitoso
17.9.1. Producción para el éxito
17.9.2. Desarrollo óptimo
17.9.3. Requisitos imprescindibles
17.10. Empaquetado para publicación
17.10.1. Player settings
17.10.2. Build
17.10.3. Creación de un instalador
Módulo 18. Desarrollo de Videojuegos Inmersivos en VR
18.1. Singularidad de la VR
18.1.1. Videojuegos Tradicionales y VR. Diferencias
18.1.2. Motion sickness: fluidez frente a efectos
18.1.3. Interacciones únicas de la VR
18.2. Interacción
18.2.1. Eventos
18.2.2. Triggers físicos
18.2.3. Mundo virtual vs mundo real
18.3. Locomoción inmersiva
18.3.1. Teletransportación
18.3.2. Arm swinging
18.3.3. Forward movement con Facing y sin él
18.4. Físicas en VR
18.4.1. Objetos agarrables y lanzables
18.4.2. Peso y masa en VR
18.4.3. Gravedad en VR
18.5. UI en VR
18.5.1. Posicionamiento y curvatura de los elementos de UI
18.5.2. Modos de Interacción con menús en VR
18.5.3. Buenas prácticas para una experiencia confortable
18.6. Animación en VR
18.6.1. Integración de modelos animados en VR
18.6.2. Objetos y personajes animados vs. Objetos físicos
18.6.3. Transiciones animadas vs procedurales
18.7. El Avatar
18.7.1. Representación del avatar desde sus propios ojos
18.7.2. Representación externa del propio avatar
18.7.3. Cinemática inversa y animación procedural aplicada al avatar
18.8. Audio
18.8.1. Configuración de Audio Sources y Audio Listeners para VR
18.8.2. Efectos disponibles para una experiencia más inmersiva
18.8.3. Audio Spatializer VR
18.9. Optimización en proyectos de VR y AR
18.9.1. Occlusion culling
18.9.2. Static Batching
18.9.3. Configuración de calidad y tipos de Render Pass
18.10. Práctica: Escape Room VR
18.10.1. Diseño de la experiencia
18.10.2. Layout del escenario
18.10.3. Desarrollo de las mecánicas
Módulo 19. Audio Profesional para Videojuegos 3d en VR
19.1. El Audio en videojuegos profesionales 3D
19.1.1. El audio en videojuegos
19.1.2. Tipos de estilos de audio en videojuegos actuales
19.1.3. Modelos de audio espacial
19.2. Estudio de material previo
19.2.1. Estudio de la documentación de diseño de juego
19.2.2. Estudio de la documentación de diseño de niveles
19.2.3. Evaluación de la complejidad y tipología de proyecto para crear el audio
19.3. Estudio de referencias de sonido
19.3.1. Listado de referencias principales por similitud con el proyecto
19.3.2. Referencias auditivas de otros medios para dotar al videojuego de identidad
19.3.3. Estudio de las referencias y extracción de conclusiones
19.4. Diseño de la identidad sonora del videojuego
19.4.1. Factores principales que influencian el proyecto
19.4.2. Aspectos relevantes en la composición del audio: instrumentación, tempo, otros
19.4.3. Definición de voces
19.5. Creación de banda sonora
19.5.1. Listado de entornos y audios
19.5.2. Definición de motivo, temática e instrumentación
19.5.3. Composición y pruebas de audio en prototipos funcionales
19.6. Creación de efectos de sonido (FX)
19.6.1. Efectos de sonido: tipos de FX y listado completo según necesidades del proyecto
19.6.2. Definición de motivo, temática y creación
19.6.3. Evaluación de FX de sonido y pruebas en prototipos funcionales
19.7. Creación de voces
19.7.1. Tipos de voces y listado de frases
19.7.2. Búsqueda y evaluación de actores y actrices de doblaje
19.7.3. Evaluación de grabaciones y pruebas de las voces en prototipos funcionales
19.8. Evaluación de la calidad del audio
19.8.1. Elaboración de sesiones de escucha con el equipo de desarrollo
19.8.2. Integración de todos los audios en un prototipo funcional
19.8.3. Pruebas y evaluación de los resultados obtenidos
19.9. Exportación, formatos e importación de audio en el proyecto
19.9.1. Formatos y compresión de audio en videojuegos
19.9.2. Exportación de audios
19.9.3. Importación de audios en el proyecto
19.10. Preparación de librerías de audio para comercialización
19.10.1. Diseño de librerías de sonido versátiles para profesionales de los videojuegos
19.10.2. Selección de audios por tipo: banda sonora, FX y voces
19.10.3. Comercialización de librerías de assets de audio
Módulo 20. Producción y financiación de videojuegos
20.1. La producción en videojuegos
20.1.1. Las metodologías en cascada
20.1.2. Casuística de la falta de dirección de Proyecto y la ausencia del plan de trabajo
20.1.3. Consecuencias de la falta de un departamento de producción en la industria del videojuego
20.2. El equipo de desarrollo
20.2.1. Departamentos clave a la hora de desarrollar proyectos
20.2.2. Perfiles clave en la micro gestión: LEAD y SENIOR
20.2.3. Problemática de la falta de experiencia en perfiles JUNIOR
20.2.4. Establecimiento de plan de formación para perfiles de baja experiencia
20.3. Metodologías ágiles en el desarrollo de videojuegos
20.3.1. SCRUM
20.3.2. AGILE
20.3.3. Metodologías híbridas
20.4. Estimaciones de esfuerzo, tiempo y costes
20.4.1. El precio del desarrollo de un videojuego: conceptos Gastos principales
20.4.2. Calendarización de tareas: puntos críticos, claves y aspectos a tener en cuenta
20.4.3. Estimaciones basadas en puntos de esfuerzo VS cálculo en horas
20.5. Priorización en la planificación de prototipos
20.5.1. Establecimiento de objetivos generales del Proyecto
20.5.2. Priorización de funcionalidades y contenidos clave: orden y necesidades según el departamento
20.5.3. Agrupación de funcionalidades y contenidos en producción para constituir entregables (prototipos funcionales)
20.6. Buenas prácticas en la producción de videojuegos
20.6.1. Reuniones, daylies, weekly meeting, reuniones de final de sprint, reuniones de comprobación de resultados en hitos ALFA, BETA y RELEASE.
20.6.2. Medición de la velocidad de Sprint
20.6.3. Detección de falta de motivación y baja productividad y anticipación a posibles problemas en producción
20.7. Análisis en producción
20.7.1. Análisis previos I: revisión del estado del mercado
20.7.2. Análisis previos 2: establecimiento de principales referentes de proyecto (competidores directos)
20.7.3. Conclusiones de los análisis previos
20.8. Cálculo de costes de desarrollo
20.8.1. Recursos humanos
20.8.2. Tecnología y licencias
20.8.3. Gastos externos al desarrollo
20.9. Búsqueda de inversión
20.9.1. Tipos de inversores
20.9.2. Resumen ejecutivo
20.9.3. Pitch deck
20.9.4. Publishers
20.9.5. Autofinanciación
20.10. Elaboración de Post Mortems de proyecto
20.10.1. Proceso de elaboración del Post Mortem en la empresa
20.10.2. Análisis de puntos positivos del proyecto
20.10.3. Estudio de puntos negativos del proyecto
20.10.4. Propuesta de mejora sobre los puntos negativos del proyecto y conclusiones
Con los conocimientos avanzados que adquirirás en este Grand Master de Formación Permanente podrás acceder a puestos de trabajo en las mejores empresas de videojuegos y diseño 3D”
Grand Master en Realidad Virtual y Visión Artificial
Pese a que la creación de entornos artificiales inmersivos parecían escenarios distantes en el tiempo, la evolución acelerada de la tecnología informática no solo ha hecho posible el acceso a estos instrumentos para los usuarios, sino que ha permitido integrarlos con éxito a diferentes ámbitos como los videojuegos, la educación y la arquitectura. En tanto que el futuro de esta tecnología evidencia un futuro prometedor, en TECH Universidad Tecnológica hemos elaborado el Grand Master en Realidad Virtual y Visión Artificial, un programa que te brindará los últimos conocimientos disponibles en este campo para que puedas especializarte en los desarrollos más importantes producidos, el dominio de herramientas de punta como Unreal Engine y las técnicas más avanzadas del procesado digital de imágenes 3D, entre otros aspectos. De esta manera, podrás unirte a los proyectos más ambiciosos de empresas consolidadas y convertirte en un experto de referencia en el sector.
Especialízate en la Realidad Virtual y Visión Artificial
Si entre tus objetivos se encuentra alcanzar un nivel de conocimiento superior en el estudio de la tecnología informática, este programa es para ti. En TECH Universidad Tecnológica recibirás una capacitación integral y de alta calidad, puesto que contamos con el contenido más completo del mercado educativo, métodos de aprendizaje innovadores para la educación en línea y el acompañamiento de expertos que guiarán tu proceso. Así, tendrás acceso a técnicas, estrategias, programas y recursos que favorecerán el desempeño de tu trabajo en el modelado y simulación de entornos sensoriales, tridimensionales, y artificiales. Este Grand Master es una oportunidad novedosa y eficaz para garantizar tu crecimiento profesional.