Titulación universitaria
La mayor facultad de informática del mundo”
Presentación
No dejes escapar la oportunidad de especializarte con este Grand Máster y posiciónate con ventaja para acceder a los mejores proyectos de desarrollo de Realidad Virtual”
El mercado de la realidad virtual y la visión artificial se encuentra en plena expansión, requiriendo cada vez más de profesionales con cualificaciones específicas en este campo. Tal es así, que desde hace unos años la inteligencia artificial, otra tecnología ligada, ha producido una gran revolución en el mundo digital. Así, sus aplicaciones van desde las ciencias computacionales hasta la investigación en el ámbito sanitario y el desarrollo de herramientas como vehículos, robots o videojuegos.
Por este motivo, este Grand Máster de TECH contiene todo lo esperable y exigible para el informático que quiera conducir su carrera hacia la creación y virtualización de entornos realistas o fantasiosos. En este programa desarrollará sus habilidades más avanzadas en el ámbito de la creación y virtualización de modelos 3D, al mismo tiempo que perfeccionará sus competencias en las herramientas más punteras del sector. De esta forma, tendrá una solidez suficiente para liderar los proyectos de Realidad Virtual y Visión Artificial más ambiciosos.
Asimismo, el informático analizará a lo largo de toda la titulación cómo las máquinas procesan la información visual recibida y cómo esa información se puede emplear, ya sea para mejorar la relación de la propia máquina con su propio entorno o para recoger datos de forma eficaz. El Deep Learning, campo en continuo desarrollo, se aborda en el programa desde un prisma innovador y práctico. El informático conocerá los frameworks y hardware más importantes al respecto, al igual que la aplicación del mismo en los diferentes campos de acción de la Visión Artificial.
Además, el informático disfrutará de la metodología 100% online de TECH, especialmente diseñada para que pueda compaginar este programa con toda clase de trabajos o responsabilidades, puesto que se adapta a sus circunstancias personales. Esto le permite la flexibilidad de cursar esta titulación sin horarios fijos ni asistencia obligatoria a centros físicos. Así, tiene la libertad de distribuir el contenido didáctico según sus propias obligaciones personales, pues todo el material se puede descargar desde cualquier dispositivo con acceso a internet.
Anticípate a los demás y matricúlate en esta titulación para ser un auténtico experto en las tecnologías que están cambiando el mundo actual”
##Este/Esta## ##ESTUDIO## en Realidad Virtual y Visión Artificial contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:
- El desarrollo de casos prácticos presentados por expertos en Realidad Virtual y Visión Artificial
- Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que están concebidos recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional
- Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje
- Su especial hincapié en metodologías innovadoras en realidad virtual, animación 3D y visión artificial
- Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual
- La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet
Profundiza en la Inteligencia Artificial y el Deep Learning para convertirte en toda una referencia en el ámbito de la Visión Artificial, aprovechando las herramientas tecnológicas más avanzadas del sector”
Incluye en su cuadro docente a profesionales pertenecientes al ámbito de la informática, que vierten en este programa la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio.
Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará un estudio inmersivo programado para entrenarse ante situaciones reales.
El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el alumno deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, el profesional contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.
No te quedes atrás y conoce todas las novedades de la Realidad Virtual y Visión Artificial, dando un paso decisivo en tu trayectoria profesional al incorporar este Grand Máster en tu CV”
Únete a los proyectos más ambiciosos de empresas consolidadas como Valve, Microsoft, Google, Ubisoft o Samsung”
Temario
Los contenidos de este Grand Máster han sido diseñados por grandes expertos internacionales en la materia, garantizando al informático el acceso a conocimientos altamente especializados y actualizados que le colocarán como una referencia del sector. En este programa podrá profundizar en aspectos como la Visión Artificial para el estudio del espacio y para análisis de contenido, en la búsqueda de patrones y códigos, así como en todos los campos relativos a la animación e informática 3D en entornos de realidad virtual, con temas y subtemas dedicados a las principales herramientas, métodos de trabajo, recursos digitales y formas de organización de equipos.
Accede a una biblioteca de contenidos de alta calidad, que profundizan con videos en detalle, casos simulados y lecturas complementarias en el amplio mundo de la Realidad Virtual y Visión Artificial”
Módulo 1. Visión artificial
1.1. Percepción humana
1.1.1. Sistema visual humano
1.1.2. El color
1.1.3. Frecuencias visibles y no visibles
1.2. Crónica de la Visión Artificial
1.2.1. Principios
1.2.2. Evolución
1.2.3. La importancia de la visión artificial
1.3. Composición de imágenes digitales
1.3.1. La Imagen digital
1.3.2. Tipos de imágenes
1.3.3. Espacios de color
1.3.4. RGB
1.3.5. HSV y HSL
1.3.6. CMY-CMYK
1.3.7. YCbCr
1.3.8. Imagen indexada
1.4. Sistemas de captación de imágenes
1.4.1. Funcionamiento de una cámara digital
1.4.2. La correcta exposición para cada situación
1.4.3. Profundidad de campo
1.4.4. Resolución
1.4.5. Formatos de imagen
1.4.6. Modo HDR
1.4.7. Cámaras de alta resolución
1.4.8. Cámaras de alta velocidad
1.5. Sistemas Ópticos
1.5.1. Principios ópticos
1.5.2. Objetivos convencionales
1.5.3. Objetivos telecéntricos
1.5.4. Tipos de autoenfoque
1.5.5. Distancia focal
1.5.6. Profundidad de campo
1.5.7. Distorsión óptica
1.5.8. Calibración de una imagen
1.6. Sistemas de iluminación
1.6.1. Importancia de la iluminación
1.6.2. Respuesta frecuencial
1.6.3. Iluminación Led
1.6.4. Iluminación en exteriores
1.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos
1.7. Sistemas Captación 3D
1.7.1. Estéreo Visión
1.7.2. Triangulación
1.7.3. Luz estructurada
1.7.4. Time of Flight
1.7.5. Lidar
1.8. Multiespectro
1.8.1. Cámaras Multiespectrales
1.8.2. Cámaras Hiperespectrales 87
1.9. Espectro cercano No visible
1.9.1. Cámaras IR
1.9.2. Cámaras UV
1.9.3. Convertir de No visible a Visible gracias a la iluminación
1.10. Otras bandas del espectro
1.10.1. Rayos X
1.10.2. Teraherzios
Módulo 2. Aplicaciones y estado del arte
2.1. Aplicaciones industriales
2.1.1. Librerías de visión industrial
2.1.2. Cámaras compactas
2.1.3. Sistemas basados en PC
2.1.4. Robótica industrial
2.1.5. Pick and place 2D
2.1.6. Bin picking
2.1.7. Control de calidad
2.1.8. Presencia ausencia de componentes
2.1.9. Control dimensional
2.1.10. Control etiquetaje
2.1.11. Trazabilidad
2.2. Vehículos autónomos
2.2.1. Asistencia al conductor
2.2.2. Conducción autónoma
2.3. Visión Artificial para Análisis de Contenidos
2.3.1. Filtro por contenido
2.3.2. Moderación de contenido visual
2.3.3. Sistemas de seguimiento
2.3.4. Identificación de marcas y logos
2.3.5. Etiquetación y clasificación de videos
2.3.6. Detección de cambios de escena
2.3.7. Extracción de textos o créditos
2.4. Aplicaciones médicas
2.4.1. Detección y localización de enfermedades
2.4.2. Cáncer y Análisis de radiografías
2.4.3. Avances en visión artificial dada la COVID-19
2.4.4. Asistencia en el quirófano
2.5. Aplicaciones espaciales
2.5.1. Análisis de imagen por satélite
2.5.2. Visión artificial para el estudio del espacio
2.5.3. Misión a Marte
2.6. Aplicaciones comerciales
2.6.1. Control stock
2.6.2. Videovigilancia, seguridad en casa
2.6.3. Cámaras aparcamiento
2.6.4. Cámaras control población
2.6.5. Cámaras velocidad
2.7. Visión Aplicada a la Robótica
2.7.1. Drones
2.7.2. AGV
2.7.3. Visión en robots colaborativos
2.7.4. Los ojos de los robots
2.8. Realidad Aumentada
2.8.1. Funcionamiento
2.8.2. Dispositivos
2.8.3. Aplicaciones en la industria
2.8.4. Aplicaciones comerciales
2.9. Cloud computing
2.9.1. Plataformas de Cloud Computing
2.9.2. Del Cloud Computing a la producción
2.10. Investigación y Estado del Arte
2.10.1. La comunidad científica
2.10.2. Qué se está cociendo
2.10.3. El futuro de la visión artificial
Módulo 3. Procesado digital de imágenes
3.1. Entorno de desarrollo en Visión por Computador
3.1.1. Librerías de Visión por Computador
3.1.2. Entorno de programación
3.1.3. Herramientas de visualización
3.2. Procesamiento digital de imágenes
3.2.1. Relaciones entre pixeles
3.2.2. Operaciones con imágenes
3.2.3. Transformaciones geométricas
3.3. Operaciones de pixeles
3.3.1. Histograma
3.3.2. Transformaciones a partir de histograma
3.3.3. Operaciones en imágenes en color
3.4. Operaciones lógicas y aritméticas
3.4.1. Suma y resta
3.4.2. Producto y División
3.4.3. And / Nand
3.4.4. Or / Nor
3.4.5. Xor / Xnor
3.5. Filtros
3.5.1. Máscaras y Convolución
3.5.2. Filtrado lineal
3.5.3. Filtrado no lineal
3.5.4. Análisis de Fourier
3.6. Operaciones morfológicas
3.6.1. Erode and Dilating
3.6.2. Closing and Open
3.6.3. Top_hat y Black hat
3.6.4. Detección de contornos
3.6.5. Esqueleto
3.6.6. Relleno de agujeros
3.6.7. Convex hull
3.7. Herramientas de análisis de imágenes
3.7.1. Detección de bordes
3.7.2. Detección de blobs
3.7.3. Control dimensional
3.7.4. Inspección de color
3.8. Segmentación de objetos
3.8.1. Segmentación de imágenes
3.8.2. Técnicas de segmentación clásicas
3.8.3. Aplicaciones reales
3.9. Calibración de imágenes
3.9.1. Calibración de imagen
3.9.2. Métodos de calibración
3.9.3. Proceso de calibración en un sistema cámara 2D/robot
3.10. Procesado de imágenes en entorno real
3.10.1. Análisis de la problemática
3.10.2. Tratamiento de la imagen
3.10.3. Extracción de características
3.10.4. Resultados finales
Módulo 4. Procesado digital de imágenes avanzado
4.1. Reconocimiento óptico de caracteres (OCR)
4.1.1. Preprocesado de la imagen
4.1.2. Detección de texto
4.1.3. Reconocimiento de texto
4.2. Lectura de códigos
4.2.1. Códigos 1D
4.2.2. Códigos 2D
4.2.3. Aplicaciones
4.3. Búsqueda de patrones
4.3.1. Búsqueda de patrones
4.3.2. Patrones basados en nivel de gris
4.3.3. Patrones basados en contornos
4.3.4. Patrones basados en formas geométricas
4.3.5. Otras técnicas
4.4. Seguimiento de objetos con visión convencional
4.4.1. Extracción de fondo
4.4.2. Meanshift
4.4.3. Camshift
4.4.4. Optical flow
4.5. Reconocimiento facial
4.5.1. Facial Landmark detection
4.5.2. Aplicaciones
4.5.3. Reconocimiento facial
4.5.4. Reconocimiento de emociones
4.6. Panorámica y alineaciones
4.6.1. Stitching
4.6.2. Composición de imágenes
4.6.3. Fotomontaje
4.7. High Dinamic Range (HDR) and Photometric Stereo
4.7.1. Incremento del rango dinámico
4.7.2. Composición de imágenes para mejorar contornos
4.7.3. Técnicas para el uso de aplicaciones en dinámico
4.8. Compresión de imágenes
4.8.1. La compresión de imágenes
4.8.2. Tipos de compresores
4.8.3. Técnicas de compresión de imágenes
4.9. Procesado de video
4.9.1. Secuencias de imágenes
4.9.2. Formatos y códecs de video
4.9.3. Lectura de un video
4.9.4. Procesado del fotograma
4.10. Aplicación real de Procesado de Imágenes
4.10.1. Análisis de la problemática
4.10.2. Tratamiento de la imagen
4.10.3. Extracción de características
4.10.4. Resultados finales
Módulo 5. Procesado de imágenes 3D
5.1. Imagen 3D
5.1.1. Imagen 3D
5.1.2. Software de procesado de imágenes 3D y Visualizaciones
5.1.3. Software de Metrología
5.2. Open3D
5.2.1. Librería para Proceso de Datos 3D
5.2.2. Características
5.2.3. Instalación y Uso
5.3. Los datos
5.3.1. Mapas de profundidad en imagen 2D
5.3.2. Pointclouds
5.3.3. Normales
5.3.4. Superficies
5.4. Visualización
5.4.1. Visualización de Datos
5.4.2. Controles
5.4.3. Visualización Web
5.5. Filtros
5.5.1. Distancia entre puntos, eliminar Outliers
5.5.2. Filtro paso alto
5.5.3. Downsampling
5.6. Geometría y extracción de características
5.6.1. Extracción de un perfil
5.6.2. Medición de profundidad
5.6.3. Volumen
5.6.4. Formas geométricas 3D
5.6.5. Planos
5.6.6. Proyección de un punto
5.6.7. Distancias geométricas
5.6.8. Kd Tree
5.6.9. Features 3D
5.7. Registro y Meshing
5.7.1. Concatenación
5.7.2. ICP
5.7.3. Ransac 3D
5.8. Reconocimiento de objetos 3D
5.8.1. Búsqueda de un objeto en la escena 3D
5.8.2. Segmentación
5.8.3. Bin picking
5.9. Análisis de superficies
5.9.1. Smoothing
5.9.2. Superficies orientables
5.9.3. Octree
5.10. Triangulación
5.10.1. De Mesh a Point Cloud
5.10.2. Triangulación de mapas de profundidad
5.10.3. Triangulación de PointClouds no ordenados
Módulo 6. Deep learning
6.1. Inteligencia artificial
6.1.1. Machine Learning
6.1.2. Deep Learning
6.1.3. La explosión del Deep Learning. Por qué ahora
6.2. Redes neuronales
6.2.1. La red neuronal
6.2.2. Usos de las redes neuronales
6.2.3. Regresión lineal y Perceptron
6.2.4. Forward propagation
6.2.5. Backpropagation
6.2.6. Feature vectors
6.3. Loss Functions
6.3.1. Loss function
6.3.2. Tipos de loss functions
6.3.3. Elección de la loss function
6.4. Funciones de activación
6.4.1. Función de activación
6.4.2. Funciones lineales
6.4.3. Funciones no lineales
6.4.4. Output vs. Hidden layer activation functions
6.5. Regularización y Normalización
6.5.1. Regularización y Normalización
6.5.2. Overfitting and Data Augmentation
6.5.3. Regularization methods: L1, L2 and dropout
6.5.4. Normalization methods: Batch, Weight, Layer
6.6. Optimización
6.6.1. Gradient Descent
6.6.2. Stochastic Gradient Descent
6.6.3. Mini Batch Gradient Descent
6.6.4. Momentum
6.6.5. Adam
6.7. Hyperparameter Tuning y Pesos
6.7.1. Los hiperparámetros
6.7.2. Batch Size vs. Learning Rate vs. Step Decay
6.7.3. Pesos
6.8. Métricas de evaluación de una red neuronal
6.8.1. Accuracy
6.8.2. Dice coefficient
6.8.3. Sensitivity vs. Specificity / Recall vs. precision
6.8.4. Curva ROC (AUC)
6.8.5. F1-score
6.8.6. Confusion matrix
6.8.7. Cross-validation
6.9. Frameworks y Hardware
6.9.1. Tensor Flow
6.9.2. Pytorch
6.9.3. Caffe
6.9.4. Keras
6.9.5. Hardware para la Fase de Entrenamiento
6.10. Creación de una Red Neuronal-Entrenamiento y Validación
6.10.1. Dataset
6.10.2. Construcción de la red
6.10.3. Entrenamiento
6.10.4. Visualización de resultados
Módulo 7. Redes Convolucionales y Clasificación de Imágenes
7.1. Redes neuronales convolucionales
7.1.1. Introducciónn
7.1.2. La convolución
7.1.3. CNN Building Blocks
7.2. Tipos de capas CNN
7.2.1. Convolutional
7.2.2. Activation
7.2.3. Batch normalization
7.2.4. Polling
7.2.5. Fully connected
7.3. Métricas
7.3.1. Confusion Matrix
7.3.2. Accuracy
7.3.3. Precision
7.3.4. Recall
7.3.5. F1 Score
7.3.6. ROC Curve
7.3.7. AUC
7.4. Principales Arquitecturas
7.4.1.AlexNet
7.4.2. VGG
7.4.3. Resnet
7.4.4. GoogleLeNet
7.5. Clasificación de Imágenes
7.5.1. Introducción
7.5.2. Análisis de los datos
7.5.3. Preparación de los datos
7.5.4. Entrenamiento del modelo
7.5.5. Validación del modelo
7.6. Consideraciones prácticas para el entrenamiento de CNN
7.6.1. Selección de optimizador
7.6.2. Learning Rate Scheduler
7.6.3. Comprobar pipeline de entrenamiento
7.6.4. Entrenamiento con regularización
7.7. Buenas prácticas en Deep Learning
7.7.1. Transfer learning
7.7.2. Fine Tuning
7.7.3. Data Augmentation
7.8. Evaluación estadística de datos
7.8.1. Número de datasets
7.8.2. Número de etiquetas
7.8.3. Número de imágenes
7.8.4. Balanceo de datos
7.9. Deployment
7.9.1. Guardando y cargando modelos
7.9.2. Onnx
7.9.3. Inferencia
7.10. Caso Práctico: Clasificación de Imágenes
7.10.1. Análisis y preparación de los datos
7.10.2. Testeo del pipeline de entrenamiento
7.10.3. Entrenamiento del modelo
7.10.4. Validación del modelo
Módulo 8. Detección de objetos
8.1. Detección y Seguimiento de Objetos
8.1.1. Detección de Objetos
8.1.2. Casos de uso
8.1.3. Seguimiento de objetos
8.1.4. Casos de uso
8.1.5. Oclusiones, Rigid and No Rigid Poses
8.2. Métricas de Evaluación
8.2.1. IOU - Intersection Over Union
8.2.2. Confidence Score
8.2.3. Recall
8.2.4. Precisión
8.2.5. Recall-Precisión Curve
8.2.6. Mean Average Precision (mAP)
8.3. Métodos tradicionales
8.3.1. Sliding window
8.3.2. Viola detector
8.3.3. HOG
8.3.4. Non Maximal Supresion (NMS)
8.4. Datasets
8.4.1. Pascal VC
8.4.2. MS Coco
8.4.3. ImageNet (2014)
8.4.4. MOTA Challenge
8.5. Two Shot Object Detector
8.5.1. R-CNN
8.5.2. Fast R-CNN
8.5.3. Faster R-CNN
8.5.4. Mask R-CNN
8.6. Single Shot Object Detector
8.6.1. SSD
8.6.2. YOLO
8.6.3. RetinaNet
8.6.4. CenterNet
8.6.5. EfficientDet
8.7. Backbones
8.7.1. VGG
8.7.2. ResNet
8.7.3. Mobilenet
8.7.4. Shufflenet
8.7.5. Darknet
8.8. Object Tracking
8.8.1. Enfoques clásicos
8.8.2. Filtros de partículas
8.8.3. Kalman
8.8.4. Sort tracker
8.8.5. Deep Sort
8.9. Despliegue
8.9.1. Plataforma de Computación
8.9.2. Elección del Backbone
8.9.3. Elección del Framework
8.9.4. Optimización de Modelos
8.9.5. Versionado de Modelos
8.10. Estudio: Detección y Seguimiento de Personas
8.10.1. Detección de personas
8.10.2. Seguimiento de personas
8.10.3. Reidentificación
8.10.4. Conteo de personas en multitudes
Módulo 9. Segmentación de Imágenes con Deep Learning
9.1. Detección de Objetos y Segmentación
9.1.1. Segmentación semántica
9.1.1.1. Casos de uso de segmentación semántica
9.1.2. Segmentación Instanciada
9.1.2.1. Casos de uso segmentación instanciada
9.2. Métricas de evaluación
9.2.1. Similitudes con otros métodos
9.2.2. Pixel Accuracy
9.2.3. Dice Coefficient (F1 Score)
9.3. Funciones de coste
9.3.1. Dice Loss
9.3.2. Focal Loss
9.3.3. Tversky Loss
9.3.4. Otras funciones
9.4. Métodos tradicionales de Segmentación
9.4.1. Aplicación de umbral con Otsu y Riddlen
9.4.2. Mapas auto organizados
9.4.3. GMM-EM algorithm
9.5. Segmentación Semántica aplicando Deep Learning: FCN
9.5.1. FCN
9.5.2. Arquitectura
9.5.3. Aplicaciones de FCN
9.6. Segmentación semántica aplicando Deep Learning: U-NET
9.6.1. U-NET
9.6.2. Arquitectura
9.6.3. Aplicación U-NET
9.7. Segmentación semántica aplicando Deep Learning: Deep Lab
9.7.1. Deep Lab
9.7.2. Arquitectura
9.7.3. Aplicación de Deep Lab
9.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN
9.8.1. Mask RCNN
9.8.2. Arquitectura
9.8.3. Aplicación de un Mas RCNN
9.9. Segmentación en videos
9.9.1. STFCN
9.9.2. Semantic Video CNNs
9.9.3. Clockwork Convnets
9.9.4. Low-Latency
9.10. Segmentación en nubes de puntos
9.10.1. La nube de puntos
9.10.2. PointNet
9.10.3. A-CNN
Módulo 10. Segmentación de Imágenes Avanzada y Técnicas Avanzadas de Visión por Computador
10.1. Base de datos para problemas de Segmentación General
10.1.1. Pascal Context
10.1.2. CelebAMask-HQ
10.1.3. Cityscapes Dataset
10.1.4. CCP Dataset
10.2. Segmentación Semántica en la Medicina
10.2.1. Segmentación Semántica en la Medicina
10.2.2. Datasets para problemas médicos
10.2.3. Aplicación práctica
10.3. Herramientas de anotación
10.3.1. Computer Vision Annotation Tool
10.3.2. LabelMe
10.3.3. Otras herramientas
10.4. Herramientas de Segmentación usando diferentes frameworks
10.4.1. Keras
10.4.2. Tensorflow v2
10.4.3. Pytorch
10.4.4. Otros
10.5. Proyecto Segmentación semántica. Los datos, Fase 1
10.5.1. Análisis del problema
10.5.2. Fuente de entrada para datos
10.5.3. Análisis de datos
10.5.4. Preparación de datos
10.6. Proyecto Segmentación semántica. Entrenamiento, Fase 2
10.6.1. Selección del algoritmo
10.6.2. Entrenamiento
10.6.3. Evaluación
10.7. Proyecto Segmentación semántica. Resultados, Fase 3
10.7.1. Ajuste fino
10.7.2. Presentación de la solución
10.7.3. Conclusiones
10.8. Autocodificadores
10.8.1. Autocodificadores
10.8.2. Arquitectura de un Autocodificador
10.8.3. Autocodificadores de Eliminación de Ruido
10.8.4. Autocodificador de Coloración Automática
10.9. Las Redes Generativas Adversariales (GAN)
10.9.1. Redes Generativas Adversariales (GAN)
10.9.2. Arquitectura DCGAN
10.9.3. Arquitectura GAN Condicionada
10.10. Redes Generativas Adversariales Mejoradas
10.10.1. Visión general del problema
10.10.2. WGAN
10.10.3. LSGAN
10.10.4. ACGAN
Módulo 11. Informática gráfica 3D
11.1. Entorno 3D
11.1.1. Programa 3D
11.1.2. Comparativa entre programas
11.1.3. 3D: arte o tecnología
11.2. Tendencias en 3D: realismo o cartoon
11.2.1. Tendencias realistas
11.2.2. Tendencias cartoon
11.2.3. Estética realista vs. Estética cartoon
11.3. El mundo real y el mundo virtual
11.3.1. 3D aplicado al mundo real
11.3.2. 3D aplicado al mundo virtual
11.3.3. Creación de un mundo virtual o un mundo real
11.4. 3D para producción de videojuegos, producción de cine y publicidad
11.4.1. 3D para videojuegos
11.4.2. 3D para producción de cine
11.4.3. 3D para publicidad
11.5. La interfaz de 3D Max
11.5.1. La escena 3D
11.5.2. Interfaz general
11.5.3. Modificación o transformación de objetos
11.5.4. Creación de una escena y un objeto en 3D
11.6. Interfaz y terminología
11.6.1. Los viewports
11.6.2. La barra de menús
11.6.3. La barra de herramientas principal
11.6.4. Los controles
11.7. Modelado 3D
11.7.1. El modelado 3D
11.7.2. Programas especializados más utilizados
11.7.3. Aplicaciones de diseño gráfico
11.7.4. Motores de render
11.8. Aplicación de los materiales a los diferentes modelos
11.8.1. Editores de materiales
11.8.2. Creación y edición de materiales
11.8.3. Aplicación de la luz a los materiales
11.8.4. Modificador UVW Map. Coordenadas de mapeado
11.8.5. Creación de texturas
11.9. Utilización de la informática gráfica para el mercado laboral actual
11.9.1. Tendencias en el mercado laboral actual
11.9.2. Últimas aplicaciones
11.9.3. Utilización de la infografía
11.10. Organización del trabajo
11.10.1. Creación de un proyecto
11.10.2. Estructura de carpetas
11.10.3. Funcionalidad personalizada
Módulo 12. Modelado 3D avanzado
12.1. Técnicas avanzadas de modelado 3D
12.1.1. Configuración de la interfaz
12.1.2. La importancia de observar para modelar
12.1.3. Modelado en alta
12.1.4. Modelado orgánico para videojuegos
12.1.5. Mapeado avanzado de objetos 3D
12.2. Texturing 3D avanzado
12.2.1. Interfaz de Substance Painter
12.2.2. Materiales, alphas y el uso de pinceles
12.2.3. Uso de partículas
12.3. Integración con software 3D y Unreal Engine
12.3.1. Integración de Unreal Engine en los diseños
12.3.2. Integración de modelos 3D
12.4. Sculpting digital
12.4.1. Sculpting digital con ZBrush
12.4.2. Configuración de la interfaz y atajos
12.5. Modelado en ZBrush
12.5.1. Atajos de teclado
12.5.2. Manejo de las imágenes de referencia
12.5.3. Modelado por piezas
12.5.4. Modelado con una malla base
12.5.5. Estudio de la musculatura humana y animal
12.6. El uso de Polypaint
12.6.1. Pinceles avanzados
12.6.2. Texturas
12.6.3. Materiales por defecto
12.7. La retopología
12.7.1. La retopología. Usos
12.7.2. Creación de malla low-poly
12.7.3. Uso del software para la retopología
12.8. Posados de los modelos 3D
12.8.1. Visualizadores de imágenes de referencia
12.8.2. Utilización de transpose
12.8.3. Uso del transpose para modelos compuestos por diferentes piezas
12.9. La exportación de modelos 3D
12.9.1. Exportación de modelos 3D
12.9.2. Generación de texturas para la exportación
12.9.3. Configuración del modelo 3d con los diferentes materiales y texturas
12.9.4. Previsualización del modelo 3D
12.10. Técnicas avanzadas de trabajo
12.10.1. El flujo de trabajo
12.10.2. Organización de los procesos
12.10.3. Timing de producción
Módulo 13. Animación y simulación avanzada
13.1. Manejo del software
13.1.1. Manejo de información y metodología de trabajo
13.1.2. La animación
13.1.3. Timing y peso
13.1.4. Animación con objetos básicos
13.2. Cinemática directa e inversa
13.2.1. Cinemática inversa
13.2.2. Cadena cinemática
13.3. Anatomía. Bípedo vs. Cuadrúpedo
13.3.1. Bípedo. Sencillez y utilidad
13.3.2. Cuadrúpedo. Sencillez y utilidad
13.3.3. Ciclo de caminar
13.3.4. Ciclo de correr
13.4. Rig facial y Morpher
13.4.1. Lenguaje facial. Lip-sync, ojos, focos de atención
13.4.2. Edición de secuencias
13.5. Animación aplicada
13.5.1. Animación 3D. para cine y televisión
13.5.2. Animación para videojuegos
13.5.3. Animación para otras aplicaciones
13.6. Captura de movimiento con Kinect
13.6.1. Captura de movimientos para animación
13.6.2. Secuencia de movimientos
13.6.3. Integración en Blender
13.7. Esqueleto, skinning y setup
13.7.1. Interacción entre esqueleto y geometría
13.7.2. Interpolación de mallas
13.7.3. Pesos de animación
13.8. Acting
13.8.1. El lenguaje corporal
13.8.2. Las poses
13.8.3. Edición de secuencias
13.9. El plano
13.9.1. La cámara y el entorno
13.9.2. Composición del plano y los personajes
13.9.3. Acabados
13.10. Efectos visuales
13.10.1. Los efectos visuales y la animación
13.10.2. Tipos de efectos ópticos
13.10.3. 3D VFX L
Módulo 14. Desarrollo creativo y conceptual. Briefing de proyectos
14.1. Desarrollo de la idea
14.1.1. Idea general
14.1.2. DAFO (debilidades, amenazas, fortalezas y oportunidades)
14.1.3. Anticipación de problemas, soluciones y necesidades del proyecto
14.2. Escenarios y assets
14.2.1. Diseño de los escenarios
14.2.2. Diseño de los assets
14.2.3. Interacción con los niveles
14.2.4. Planificación de producción
14.3. Personajes
14.3.1. Diseño de los personajes
14.3.2. Diseño de todos los assets de los personajes
14.3.3. Interacción con los niveles
14.3.4. Planificación de producción
14.4. Desarrollo del argumento
14.4.1. Descripción general del juego/app
14.4.2. Asignación de objetivos por niveles
14.4.3. Creación de la biblia y briefing para desarrolladores
14.5. Objetivos
14.5.1. Público objetivo
14.5.2. Posicionamiento del proyecto
14.5.3. Detección de posibles competidores
14.6. Diseño del plan de trabajo y producción
14.6.1. Work flow
14.6.2. Nomenclatura de archivos y sistema de carpetas
14.6.3. Elección de herramientas de trabajo
14.6.4. Recursos necesarios
14.6.5. Timing
14.6.6. Costes
14.7. Música y sound effects
14.7.1. Diseño de sonido
14.7.2. Diseño de efectos
14.7.3. Composición y producción
14.8. Producción
14.8.1. Inicio de producción
14.8.2. Supervisión y control de calidad
14.8.3. Primera built para test
14.9. Test and debug
14.9.1. Pruebas internas
14.9.2. Pruebas de laboratorio y/o muestra universal
14.9.3. Test con cliente
14.10. Lanzamiento beta
14.10.1. Primera built
14.10.2. Publicación en soportes y canales de venta
14.10.3. Lanzamiento (comunicación, plan de medios)
14.10.4. Servicio posventa
Módulo 15. Desarrollo de videojuegos
15.1. El videojuego
15.1.1. El videojuego
15.1.2. Errores y aciertos de la historia del videojuego
15.1.3. Aplicaciones en otras áreas e industrias
15.2. Desarrollo de los videojuegos
15.2.1. Plan de producción y fases de desarrollo
15.2.2. Metodología de desarrollo
15.3. Unity 3D
15.3.1. Unity 3D. Aplicaciones
15.3.2. Scripting en Unity 3D
15.3.3. Mercado de assets
15.4. Físicas, inputs y otros aspectos
15.4.1. Físicas en Unity 3D
15.4.2. Particle system
15.4.3. Animation y animator
15.5. Programación de comportamientos físicos
15.5.1. Uso y desarrollo de motores físicos
15.5.2. Uso concreto de motores profesionales
15.5.3. PhysX
15.6. Técnicas de programación específicas
15.6.1. Lenguajes de script
15.6.2. Carga de recursos en la ejecución de juegos en Windows
15.6.3. Rendimiento
15.7. Videojuegos para dispositivos móviles
15.7.1. Desarrollos multiplataforma
15.7.2. Juegos para dispositivos IOS
15.7.3. Juegos para dispositivos Android
15.8. Realidad aumentada
15.8.1. Tipos de juegos de realidad aumentada
15.8.2. ARkit y ARcore
15.8.3. Desarrollo Vuforia
15.9. Programación de inteligencia artificial
15.9.1. Lenguajes de script
15.9.2. Matemáticas y algoritmos de inteligencia artificial
15.9.3. Redes neuronales
15.10. Distribución y marketing
15.10.1. El arte de publicar y promocionar un videojuego
15.10.2. El responsable del éxito
15.10.3. Estrategias
Módulo 16. Unreal Engine avanzado
16.1. Programación en Unreal
16.1.1. Unreal y Blueprints
16.1.2. Programación en C++
16.1.3. Uso de modelos 3D y animaciones
16.1.4. Inteligencia artificial
16.2. Construcción avanzada de niveles
16.2.1. Montaje de un nivel mediante módulos
16.2.2. Importación de assets
16.2.3. Configuración para controles del jugador
16.3. Iluminación en Unreal Engine
16.3.1. Preparación del entorno para iluminación
16.3.2. Tipos de luces: point lights, spot lights, directional lights y skylights
16.3.3. Lightmaps
16.3.4. Luces estáticas y dinámicas
16.3.5. Ajustes de resolución
16.4. Shaders Complejos
16.4.1. Materiales opacos y con transparencia
16.4.2. Reflexiones estáticas y dinámicas
16.4.3. Blending de materiales
16.4.4. Materiales especiales
16.5. El uso de Blueprints
16.5.1. Blueprints. Lógica de programación
16.5.2. Creación de controles de movimiento
16.5.3. Creación de objetos interactivos
16.6. Creación de cámaras
16.6.1. Tipos de cámaras
16.6.2. Propiedades de las cámaras
16.6.3. Cámaras jugables y cinemáticas
16.7. Efectos post processing
16.7.1. Retoque de imagen
16.7.2. Efectos: luz, sombreado, desenfoque
16.7.3. Profundidad de campo
16.8. Juegos multijugador
16.8.1. Juegos en red
16.8.2. Desarrollo de juegos en red multijugador
16.8.3. Resolución de problemas de conectividad
16.9. Producción
16.9.1. Proceso de desarrollo
16.9.2. Organización del equipo
16.9.3. Planificación y metodologías
16.10. Desarrollo de videojuegos y equipos implicados
16.10.1. Colaboración con diseñadores
16.10.2. Elaboración del concepto y diseño
16.10.3. Productores y distribuidores
Módulo 17. Unity 3D Avanzado
17.1. Proceso técnico
17.1.1. Creación y optimización de personajes
17.1.2. Aplicación de retopologías avanzadas
17.1.3. Transferencias de alta poligonización
17.1.4. Fotometría
17.2. Diseño de personajes
17.2.1. Destrezas
17.2.2. Técnicas de anatomía
17.2.3. Creación y comportamiento
17.3. Exportación de skeletal meshes e importación en Unreal
17.3.1. Exportación skeletal meshes del software de 3D
17.3.2. Importación skeletal meshes en unreal
17.3.3. Optimización
17.4. Importación de animaciones
17.4.1. Preparación de animación
17.4.2. Importación de animaciones
17.4.3. Resolución de errores en la importación
17.5. Editor de animaciones
17.5.1. Creación de blend spaces
17.5.2. Creación de animation montage
17.5.3. Creación de notifies para generar eventos en una animación
17.5.4. Creación de shokets para vincular con objetos o partículas
17.6. Físicas aplicadas a un personaje u objeto
17.6.1. Física 3D en Unity
17.6.2. Dotación de realismo al personaje
17.6.3. Las leyes físicas
17.7. Creación y simulación de un ragdoll Physx
17.7.1. Configuración de un ragdoll
17.7.2. Ragdoll a un gráfico de animación
17.7.3. Simulación de un ragdoll
17.8. Recursos para la creación de personajes
17.8.1. Bibliotecas
17.8.2. Importación y exportación de materiales de bibliotecas
17.8.3. Manipulación de materiales
17.9. Equipos de trabajo
17.9.1. Canalización de recursos
17.9.2. Procesador de activos
17.9.3. Generador de recursos
17.10. Requisitos para un desarrollo exitoso
17.10.1. Producción para el éxito
17.10.2. Desarrollo óptimo
17.10.3. Requisitos imprescindibles
Módulo 18. Creación de cinemáticas con Sequencer y Niagara
18.1. Las cámaras
18.1.1. Visión global de una escena
18.1.2. Visión específica y detalles de una escena
18.1.3. Planteamiento de la escena
18.2. Herramienta Sequencer de Unreal Engine
18.2.1. Sequencer
18.2.2. Generación de cinemáticas
18.2.3. Tipos de cámaras
18.3. Creación de cinemáticas con Sequencer
18.3.1. Animación de cámaras cinemáticas
18.3.2. Creación y edición de planos
18.3.3. Reproducción de animaciones secuenciadas
18.4. Objetos animados in-game
18.4.1. Animación de objetos en Unreal con Sequencer
18.4.2. Tipos de animación
18.4.3. Creación de un turntable
18.5. Sistema de partículas con Niagara
18.5.1. Tipos de sistemas de partículas
18.5.2. Creación de sistemas de partículas
18.6. Partículas específicas
18.6.1. Partículas de agua
18.6.2. Partículas de fuego
18.6.3. Partículas de explosiones
18.6.4. Partículas de rayos
18.7. Scripting con Blueprint avanzado
18.7.1. Síncrona y asíncrona
18.7.2. Creación de una IA básica
18.7.3. Creación de una nav mesh
18.7.4. Creación de interfaz básica con Unreal Motion Graphics
18.8. Optimización del juego
18.8.1. Distancia de renderizado
18.8.2. Niveles de detalle de los modelos
18.8.3. Uso de cull distance volumes
18.9. Empaquetado y creación de un instalable
18.9.1. Configuración del empaquetado
18.9.2. Empaquetado del proyecto
18.9.3. Retoques y perfeccionadores
18.10. Juegos para dispositivos móviles
18.10.1. Peculiaridades del mobile
18.10.2. Assets específicos
18.10.3. Assets compatibles
18.10.4. Plataformas digitales
Módulo 19. Realidad virtual
19.1. Realidad virtual
19.1.1. Realidad virtual
19.1.2. Aplicaciones de la realidad virtual
19.1.3. La percepción de entornos virtuales, evaluación, presencia e inmersión
19.2. Dispositivos de entrada y salida
19.2.1. Dispositivos de entrada
19.2.2. Renderizado de audio 3D
19.2.3. Displays y otros dispositivos
19.3. Visión estereoscópica
19.3.1. La visión estéreo
19.3.2. Algoritmos principales y formatos actuales
19.3.3. Dispositivos HMD
19.4. Interacción háptica
19.4.1. La interacción háptica en realidad virtual
19.4.2. Algoritmos de renderizado háptico
19.4.3. Métodos de navegación háptica
19.5. Arquitecturas orientadas a la realidad virtual
19.5.1. Arquitectura y software de las aplicaciones de realidad virtual
19.5.2. Diseño
19.5.3. Simuladores de realidad virtual
19.6. Técnicas de interacción
19.6.1. Técnicas de interacción para entornos inmersivos
19.6.2. Principales algoritmos y dispositivos
19.6.3. Interfaces cerebro-ordenador
19.7. Toma de decisiones en tiempo real
19.7.1. Organización del modelo en REVIT para su utilización
19.7.2. Funcionalidades de Enscape
19.7.3. Alternativas
19.8. Imagen 360
19.8.1. Lumion
19.8.2. Bidireccionalidad
19.8.3. Funcionalidades de Lumion
19.8.4. Tratamiento de imagen 360
19.9. Vídeo 360
19.9.1. Twinmotion
19.9.2. Funcionalidades de Twinmotion
19.9.3. Tratamiento de vídeo 360
19.10. Tour virtual
19.10.1. Render 360
19.10.2. Fotografía 360
19.10.3. Edición de imagen 360
19.10.4. Creación de tour virtual
Módulo 20. Software para desarrollo de realidad virtual
20.1. Aplicaciones avanzadas de realidad virtual
20.1.1. Creación de aplicaciones avanzadas en VR para móviles
20.1.2. Creación de aplicaciones avanzadas en VR para standalone
20.1.3. Creación de aplicaciones avanzadas en VR para PC
20.2. Realidad virtual con Unreal Engine
20.2.1. Bidireccionalidad
20.2.2. Organización del contenido
20.2.3. Desarrollo de aplicaciones
20.3. Realidad virtual con Unity
20.3.1. Bidireccionalidad
20.3.2. Organización del contenido
20.3.3. Desarrollo de aplicaciones
20.4. Coordinación de diseño en realidad virtual
20.4.1. Aspectos generales a tener en cuenta
20.4.2. Flujo de trabajo
20.4.3. Herramientas
20.5. La realidad extendida
20.5.1. Realidad extendida
20.5.2. Contextualización
20.5.3. Implantación
20.6. Realidad mixta
20.6.1. Realidad mixta
20.6.2. Usos de la realidad mixta
20.6.3. Tipos de aplicaciones de realidad mixta
20.7. Software de realidad mixta
20.7.1. Realidad mixta con Unity
20.7.2. Realidad mixta con Unreal Engine
20.7.3. Dispositivos de realidad mixta
20.8. Realidad aumentada
20.8.1. La realidad aumentada
20.8.2. Creación de experiencias de realidad aumentada
20.8.3. Aplicaciones de la realidad aumentada
20.9. Creación de aplicaciones de realidad aumentada
20.9.1. Realidad aumentada con Unity
20.9.2. Realidad aumentada con Vuforia
20.9.3. Realidad aumentada con Unreal Engine
20.10. Implantación de la realidad virtual
20.10.1. Usos de la realidad virtual
20.10.2. Aplicaciones educativas y formativas de realidad virtual
20.10.3. Creación de una aplicación de realidad virtual útil
20.10.4. Estrategia de venta de una aplicación de realidad virtual
Con los conocimientos avanzados que adquirirás en este Grand Máster podrás acceder a puestos de trabajo en las mejores empresas de videojuegos y diseño 3D”
Grand Master en Realidad Virtual y Visión Artificial
Pese a que la creación de entornos artificiales inmersivos parecían escenarios distantes en el tiempo, la evolución acelerada de la tecnología informática no solo ha hecho posible el acceso a estos instrumentos para los usuarios, sino que ha permitido integrarlos con éxito a diferentes ámbitos como los videojuegos, la educación y la arquitectura. En tanto que el futuro de esta tecnología evidencia un futuro prometedor, en TECH Universidad hemos elaborado el Grand Master en Realidad Virtual y Visión Artificial, un programa que te brindará los últimos conocimientos disponibles en este campo para que puedas especializarte en los desarrollos más importantes producidos, el dominio de herramientas de punta como Unreal Engine y las técnicas más avanzadas del procesado digital de imágenes 3D, entre otros aspectos. De esta manera, podrás unirte a los proyectos más ambiciosos de empresas consolidadas y convertirte en un experto de referencia en el sector.
Especialízate en la Realidad Virtual y Visión Artificial
Si entre tus objetivos se encuentra alcanzar un nivel de conocimiento superior en el estudio de la tecnología informática, este programa es para ti. En TECH Universidad recibirás una capacitación integral y de alta calidad, puesto que contamos con el contenido más completo del mercado educativo, métodos de aprendizaje innovadores para la educación en línea y el acompañamiento de expertos que guiarán tu proceso. Así, tendrás acceso a técnicas, estrategias, programas y recursos que favorecerán el desempeño de tu trabajo en el modelado y simulación de entornos sensoriales, tridimensionales, y artificiales. Este Grand Master es una oportunidad novedosa y eficaz para garantizar tu crecimiento profesional.