Presentación del programa

Con este Grand Máster basado en el sistema Relearning, combinarás la Robótica con las tecnologías de la Realidad Virtual y Aumentada para mejorar las experiencias inmersivas de los usuarios” 

##IMAGE##

Ante la llegada de la Industria 4.0, la Robótica y Visión Artificial se han convertido en tecnologías ampliamente usadas en la industria. El principal motivo es que sus herramientas sirven para automatizar procesos complejos, aportando mejorar en términos de eficiencia y calidad. Una muestra de ello se encuentra en la industria manufacturera: los robots equipados con sistemas de Visión Artificial se emplean para labores de ensamblaje, pintura, soldadura o manipulación de materiales. De este modo, estos instrumentos son capaces de detectar piezas y realizar mediciones precisas que aseguren la calidad de los productos finales. 

En este contexto, TECH lanza un Grand Máster en Robótica y Visión Artificial dirigido a expertos que deseen mantenerse al corriente de los adelantos que se han producido en estas materias. El plan de estudio analizará cuestiones tales como el Procesado de Imágenes 3D, Machine Learning o Técnicas Avanzadas de Visión por Computador. A su vez, el temario profundizará en los Agentes Inteligentes, para que los egresados apliquen la Inteligencia Artificial tanto a Robots como Softbots. Para ello, los materiales didácticos examinarán los Algoritmos de Búsqueda en el Espacio de Soluciones, la Inferencia Probabilística y los Filtros Gaussianos. Todo esto hará que los alumnos desarrollen proyectos innovadores destinados a abordar desafíos complejos en áreas como la automatización, percepción e interacción humano-máquina. 

La titulación universitaria se imparte por medio de una metodología 100% en línea, que permitirá a los estudiantes elaborar sus propios horarios de estudio para alcanzar un aprendizaje completamente efectivo. Además, el sistema de enseñanza del Relearning adaptará el ritmo de la enseñanza a sus necesidades. De la misma manera, esta titulación está impartida por expertos de vanguardia en el plano de la Inteligencia Artificial, quienes se encargarán de proporcionarles los conocimientos con mayor aplicabilidad en su día a día profesional.   

Maneja los Robots Móviles Terrestres a través de los contenidos dispuestos para ti por TECH, la mejor universidad digital del mundo según Forbes”   

Este Grand Máster en Robótica y Visión Artificial contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:

  • El desarrollo de casos prácticos presentados por expertos en Inteligencia Artificial 
  • Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que están concebidos recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional 
  • Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje 
  • Su especial hincapié en metodologías innovadoras en Deep Learning 
  • Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual 
  • La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet 

Diseñarás los Sistemas Automatizados más innovadores para mejorar la competitividad de las organizaciones al aumentar su eficacia, calidad y capacidad de respuesta” 

Incluye en su cuadro docente a profesionales pertenecientes al ámbito de la Inteligencia Artificial que vierten en este programa la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio. 

Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará un estudio inmersivo programado para entrenarse ante situaciones reales. 

El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el alumno deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, el profesional contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.  

Dominarás la técnica del Tranfer Learning para optimizar el rendimiento de los modelos en una nueva tarea"

##IMAGE##

La metodología 100% online de este programa te permitirá disfrutar de un aprendizaje efectivo sin depender de horarios preestablecidos"

Plan de estudios

Esta capacitación universitaria otorgará al alumnado un enfoque holístico sobre la Robótica y Visión Artificial, ámbitos tecnológicos en pleno auge. Para ello, el itinerario académico brindará al alumnado las técnicas más innovadoras para el Procesado Digital de Imágenes. En este sentido, el temario profundizará en las principales librerías de Visión por Computador, así como los instrumentos más modernos para la visualización. Además, los materiales didácticos abordarán aspectos como la explosión del Deep Learning, Redes Convolucionales y Detección de Objetos. También el programa analizará el Modelado de Robots, permitiendo a los egresados simular el rendimiento de estos aparatos en entornos virtuales.  

##IMAGE##

Esta capacitación incluirá casos reales y resolución de situaciones complejas en entornos simulados de aprendizaje que te adentrarán en la realidad del mercado laboral” 

Módulo 1. Robótica. Diseño y Modelado de Robots 

1.1. Robótica e Industria 4.0 

1.1.1. Robótica e Industria 4.0 
1.1.2. Campos de Aplicación y Casos de Uso 
1.1.3. Subáreas de especialización en Robótica 

1.2. Arquitecturas Hardware y Software de Robots  

1.2.1. Arquitecturas Hardware y tiempo real  
1.2.2. Arquitecturas Software de Robots  
1.2.3. Modelos de comunicación y tecnologías Middleware 
1.2.4. Integración de Software con Robot Operating System (ROS) 

1.3. Modelado Matemático de Robots  

1.3.1. Representación matemática de sólidos rígidos 
1.3.2. Rotaciones y traslaciones 
1.3.3. Representación jerárquica del estado 
1.3.4. Representación distribuida del estado en ROS (Librería TF) 

1.4. Cinemática y Dinámica de Robots 

1.4.1. Cinemática 
1.4.2. Dinámica 
1.4.3. Robots subactuados 
1.4.4. Robots redundantes 

1.5. Modelado de Robots y Simulación  

1.5.1. Tecnologías de Modelado de Robots  
1.5.2. Modelado de robots con URDF  
1.5.3. Simulación de robots 
1.5.4. Modelado con simulador Gazebo 

1.6. Robots Manipuladores 

1.6.1. Tipos de robots manipuladores 
1.6.2. Cinemática 
1.6.3. Dinámica 
1.6.4. Simulación 

1.7. Robots Móviles Terrestres  

1.7.1. Tipos de robots móviles terrestres 
1.7.2. Cinemática 
1.7.3. Dinámica 
1.7.4. Simulación 

1.8. Robots Móviles Aéreos  

1.8.1. Tipos de robots móviles aéreos 
1.8.2. Cinemática 
1.8.3. Dinámica 
1.8.4. Simulación 

1.9. Robots Móviles Acuáticos 

1.9.1. Tipos de robots móviles acuáticos 
1.9.2. Cinemática 
1.9.3. Dinámica 
1.9.4. Simulación 

1.10. Robots Bioinspirados 

1.10.1. Humanoides  
1.10.2. Robots con cuatro o más piernas 
1.10.3. Robots modulares 
1.10.4. Robots con partes flexibles (Soft-robotics

Módulo 2. Agentes Inteligentes. Aplicando la Inteligencia Artificial a Robots y Softbots 

2.1. Agentes Inteligentes e Inteligencia Artificial 

2.1.1. Robots Inteligentes. Inteligencia Artificial 
2.1.2. Agentes Inteligentes 

2.1.2.1. Agentes Hardware. Robots 
2.1.2.2. Agentes Software. Softbots 

2.1.3. Aplicaciones a la Robótica 

2.2. Conexión Cerebro-Algoritmo 

2.2.1. Inspiración biológica de la Inteligencia Artificial  
2.2.2. Razonamiento implementado en Algoritmos. Tipología 
2.2.3. Explicabilidad de los resultados en los Algoritmos de Inteligencia Artificial 
2.2.4. Evolución de los algoritmos hasta Deep Learning 

2.3. Algoritmos de Búsqueda en el Espacio de Soluciones 

2.3.1. Elementos en la búsqueda en el espacio de soluciones 
2.3.2. Algoritmos de Búsqueda de Soluciones en problemas de Inteligencia Artificial 
2.3.3. Aplicaciones de Algoritmos de Búsqueda y Optimización 
2.3.4. Algoritmos de búsqueda aplicados a Aprendizaje Automático 

2.4. Aprendizaje Automático  

2.4.1. Aprendizaje automático 
2.4.2. Algoritmos de Aprendizaje Supervisado 
2.4.3. Algoritmos de Aprendizaje No Supervisado 
2.4.4. Algoritmos de Aprendizaje por Refuerzo 

2.5. Aprendizaje Supervisado 

2.5.1. Métodos de Aprendizaje Supervisado  
2.5.2. Árboles de decisión para clasificación 
2.5.3. Máquinas de soporte de vectores 
2.5.4. Redes neuronales artificiales 
2.5.5. Aplicaciones del Aprendizaje Supervisado 

2.6. Aprendizaje No supervisado  

2.6.1. Aprendizaje No Supervisado 
2.6.2. Redes de Kohonen 
2.6.3. Mapas autoorganizativos 
2.6.4. Algoritmo K-medias 

2.7. Aprendizaje por Refuerzo  

2.7.1. Aprendizaje por Refuerzo 
2.7.2. Agentes basados en procesos de Markov 
2.7.3. Algoritmos de Aprendizaje por Refuerzo 
2.7.4. Aprendizaje por Refuerzo aplicado a Robótica 

2.8. Inferencia probabilística 

2.8.1. Inferencia probabilística 
2.8.2. Tipos de inferencia y definición del método 
2.8.3. Inferencia bayesiana como caso de estudio 
2.8.4. Técnicas de inferencia no paramétricas 
2.8.5. Filtros Gaussianos 

2.9. De la Teoría a la Práctica: Desarrollando un Agente Inteligente Robótico  

2.9.1. Inclusión de módulos de aprendizaje supervisado en un agente robótico 
2.9.2. Inclusión de módulos de aprendizaje por refuerzo en un agente robótico 
2.9.3. Arquitectura de un agente robótico controlado por Inteligencia Artificial 
2.9.4. Herramientas profesionales para la implementación del agente inteligente 
2.9.5. Fases de la implementación de algoritmos de IA en agentes robóticos 

Módulo 3. Deep learning    

3.1. Inteligencia Artificial 

3.1.1. Machine Learning 
3.1.2. Deep Learning 
3.1.3. La explosión del Deep Learning. Por qué ahora 

3.2. Redes neuronales 

3.2.1. La red neuronal 
3.2.2. Usos de las redes neuronales 
3.2.3. Regresión lineal y Perceptron 
3.2.4. Forward propagation 
3.2.5. Backpropagation 
3.2.6. Feature vectors 

3.3. Loss Functions 

3.3.1. Loss function 
3.3.2. Tipos de loss functions 
3.3.3. Elección de la loss function 

3.4. Funciones de activación 

3.4.1. Función de activación 
3.4.2. Funciones lineales 
3.4.3. Funciones no lineales 
3.4.4. Output Vs. Hidden layer activation functions 

3.5. Regularización y Normalización 

3.5.1. Regularización y Normalización 
3.5.2. Overfitting and Data Augmentation 
3.5.3. Regularization methods: L1, L2 and dropout 
3.5.4. Normalization methods: Batch, Weight, Layer 

3.6. Optimización 

3.6.1. Gradient Descent 
3.6.2. Stochastic Gradient Descent 
3.6.3. Mini Batch Gradient Descent 
3.6.4. Momentum 
3.6.5. Adam 

3.7. Hyperparameter Tuning y Pesos 

3.7.1. Los hiperparámetros 
3.7.2. Batch Size vs. Learning Rate vs Step Decay 
3.7.3. Pesos 

3.8. Métricas de evaluación de una red neuronal 

3.8.1. Accuracy 
3.8.2. Dice coefficient 
3.8.3. Sensitivity vs. Specificity / Recall vs. Precision 
3.8.4. Curva ROC (AUC) 
3.8.5. F1-score 
3.8.6. Confusion matrix 
3.8.7. Cross-validation 

3.9. Frameworks y Hardware 

3.9.1. Tensor Flow 
3.9.2. Pytorch 
3.9.3. Caffe 
3.9.4. Keras 
3.9.5. Hardware para la Fase de Entrenamiento 

3.10. Creación de una Red Neuronal – Entrenamiento y Validación 

3.10.1. Dataset 
3.10.2. Construcción de la red 
3.10.3. Entrenamiento 
3.10.4. Visualización de resultados 

Módulo 4. La Robótica en la Automatización de Procesos Industriales 

4.1. Diseño de Sistemas Automatizados 

4.1.1. Arquitecturas hardware 
4.1.2. Controladores lógicos programables 
4.1.3. Redes de comunicación industriales 

4.2. Diseño eléctrico avanzado I: Automatización 

4.2.1. Diseño de cuadros eléctricos y simbología 
4.2.2. Circuitos de potencia y de control. Armónicos 
4.2.3. Elementos de protección y puesta a tierra 

4.3. Diseño eléctrico avanzado II: Determinismo y Seguridad 

4.3.1. Seguridad de máquina y redundancia 
4.3.2. Relés de seguridad y disparadores 
4.3.3. PLCs de seguridad 
4.3.4. Redes seguras 

4.4. Actuación eléctrica 

4.4.1. Motores y servomotores 
4.4.2. Variadores de frecuencia y controladores 
4.4.3. Robótica industrial de actuación eléctrica 

4.5. Actuación hidráulica y neumática 

4.5.1. Diseño hidráulico y simbología 
4.5.2. Diseño neumático y simbología 
4.5.3. Entornos ATEX en la automatización 

4.6. Transductores en la Robótica y Automatización 

4.6.1. Medida de la posición y velocidad 
4.6.2. Medida de la fuerza y temperatura 
4.6.3. Medida de la presencia 
4.6.4. Sensores para visión 

4.7. Programación y configuración de controladores programables lógicos PLCs 

4.7.1. Programación PLC: LD 
4.7.2. Programación PLC: ST 
4.7.3. Programación PLC: FBD y CFC 
4.7.4. Programación PLC: SFC 

4.8. Programación y configuración de equipos en plantas industriales 

4.8.1. Programación de variadores y controladores 
4.8.2. Programación de HMI 
4.8.3. Programación de robots manipuladores 

4.9. Programación y configuración de equipos informáticos industriales 

4.9.1. Programación de sistemas de visión 
4.9.2. Programación de SCADA/software 
4.9.3. Configuración de redes 

4.10. Implementación de Automatismos 

4.10.1. Diseño de máquinas de estado 
4.10.2. Implementación de máquinas de estado en PLCs 
4.10.3. Implementación de sistemas de control analógico PID en PLCs 
4.10.4. Mantenimiento de automatismos e higiene de código 
4.10.5. Simulación de automatismos y plantas 

Módulo 5. Sistemas de Control Automático en Robótica 

5.1. Análisis y diseño de sistemas no lineales    

5.1.1. Análisis y modelado de sistemas no lineales 
5.1.2. Control con realimentación 
5.1.3. Linealización por realimentación 

5.2. Diseño de técnicas de control para sistemas no lineales avanzados   

5.2.1. Control en modo deslizante (Sliding Mode control) 
5.2.2. Control basado en Lyapunov y Backstepping 
5.2.3. Control basado en pasividad 

5.3. Arquitecturas de Control 

5.3.1. El paradigma de la robótica 
5.3.2. Arquitecturas de control 
5.3.3. Aplicaciones y ejemplos de Arquitecturas de Control 

5.4. Control de movimiento para brazos robóticos 

5.4.1. Modelado cinemático y dinámico 
5.4.2. Control en el espacio de las articulaciones 
5.4.3. Control en el espacio operacional 

5.5. Control de fuerza en los Actuadores 

5.5.1. Control de fuerza 
5.5.2. Control de impedancia 
5.5.3. Control híbrido 

5.6. Robots móviles terrestres 

5.6.1. Ecuaciones de movimiento 
5.6.2. Técnicas de control en robots terrestres 
5.6.3. Manipuladores móviles 

5.7. Robots móviles aéreos 

5.7.1. Ecuaciones de movimiento 
5.7.2. Técnicas de control en robots aéreos 
5.7.3. Manipulación aérea 

5.8. Control basado en técnicas de aprendizaje automático 

5.8.2. Control mediante aprendizaje supervisado 
5.8.3. Control mediante aprendizaje reforzado 
5.8.4. Control mediante aprendizaje no supervisado 

5.9. Control basado en visión 

5.9.1. Visual Servoing basado en posición 
5.9.2. Visual Servoing basado en imagen 
5.9.3. Visual Servoing híbrido 

5.10. Control predictivo 

5.10.1. Modelos y estimación de estado 
5.10.2. MPC aplicado a robots móviles 
5.10.3. MPC aplicado a UAVs 

Módulo 6. Algoritmos de Planificación en Robots 

6.1. Algoritmos de planificación clásicos 

6.1.1. Planificación discreta: Espacio de Estados  
6.1.2. Problemas de Planificación en Robótica. Modelos de Sistemas Robóticos 
6.1.3. Clasificación de Planificadores 

6.2. El problema de Planificación de Trayectorias en Robots Móviles  

6.2.1. Formas de representación del entorno: Grafos 
6.2.2. Algoritmos de búsqueda en grafos 
6.2.3. Introducción de costes en los grafos 
6.2.4. Algoritmos de búsqueda en grafos pesados 
6.2.5. Algoritmos con enfoque de cualquier ángulo 

6.3. Planificación en Sistemas Robóticos de Alta Dimensionalidad 

6.3.1. Problemas de robótica de alta dimensionalidad: Manipuladores 
6.3.2. Modelo cinemático directo/inverso 
6.3.3. Algoritmos de planificación por muestreo PRM y RRT 
6.3.4. Planificando ante restricciones dinámicas 

6.4. Planificación por Muestreo Óptima 

6.4.1. Problemática de los Planificadores basados en Muestreo 
6.4.2. RRT* concepto de Optimalidad Probabilística 
6.4.3. Paso de Reconectado: Restricciones dinámicas 
6.4.4. CForest. Paralelizando la planificación 

6.5. Implementación Real de un Sistema de Planificación de Movimientos 

6.5.1. Problema de Planificación global. Entornos dinámicos 
6.5.2. Ciclo de acción, Sensorización. Adquisición de información del entorno 
6.5.3. Planificación local y global 

6.6. Coordinación en sistemas multirobot I: Sistema centralizado 

6.6.1. Problema de coordinación multirobot  
6.6.2. Detección y resolución de colisiones: Modificación de trayectorias con Algoritmos Genéticos 
6.6.3. Otros algoritmos bio-inspirados: Enjambre de Partículas y Fuegos de Artificio 
6.6.4. Algoritmo de evitación de colisiones por elección de maniobra 

6.7. Coordinación en sistemas multirobot II: Enfoques distribuidos I 

6.7.1. Uso de funciones de objetivo complejas 
6.7.2. Frente de Pareto 
6.7.3. Algoritmos evolutivos multiobjetivo 

6.8. Coordinación en Sistemas Multirobot III: Enfoques distribuidos II 

6.8.1. Sistemas de planificación de orden 1 
6.8.2. Algoritmo ORCA 
6.8.3. Añadido de restricciones cinemáticas y dinámicas en ORCA 

6.9. Teoría de planificación por Decisión 

6.9.1. Teoría de decisión 
6.9.2. Sistemas de Decisión Secuencial 
6.9.3. Sensores y Espacios de Información 
6.9.4. Planificación ante incertidumbre en sensorización y en actuación 

6.10. Sistemas de Planificación de Aprendizaje por Refuerzo 

6.10.1. Obtención de la recompensa esperada de un sistema 
6.10.2. Técnicas de aprendizaje por recompensa media 
6.10.3. Aprendizaje por refuerzo inverso 

Módulo 7. Visión artificial 

7.1. Percepción humana 

7.1.1. Sistema visual humano 
7.1.2. El color 
7.1.3. Frecuencias visibles y no visibles 

7.2. Crónica de la Visión Artificial 

7.2.1. Principios 
7.2.2. Evolución 
7.2.3. La importancia de la visión artificial 

7.3. Composición de imágenes digitales 

7.3.1. La Imagen digital 
7.3.2. Tipos de imágenes 
7.3.3. Espacios de color 
7.3.4. RGB 
7.3.5. HSV y HSL 
7.3.6. CMY-CMYK 
7.3.7. YCbCr 
7.3.8. Imagen indexada 

7.4. Sistemas de captación de imágenes 

7.4.1. Funcionamiento de una cámara digital 
7.4.2. La correcta exposición para cada situación 
7.4.3. Profundidad de campo 
7.4.4. Resolución 
7.4.5. Formatos de imagen 
7.4.6. Modo HDR 
7.4.7. Cámaras de alta resolución 
7.4.8. Cámaras de alta velocidad 

7.5. Sistemas Ópticos 

7.5.1. Principios ópticos 
7.5.2. Objetivos convencionales 
7.5.3. Objetivos telecéntricos 
7.5.4. Tipos de autoenfoque 
7.5.5. Distancia focal 
7.5.6. Profundidad de campo 
7.5.7. Distorsión óptica 
7.5.8. Calibración de una imagen 

7.6. Sistemas de iluminación 

7.6.1. Importancia de la iluminación 
7.6.2. Respuesta frecuencial 
7.6.3. Iluminación Led 
7.6.4. Iluminación en exteriores 
7.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos 

7.7. Sistemas Captación 3D 

7.7.1. Estéreo Visión 
7.7.2. Triangulación 
7.7.3. Luz estructurada 
7.7.4. Time of Flight 
7.7.5. Lidar 

7.8. Multiespectro 

7.8.1. Cámaras Multiespectrales 
7.8.2. Cámaras Hiperespectrales 

7.9. Espectro cercano No visible 

7.9.1. Cámaras IR 
7.9.2. Cámaras UV 
7.9.3. Convertir de No visible a Visible gracias a la iluminación 

7.10. Otras bandas del espectro 

7.10.1. Rayos X 
7.10.2. Teraherzios 

Módulo 8.  Aplicaciones y estado del arte 

8.1. Aplicaciones industriales 

8.1.1. Librerías de visión industrial 
8.1.2. Cámaras compactas 
8.1.3. Sistemas basados en PC 
8.1.4. Robótica industrial 
8.1.5. Pick and place 2D 
8.1.6. Bin picking 
8.1.7. Control de calidad 
8.1.8. Presencia ausencia de componentes 
8.1.9. Control dimensional 
8.1.10. Control etiquetaje 
8.1.11. Trazabilidad 

8.2. Vehículos autónomos 

8.2.1. Asistencia al conductor 
8.2.2. Conducción autónoma 

8.3. Visión Artificial para Análisis de Contenidos 

8.3.1. Filtro por contenido 
8.3.2. Moderación de contenido visual 
8.3.3. Sistemas de seguimiento 
8.3.4. Identificación de marcas y logos 
8.3.5. Etiquetación y clasificación de videos 
8.3.6. Detección de cambios de escena 
8.3.7. Extracción de textos o créditos 

8.4. Aplicaciones médicas 

8.4.1. Detección y localización de enfermedades 
8.4.2. Cáncer y Análisis de radiografías 
8.4.3. Avances en visión artificial dada la Covid19 
8.4.4. Asistencia en el quirófano 

8.5. Aplicaciones espaciales 

8.5.1. Análisis de imagen por satélite 
8.5.2. Visión artificial para el estudio del espacio 
8.5.3. Misión a Marte 

8.6. Aplicaciones comerciales 

8.6.1. Control stock 
8.6.2. Videovigilancia, seguridad en casa 
8.6.3. Cámaras aparcamiento 
8.6.4. Cámaras control población 
8.6.5. Cámaras velocidad 

8.7. Visión Aplicada a la Robótica 

8.7.1. Drones 
8.7.2. AGV 
8.7.3. Visión en robots colaborativos 
8.7.4. Los ojos de los robots 

8.8. Realidad Aumentada 

8.8.1. Funcionamiento 
8.8.2. Dispositivos 
8.8.3. Aplicaciones en la industria 
8.8.4. Aplicaciones comerciales 

8.9. Cloud computing 

8.9.1. Plataformas de Cloud Computing 
8.9.2. Del Cloud Computing a la producción 

8.10. Investigación y Estado del Arte 

8.10.1. La comunidad científica 
8.10.2. Qué se está cociendo 
8.10.3. El futuro de la visión artificial 

Módulo 9. Técnicas de Visión Artificial en Robótica: Procesamiento y Análisis de Imágenes 

9.1. La Visión por Computador 

9.1.1. La Visión por Computador 
9.1.2. Elementos de un sistema de Visión por Computador 
9.1.3. Herramientas matemáticas 

9.2. Sensores ópticos para la Robótica 

9.2.1. Sensores ópticos pasivos 
9.2.2. Sensores ópticos activos 
9.2.3. Sensores no ópticos 

9.3. Adquisición de imágenes 

9.3.1. Representación de imágenes 
9.3.2. Espacio de colores 
9.3.3. Proceso de digitalización 

9.4. Geometría de las imágenes 

9.4.1. Modelos de lentes 
9.4.2. Modelos de cámaras 
9.4.3. Calibración de cámaras 

9.5. Herramientas matemáticas 

9.5.1. Histograma de una imagen 
9.5.2. Convolución 
9.5.3. Transformada de Fourier 

9.6. Preprocesamiento de imágenes 

9.6.1. Análisis de ruido 
9.6.2. Suavizado de imágenes 
9.6.3. Realce de imágenes 

9.7. Segmentación de imágenes 

9.7.1. Técnicas basadas en Contornos 
9.7.3. Técnicas basadas en Histograma 
9.7.4. Operaciones morfológicas 

9.8. Detección de Características en la Imagen 

9.8.1. Detección de puntos de interés 
9.8.2. Descriptores de características 
9.8.3. Correspondencias entre características 

9.9. Sistemas de Visión 3D 

9.9.1. Percepción 3D 
9.9.2. Correspondencia de Características entre Imágenes 
9.9.3. Geometría de múltiples vistas 

9.10. Localización basada en Visión Artificial 

9.10.1. El problema de la localización de Robots 
9.10.2. Odometría visual 
9.10.3. Fusión sensorial 

Módulo 10. Sistemas de Percepción Visual de Robots con Aprendizaje Automático 

10.1. Métodos de Aprendizaje No Supervisados aplicados a la Visión Artificial 

10.1.1. Clustering 
10.1.2. PCA 
10.1.3. Nearest Neighbors 
10.1.4. Similarity and matrix decomposition 

10.2. Métodos de Aprendizaje Supervisados aplicados a la Visión Artificial 

10.2.1. Concepto “Bag of words” 
10.2.2. Máquina de soporte de vectores 
10.2.3. Latent Dirichlet Allocation 
10.2.4. Redes neuronales 

10.3. Redes Neuronales Profundas: Estructuras, Backbones y Transfer Learning 

10.3.1. Capas generadoras de Features 

10.3.1.1. VGG 
10.3.1.2. Densenet 
10.3.1.3. ResNet 
10.3.1.4. Inception 
10.3.1.5. GoogLeNet 

10.3.2. Transfer Learning 
10.3.3. Los datos. Preparación para el entrenamiento 

10.4. Visión artificial con Aprendizaje Profundo I: Detección y segmentación 

10.4.1. YOLO y SSD diferencias y similitudes 
10.4.2. Unet 
10.4.3. Otras estructuras 

10.5. Visión artificial con aprendizaje profundo II: Generative Adversarial Networks 

10.5.1. Superresolución de imágenes usando GAN 
10.5.2. Creación de Imágenes realistas 
10.5.3. Scene understanding 

10.6. Técnicas de aprendizaje para la Localización y Mapeo en la Robótica Móvil 

10.6.1. Detección de cierre de bucle y relocalización 
10.6.2. Magic Leap. Super point y super glue 
10.6.3. Depth from monocular 

10.7. Inferencia bayesiana y modelado 3D 

10.7.1. Modelos bayesianos y aprendizaje “clásico” 
10.7.2. Superficies implícitas con procesos gaussianos (GPIS) 
10.7.3. Segmentación 3D usando GPIS 
10.7.4. Redes neuronales para el modelado de superficies 3D 

10.8. Aplicaciones End-to-end de las Redes Neuronales Profundas 

10.8.1. Sistema end-to-end. Ejemplo de identificación de personas 
10.8.2. Manipulación de objetos con sensores visuales 
10.8.3. Generación de movimientos y planificación con sensores visuales 

10.9. Tecnologías en la nube para acelerar el desarrollo de algoritmos de Deep Learning 

10.9.1. Uso de GPU para el Deep Learning 
10.9.2. Desarrollo ágil con Google IColab 
10.9.3. GPUs remotas, Google Cloud y AWS 

10.10. Despliegue de Redes Neuronales en Aplicaciones Reales 

10.10.1. Sistemas embebidos 
10.10.2. Despliegue de Redes Neuronales. Uso 
10.10.3. Optimizaciones de redes en el despliegue, ejemplo con TensorRT 

Módulo 11. SLAM Visual. Localización de Robots y Mapeo Simultáneo mediante Técnicas de Visión Artificial 

11.1. Localización y Mapeo Simultáneo (SLAM) 

11.1.1. Localización y Mapeo Simultáneo. SLAM 
11.1.2. Aplicaciones del SLAM 
11.1.3. Funcionamiento del SLAM 

11.2. Geometría Proyectiva 

11.2.1. Modelo pin-hole  
11.2.2. Estimación de parámetros intrínsecos de una cámara 
11.2.3. Homografía, principios básicos y estimación 
11.2.4. Matriz fundamental, principios y estimación 

11.3. Filtros Gaussianos 

11.3.1. Filtro de Kalman 
11.3.2. Filtro de Información 
11.3.3. Ajuste y parametrización de Filtros Gaussianos 

11.4. Estéreo EKF-SLAM 

11.4.1. Geometría de cámara estéreo  
11.4.2. Extracción y búsqueda de características 
11.4.3. Filtro de Kalman para SLAM estéreo 
11.4.4. Ajuste de Parámetros de EKF-SLAM estéreo 

11.5. Monocular EKF-SLAM 

11.5.1. Parametrización de landmarks en EKF-SLAM  
11.5.2. Filtro de Kalman para SLAM monocular 
11.5.3. Ajuste de Parámetros EKF-SLAM Monocular 

11.6. Detección de Cierres de Bucle 

11.6.1. Algoritmo de fuerza bruta 
11.6.2. FABMAP 
11.6.3. Abstracción mediante GIST y HOG 
11.6.4. Detección mediante aprendizaje profundo 

11.7. Graph-SLAM  

11.7.1. Graph-SLAM 
11.7.2. RGBD-SLAM 
11.7.3. ORB-SLAM 

11.8. Direct Visual SLAM 

11.8.1. Análisis del Algoritmo Direct Visual SLAM 
11.8.2. LSD-SLAM 
11.8.3. SVO 

11.9. Visual Inertial SLAM 

11.9.1. Integración de medidas inerciales 
11.9.2. Bajo acoplamiento: SOFT-SLAM 
11.9.3. Alto acoplamiento: Vins-Mono 

11.10. Otras tecnologías de SLAM 

11.10.1. Aplicaciones más allá del SLAM visual 
11.10.2. Lidar-SLAM 
11.10.2. Range-only SLAM 

Módulo 12. Aplicación a la Robótica de las Tecnologías de Realidad Virtual y Aumentada 

12.1. Tecnologías Inmersivas en la Robótica 

12.1.1. Realidad Virtual en Robótica 
12.1.2. Realidad Aumentada en Robótica 
12.1.3. Realidad Mixta en Robótica 
12.1.4. Diferencia entre realidades 

12.2. Construcción de entornos virtuales 

12.2.1. Materiales y texturas 
12.2.2. Iluminación 
12.2.3. Sonido y olor virtual 

12.3. Modelado de Robots en Entornos Virtuales 

12.3.1. Modelado geométrico 
12.3.2. Modelado físico 
12.3.3. Estandarización de modelos 

12.4. Modelado de Dinámica y Cinemática de los Robots: Motores Físicos Virtuales 

12.4.1. Motores físicos. Tipología 
12.4.2. Configuración de un motor físico 
12.4.3. Motores físicos en la industria 

12.5. Plataformas, periféricos y herramientas más usadas en el Realidad Virtual  

12.5.1. Visores de realidad virtual 
12.5.2. Periféricos de interacción 
12.5.3. Sensores virtuales 

12.6. Sistemas de Realidad Aumentada 

12.6.1. Inserción de elementos virtuales en la realidad 
12.6.2. Tipos de marcadores visuales 
12.6.3. Tecnologías de realidad aumentada 

12.7. Metaverso: Entornos Virtuales de Agentes Inteligentes y Personas 

12.7.1. Creación de avatares 
12.7.2. Agentes inteligentes en entornos virtuales 
12.7.3. Construcción de entornos multiusuarios para VR/AR 

12.8. Creación de Proyectos de Realidad Virtual para Robótica 

12.8.1. Fases de desarrollo de un proyecto de realidad virtual 
12.8.2. Despliegue de sistemas de realidad virtual 
12.8.3. Recursos de realidad virtual  

12.9. Creación de Proyectos de Realidad Aumentada para Robótica  

12.9.1. Fases de desarrollo de un proyecto de realidad aumentada 
12.9.2. Despliegue de proyectos de realidad aumentada 
12.9.3. Recursos de realidad aumentada  

12.10. Teleoperación de Robots con Dispositivos Móviles 

12.10.1. Realidad Mixta en Móviles 
12.10.2. Sistemas Inmersivos mediante Sensores de Dispositivos Móviles 
12.10.3. Ejemplos de Proyectos Móviles 

Módulo 13. Sistemas de Comunicación e Interacción con Robots   

13.1. Reconocimiento de Habla: Sistemas Estocásticos 

13.1.1. Modelado acústico del habla 
13.1.2. Modelos ocultos de Markov 
13.1.3. Modelado lingüístico del habla: N-Gramas, gramáticas BNF 

13.2. Reconocimiento de Habla: Deep Learning 

13.2.1. Redes neuronales profundas 
13.2.2. Redes neuronales recurrentes 
13.2.3. Células LSTM 

13.3. Reconocimiento de Habla: Prosodia y Efectos Ambientales 

13.3.1. Ruido ambiente 
13.3.2. Reconocimiento multilocutor 
13.3.3. Patologías en el habla 

13.4. Comprensión del Lenguaje Natural: Sistemas Heurísticos y Probabilísticos 

13.4.1. Análisis sintáctico-semántico: reglas lingüísticas 
13.4.2. Comprensión basada en reglas heurísticas 
13.4.3. Sistemas probabilísticos: regresión logística y SVM 
13.4.4. Comprensión basada en redes neuronales 

13.5. Gestión de diálogo: Estrategias heurístico/probabilísticas 

13.5.1. Intención del interlocutor
13.5.2. Diálogo basado en plantillas 
13.5.3. Gestión de diálogo estocástica: redes bayesianas 

13.6. Gestión de diálogo: Estrategias avanzadas 

13.6.1. Sistemas de aprendizaje basado en refuerzo 
13.6.2. Sistemas basados en redes neuronales 
13.6.3. Del habla a la intención en una única red 

13.7. Generación de respuesta y síntesis de habla 

13.7.1. Generación de respuesta: De la idea al texto coherente 
13.7.2. Síntesis de habla por concatenación 
13.7.3. Síntesis de habla estocástica 

13.8. Adaptación y contextualización del diálogo 

13.8.1. Iniciativa de diálogo 
13.8.2. Adaptación al locutor 
13.8.3. Adaptación al contexto del diálogo 

13.9. Robots e interacciones sociales: Reconocimiento, Síntesis y Expresión de Emociones 

13.9.1. Paradigmas de Voz Artificial: Voz Robótica y Voz Natural 
13.9.2. Reconocimiento de Emociones y Análisis de Sentimiento 
13.9.3. Síntesis de Voz Emocional 

13.10. Robots e interacciones sociales: Interfaces Multimodales Avanzadas 

13.10.1. Combinación de interfaces vocales y táctiles 
13.10.2. Reconocimiento y Traducción de Lengua de Signos 
13.10.3. Avatares Visuales: Traducción de Voz a Lengua de signos 

Módulo 14. Procesado digital de imágenes 

14.1. Entorno de desarrollo en Visión por Computador 

14.1.1. Librerías de Visión por Computador 
14.1.2. Entorno de programación 
14.1.3. Herramientas de visualización 

14.2. Procesamiento digital de imágenes 

14.2.1. Relaciones entre pixeles 
14.2.2. Operaciones con imágenes 
14.2.3. Transformaciones geométricas 

14.3. Operaciones de pixeles 

14.3.1. Histograma 
14.3.2. Transformaciones a partir de histograma 
14.3.3. Operaciones en imágenes en color 

14.4. Operaciones lógicas y aritméticas 

14.4.1. Suma y resta 
14.4.2. Producto y División 
14.4.3. And / Nand 
14.4.4. Or / Nor 
14.4.5. Xor / Xnor 

14.5. Filtros 

14.5.1. Máscaras y Convolución 
14.5.2. Filtrado lineal 
14.5.3. Filtrado no lineal 
14.5.4. Análisis de Fourier 

14.6. Operaciones morfológicas 

14.6.1. Erode and Dilating 
14.6.2. Closing and Open 
14.6.3. Top_hat y Black hat 
14.6.4. Detección de contornos 
14.6.5. Esqueleto 
14.6.6. Relleno de agujeros 
14.6.7. Convex hull 

14.7. Herramientas de análisis de imágenes 

14.7.1. Detección de bordes 
14.7.2. Detección de blobs 
14.7.3. Control dimensional 
14.7.4. Inspección de color 

14.8. Segmentación de objetos 

14.8.1. Segmentación de imágenes 
14.8.2. Técnicas de segmentación clásicas 
14.8.3. Aplicaciones reales 

14.9. Calibración de imágenes 

14.9.1. Calibración de imagen 
14.9.2. Métodos de calibración 
14.9.3. Proceso de calibración en un sistema cámara 2D/robot 

14.10. Procesado de imágenes en entorno real 

14.10.1. Análisis de la problemática 
14.10.2. Tratamiento de la imagen 
14.10.3. Extracción de características 
14.10.4. Resultados finales 

Módulo 15. Procesado digital de imágenes avanzado 

15.1. Reconocimiento óptico de caracteres (OCR) 

15.1.1. Preprocesado de la imagen 
15.1.2. Detección de texto 
15.1.3. Reconocimiento de texto 

15.2. Lectura de códigos 

15.2.1. Códigos 1D 
15.2.2. Códigos 2D 
15.2.3. Aplicaciones 

15.3. Búsqueda de patrones 

15.3.1. Búsqueda de patrones 
15.3.2. Patrones basados en nivel de gris 
15.3.3. Patrones basados en contornos 
15.3.4. Patrones basados en formas geométricas 
15.3.5. Otras técnicas 

15.4. Seguimiento de objetos con visión convencional 

15.4.1. Extracción de fondo 
15.4.2. Meanshift 
15.4.3. Camshift 
15.4.4. Optical flow 

15.5. Reconocimiento facial 

15.5.1. Facial Landmark detection 
15.5.2. Aplicaciones 
15.5.3. Reconocimiento facial 
15.5.4. Reconocimiento de emociones 

15.6. Panorámica y alineaciones 

15.6.1. Stitching 
15.6.2. Composición de imágenes 
15.6.3. Fotomontaje 

15.7. High Dinamic Range (HDR) and Photometric Stereo 

15.7.1. Incremento del rango dinámico 
15.7.2. Composición de imágenes para mejorar contornos 
15.7.3. Técnicas para el uso de aplicaciones en dinámico 

15.8. Compresión de imágenes 

15.8.1. La compresión de imágenes 
15.8.2. Tipos de compresores 
15.8.3. Técnicas de compresión de imágenes 

15.9. Procesado de video 

15.9.1. Secuencias de imágenes 
15.9.2. Formatos y códecs de video 
15.9.3. Lectura de un video
15.9.4. Procesado del fotograma 

15.10. Aplicación real de Procesado de Imágenes 

15.10.1. Análisis de la problemática 
15.10.2. Tratamiento de la imagen 
15.10.3. Extracción de características 
15.10.4. Resultados finales 

Módulo 16. Procesado de imágenes 3D 

16.1. Imagen 3D 

16.1.1. Imagen 3D 
16.1.2. Software de procesado de imágenes 3d y Visualizaciones 
16.1.3. Software de Metrología 

16.2. Open3D 

16.2.1. Librería para Proceso de Datos 3D 
16.2.2. Características 
16.2.3. Instalación y Uso 

16.3. Los datos 

16.3.1. Mapas de profundidad en imagen 2D 
16.3.2. Pointclouds 
16.3.3. Normales 
16.3.4. Superficies 

16.4. Visualización 

16.4.1. Visualización de Datos 
16.4.2. Controles 
16.4.3. Visualización Web 

16.5. Filtros 

16.5.1. Distancia entre puntos, eliminar Outliers 
16.5.2. Filtro paso alto 
16.5.3. Downsampling 

16.6. Geometría y extracción de características 

16.6.1. Extracción de un perfil 
16.6.2. Medición de profundidad 
16.6.3. Volumen 
16.6.4. Formas geométricas 3D 
16.6.5. Planos 
16.6.6. Proyección de un punto 
16.6.7. Distancias geométricas 
16.6.8. Kd Tree 
16.6.9. Features 3D 

16.7. Registro y Meshing 

16.7.1. Concatenación 
16.7.2. ICP 
16.7.3. Ransac 3D 

16.8. Reconocimiento de objetos 3D 

16.8.1. Búsqueda de un objeto en la escena 3d 
16.8.2. Segmentación 
16.8.3. Bin picking 

16.9. Análisis de superficies 

16.9.1. Smoothing 
16.9.2. Superficies orientables 
16.9.3. Octree 

16.10. Triangulación 

16.10.1. De Mesh a Point Cloud 
16.10.2. Triangulación de mapas de profundidad 
16.10.3. Triangulación de PointClouds no ordenados 

Módulo 17. Redes Convolucionales y Clasificación de Imágenes 

17.1. Redes neuronales convolucionales  

17.1.1. Introducciónn 
17.1.2. La convolución 
17.1.3. CNN Building Blocks 

17.2. Tipos de capas CNN  

17.2.1. Convolutional  
17.2.2. Activation 
17.2.3. Batch normalization  
17.2.4. Polling 
17.2.5. Fully connected  

17.3. Métricas 

17.3.1. Confusión Matrix  
17.3.2. Accuracy  
17.3.3. Precisión  
17.3.4. Recall 
17.3.5. F1 Score  
17.3.6. ROC Curve  
17.3.7. AUC 

17.4. Principales arquitecturas  

17.4.1. AlexNet 
17.4.2. VGG  
17.4.3. Resnet  
17.4.4. GoogleLeNet 

17.5. Clasificación de imágenes  

17.5.1. Introducciónn 
17.5.2. Análisis de los datos  
17.5.3. Preparación de los datos  
17.5.4. Entrenamiento del modelo  
17.5.5. Validación del modelo 

17.6. Consideraciones prácticas para el entrenamiento de CNN  

17.6.1. Selección de optimizador 
17.6.2. Learning Rate Scheduler 
17.6.3. Comprobar pipeline de entrenamiento  
17.6.4. Entrenamiento con regularización 

17.7. Buenas prácticas en Deep Learning  

17.7.1. Transfer learning 
17.7.2. Fine Tuning 
17.7.3. Data Augmentation 

17.8. Evaluación estadística de datos  

17.8.1. Número de datasets 
17.8.2. Número de etiquetas  
17.8.3. Número de imágenes  
17.8.4. Balanceo de datos 

17.9. Deployment 

17.9.1. Guardando y cargando modelos 
17.9.2. Onnx 
17.9.3. Inferencia 

17.10. Caso Práctico: Clasificación de Imágenes 

17.10.1.  Análisis y preparación de los datos 
17.10.2.  Testeo de la pipeline de entrenamiento 
17.10.3.  Entrenamiento del modelo 
17.10.4.  Validación del modelo 

Módulo 18. Detección de objetos 

18.1. Detección y Seguimiento de Objetos 

18.1.1. Detección de Objetos 
18.1.2. Casos de uso 
18.1.3. Seguimiento de objetos 
18.1.4. Casos de uso 
18.1.5. Oclusiones, Rigid and No Rigid Poses 

18.2. Métricas de Evaluación 

18.2.1. IOU - Intersection Over Union 
18.2.2. Confidence Score 
18.2.3. Recall 
18.2.4. Precisión 
18.2.5. Recall – Precisión Curve 
18.2.6. Mean Average Precision (mAP) 

18.3. Métodos tradicionales 

18.3.1. Sliding window 
18.3.2. Viola detector 
18.3.3. HOG 
18.3.4. Non Maximal Supresion (NMS) 

18.4. Datasets 

18.4.1. Pascal VC 
18.4.2. MS Coco 
18.4.3. ImageNet (2014) 
18.4.4. MOTA Challenge 

18.5. Two Shot Object Detector 

18.5.1. R-CNN 
18.5.2. Fast R-CNN 
18.5.3. Faster R-CNN 
18.5.4. Mask R-CNN 

18.6. Single Shot Object Detector 

18.6.1. SSD 
18.6.2. YOLO 
18.6.3. RetinaNet 
18.6.4. CenterNet 
18.6.5. EfficientDet 

18.7. Backbones 

18.7.1. VGG 
18.7.2. ResNet 
18.7.3. Mobilenet 
18.7.4. Shufflenet 
18.7.5. Darknet 

18.8. Object Tracking 

18.8.1. Enfoques clásicos 
18.8.2. Filtros de partículas 
18.8.3. Kalman 
18.8.4. Sort tracker 
18.8.5. Deep Sort 

18.9. Despliegue 

18.9.1. Plataforma de Computación 
18.9.2. Elección del Backbone 
18.9.3. Elección del Framework 
18.9.4. Optimización de Modelos 
18.9.5. Versionado de Modelos 

18.10. Estudio: Detección y Seguimiento de Personas 

18.10.1. Detección de personas 
18.10.2. Seguimiento de personas 
18.10.3. Reidentificación 
18.10.4. Conteo de personas en multitudes 

Módulo 19.  Segmentación de Imágenes con deep learning 

19.1. Detección de Objetos y Segmentación 

19.1.1. Segmentación semántica 

19.1.1.1. Casos de uso de segmentación semántica 

19.1.2. Segmentación Instanciada 

19.1.2.1. Casos de uso segmentación instanciada 

19.2. Métricas de evaluación 

19.2.1. Similitudes con otros métodos 
19.2.2. Pixel Accuracy 
19.2.3. Dice Coefficient (F1 Score) 

19.3. Funciones de coste 

19.3.1. Dice Loss 
19.3.2. Focal Loss 
19.3.3. Tversky Loss 
19.3.4. Otras funciones 

19.4. Métodos tradicionales de Segmentación 

19.4.1. Aplicación de umbral con Otsu y Riddlen 
19.4.2. Mapas auto organizados 
19.4.3. GMM-EM algorithm 

19.5. Segmentación Semántica aplicando Deep Learning: FCN 

19.5.1. FCN 
19.5.2. Arquitectura 
19.5.3. Aplicaciones de FCN 

19.6. Segmentación semántica aplicando Deep Learning: U-NET 

19.6.1. U-NET 
19.6.2. Arquitectura 
19.6.3. Aplicación U-NET 

19.7. Segmentación semántica aplicando Deep Learning: Deep Lab 

19.7.1. Deep Lab 
19.7.2. Arquitectura 
19.7.3. Aplicación de Deep Lab 

19.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN 

19.8.1. Mask RCNN 
19.8.2. Arquitectura 
19.8.3. Aplicación de un Mas RCNN 

19.9. Segmentación en videos 

19.9.1. STFCN 
19.9.2. Semantic Video CNNs 
19.9.3. Clockwork Convnets 
19.9.4. Low-Latency 

19.10. Segmentación en nubes de puntos 

19.10.1. La nube de puntos 
19.10.2. PointNet 
19.10.3. A-CNN 

Módulo 20. Segmentación de Imágenes Avanzada y Técnicas Avanzadas de Visión por Computador 

20.1. Base de datos para problemas de Segmentación General 

20.1.1. Pascal Context 
20.1.2. CelebAMask-HQ 
20.1.3. Cityscapes Dataset 
20.1.4. CCP Dataset 

20.2. Segmentación Semántica en la Medicina 

20.2.1. Segmentación Semántica en la Medicina 
20.2.2. Datasets para problemas médicos 
20.2.3. Aplicación práctica 

20.3. Herramientas de anotación 

20.3.1. Computer Vision Annotation Tool 
20.3.2. LabelMe 
20.3.3. Otras herramientas 

20.4. Herramientas de Segmentación usando diferentes frameworks 

20.4.1. Keras 
20.4.2. Tensorflow v2 
20.4.3. Pytorch 
20.4.4. Otros 

20.5. Proyecto Segmentación semántica. Los datos, Fase 1 

20.5.1. Análisis del problema 
20.5.2. Fuente de entrada para datos 
20.5.3. Análisis de datos 
20.5.4. Preparación de datos 

20.6. Proyecto Segmentación semántica. Entrenamiento, Fase 2 

20.6.1. Selección del algoritmo 
20.6.2. Entrenamiento 
20.6.3. Evaluación 

20.7. Proyecto Segmentación semántica. Resultados, Fase 3 

20.7.1. Ajuste fino 
20.7.2. Presentación de la solución 
20.7.3. Conclusiones 

20.8. Autocodificadores 

20.8.1. Autocodificadores 
20.8.2. Arquitectura de un Autocodificador 
20.8.3. Autocodificadores de Eliminación de Ruido 
20.8.4. Autocodificador de Coloración Automática 

20.9. Las Redes Generativas Adversariales (GAN) 

20.9.1. Redes Generativas Adversariales (GAN) 
20.9.2. Arquitectura DCGAN 
20.9.3. Arquitectura GAN Condicionada 

20.10. Redes Generativas Adversariales Mejoradas 

20.10.1. Visión general del problema 
20.10.2. WGAN 
20.10.3. LSGAN 
20.10.4. ACGAN 

##IMAGE##

¿Buscas una titulación que se adapte a tus horarios y no te obligue a realizar desplazamientos innecesarios? Este Grand Máster te permitirá autogestionar tus progresos en todo momento” 

Grand Master en Robótica y Visión Artificial

La robótica y la visión artificial están transformando la manera en que interactuamos con la tecnología y el mundo que nos rodea. La creciente demanda de expertos en estos campos requiere una preparación avanzada y especializada, lo que ha llevado a TECH Universidad Tecnológica a diseñar este Grand Master en Robótica y Visión Artificial. Este programa, impartido en modalidad 100% online, ofrece la flexibilidad de aprender a tu ritmo, integrando conocimientos teóricos y prácticos que son cruciales para el desarrollo de proyectos innovadores en robótica y automatización. El contenido del programa abarca temas fundamentales que proporcionan una comprensión integral sobre la robótica y la visión artificial. Entre los módulos destacados se incluyen el diseño y control de robots, algoritmos de aprendizaje automático y técnicas de procesamiento de imágenes. Además, tendrás la oportunidad de explorar el desarrollo de sistemas de visión por computadora, que permiten a las máquinas interpretar y reaccionar al entorno visual.

Explora las posibilidades de la robótica y visión artificial

La robótica y la visión artificial son disciplinas en constante evolución que ofrecen oportunidades ilimitadas para los profesionales del futuro. Con este Grand Master no solo adquirirás conocimientos técnicos, sino que también desarrollarás una mentalidad innovadora y crítica para adaptarse a los cambios y desafíos de la industria. En TECH encontrarás las herramientas necesarias para convertir tus ideas en realidad y contribuir a un futuro más inteligente y conectado. Al unirte a este programa, estarás invirtiendo en tu futuro, posicionándote como un líder en el campo de la robótica y la visión artificial. Terminando el programa, estarás equipado con un conjunto de competencias que te permitirán liderar proyectos innovadores y formar parte de una comunidad profesional comprometida con el futuro de la tecnología. Aprovecha esta oportunidad de capacitarte en un área que no solo es fascinante, sino que también tiene un impacto real en el mundo. ¡Anímate e inscríbete ya!