Presentación

Conviértete en 24 meses en todo un experto en Robótica y Visión Artificial con este Grand Master de Formación Permanente de TECH. Matricúlate ahora"

##IMAGE##

El auge de la Inteligencia Artificial y la Robótica está cambiando el panorama tecnológico, económico y social a nivel global. En este contexto, la especialización en áreas como la Visión Artificial es crucial para mantenerse actualizado en un entorno de avances rápidos y cambios disruptivos. La creciente interacción entre humanos y máquinas, y la necesidad de procesar información visual eficientemente, requiere profesionales altamente capacitados para liderar la innovación y abordar los desafíos. 

Un escenario propicio para los profesionales de la ingeniería que deseen progresar en un sector pujante. Por esta razón, TECH ha diseñado este Grand Master de Formación Permanente en Robótica y Visión Artificial, que brinda una capacitación integral en estas disciplinas emergentes, cubriendo temas como la Realidad Aumentada, Inteligencia Artificial y procesamiento de información visual en máquinas, entre otros. 

Un programa que ofrece un enfoque teórico-práctico que permite a los egresados aplicar sus conocimientos en entornos reales. Todo esto, además, en una titulación universitaria 100% online, que permite al alumnado adaptar su aprendizaje a sus responsabilidades personales y profesionales. Así, tendrán acceso a materiales educativos de alta calidad, como videos, lecturas esenciales y recursos detallados, proporcionándoles una visión global de la Robótica y Visión Artificial. 

Asimismo, gracias al método Relearning, basado en la reiteración continuada de los contenidos más destacados, el estudiante verá reducida las horas de estudio y afianzará de forma más sencilla los conceptos más destacados. 

Una titulación única en el panorama académico que se distingue, además, por el excelente equipo de especialistas en este campo. Su excelente conocimiento y experiencia en el sector queda patente en un temario avanzado, que tan solo ofrece TECH.  

Conviértete en un líder en innovación y aborda los desafíos éticos y de seguridad en la creación de soluciones innovadoras y efectivas en distintos sectores de la industria” 

EsteGrand Master de Formación Permanente en Robótica y Visión Artificial contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:   

  • El desarrollo de casos prácticos presentados por expertos en Informática
  • Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que están concebidos recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional
  • Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje
  • Su especial hincapié en metodologías innovadoras en el desarrollo de Robots y Visión Artificial
  • Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual
  • La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet 

Aprovecha la oportunidad de estudiar en un programa 100% online, adaptando tu tiempo de estudio a tus circunstancias personales y profesionales"

Incluye en su cuadro docente a profesionales pertenecientes al ámbito de la robótica, que vierten en este programa la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio. 

Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará un estudio inmersivo programado para entrenarse ante situaciones reales. 

El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el alumno deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, el profesional contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.

Analiza a través del mejor material didáctico cómo llevar a cabo el ajuste y parametrización de los algoritmos de SLAM” 

##IMAGE##

Profundiza cuando y donde desees en los avances alcanzados en Deep learning” 

Temario

El Grand Master de Formación Permanente en Robótica y Visión Artificial se presenta como una excelente opción para los profesionales de la ingeniería que buscan especializarse en este campo de vanguardia. Los módulos del programa se desarrollan en un orden progresivo, permitiendo que los alumnos adquieran conocimientos de manera gradual y eficiente. Además, ofrece la oportunidad de aprender sobre el diseño, programación y control de robots, así como sobre algoritmos de visión artificial y técnicas de aprendizaje automático, habilidades esenciales para el éxito en este campo en constante evolución.Todo esto, además, con una Biblioteca Virtual, accesible las 24 horas del día, desde cualquier dispositivo digital con conexión a internet. 

##IMAGE##

Obtén una visión global sobre Robótica y Visión Artificial, gracias al acceso a materiales educativos de alta calidad” 

Módulo 1. Robótica. Diseño y modelado de robots 

1.1. Robótica e Industria 4.0 

1.1.1. Robótica e Industria 4.0 
1.1.2. Campos de aplicación y casos de uso 
1.1.3. Subáreas de especialización en Robótica 

1.2. Arquitecturas hardware y software de robots 

1.2.1. Arquitecturas hardware y tiempo real 
1.2.2. Arquitecturas software de robots 
1.2.3. Modelos de comunicación y tecnologías Middleware 
1.2.4. Integración de Software con Robot Operating System (ROS) 

1.3. Modelado matemático de robots 

1.3.1. Representación matemática de sólidos rígidos 
1.3.2. Rotaciones y traslaciones 
1.3.3. Representación jerárquica del estado 
1.3.4. Representación distribuida del estado en ROS (Librería TF) 

1.4. Cinemática y dinámica de robots 

1.4.1. Cinemática 
1.4.2. Dinámica 
1.4.3. Robots subactuados 
1.4.4. Robots redundantes 

1.5. Modelado de robots y simulación 

1.5.1. Tecnologías de modelado de robots 
1.5.2. Modelado de robots con URDF 
1.5.3. Simulación de robots 
1.5.4. Modelado con simulador Gazebo 

1.6. Robots manipuladores 

1.6.1. Tipos de robots manipuladores 
1.6.2. Cinemática 
1.6.3. Dinámica 
1.6.4. Simulación 

1.7. Robots móviles terrestres 

1.7.1. Tipos de robots móviles terrestres 
1.7.2. Cinemática 
1.7.3. Dinámica 
1.7.4. Simulación 

1.8. Robots móviles aéreos 

1.8.1. Tipos de robots móviles aéreos 
1.8.2. Cinemática 
1.8.3. Dinámica 
1.8.4. Simulación 

1.9. Robots móviles acuáticos 

1.9.1. Tipos de robots móviles acuáticos 
1.9.2. Cinemática 
1.9.3. Dinámica 
1.9.4. Simulación 

1.10. Robots bioinspirados 

1.10.1. Humanoides 
1.10.2. Robots con cuatro o más piernas 
1.10.3. Robots modulares 
1.10.4. Robots con partes flexibles (Soft-Robotics) 

Módulo 2. Agentes inteligentes. Aplicación de la Inteligencia Artificial a robots y Softbots

2.1. Agentes Inteligentes e Inteligencia Artificial 

2.1.1. Robots Inteligentes. Inteligencia Artificial 
2.1.2. Agentes Inteligentes

2.1.2.1. Agentes hardware. Robots 
2.1.2.2. Agentes software. Softbots 

2.1.3. Aplicaciones a la Robótica 

2.2. Conexión Cerebro-Algoritmo 

2.2.1. Inspiración biológica de la Inteligencia Artificial 
2.2.2. Razonamiento implementado en algoritmos. Tipología 
2.2.3. Explicabilidad de los resultados en los algoritmos de Inteligencia Artificial 
2.2.4. Evolución de los algoritmos hasta Deep Learning 

2.3. Algoritmos de búsqueda en el espacio de soluciones 

2.3.1. Elementos en la búsqueda en el espacio de soluciones 
2.3.2. Algoritmos de búsqueda de soluciones en problemas de Inteligencia Artificial 
2.3.3. Aplicaciones de algoritmos de búsqueda y optimización 
2.3.4. Algoritmos de búsqueda aplicados a Aprendizaje Automático 

2.4. Aprendizaje Automático 

2.4.1. Aprendizaje automático 
2.4.2. Algoritmos de Aprendizaje Supervisado 
2.4.3. Algoritmos de Aprendizaje No Supervisado 
2.4.4. Algoritmos de Aprendizaje por Refuerzo 

2.5. Aprendizaje Supervisado 

2.5.1. Métodos de Aprendizaje Supervisado 
2.5.2. Árboles de decisión para clasificación 
2.5.3. Máquinas de soporte de vectores 
2.5.4. Redes neuronales artificiales 
2.5.5. Aplicaciones del Aprendizaje Supervisado 

2.6. Aprendizaje No supervisado 

2.6.1. Aprendizaje No Supervisado 
2.6.2. Redes de Kohonen 
2.6.3. Mapas autoorganizativos 
2.6.4. Algoritmo K-medias 

2.7. Aprendizaje por Refuerzo 

2.7.1. Aprendizaje por Refuerzo 
2.7.2. Agentes basados en procesos de Markov 
2.7.3. Algoritmos de Aprendizaje por Refuerzo 
2.6.4. Aprendizaje por Refuerzo aplicado a Robótica 

2.8. Inferencia probabilística 

2.8.1. Inferencia probabilística 
2.8.2. Tipos de inferencia y definición del método 
2.8.3. Inferencia bayesiana como caso de estudio 
2.8.4. Técnicas de inferencia no paramétricas 
2.8.5. Filtros Gaussianos 

2.9. De la teoría a la práctica: desarrollando un agente inteligente robótico 

2.9.1. Inclusión de módulos de Aprendizaje Supervisado en un agente robótico 
2.9.2. Inclusión de módulos de Aprendizaje por Refuerzo en un agente robótico 
2.9.3. Arquitectura de un agente robótico controlado por Inteligencia Artificial 
2.9.4. Herramientas profesionales para la implementación del agente inteligente 
2.9.5. Fases de la implementación de algoritmos de IA en agentes robóticos  

Módulo 3. Deep Learning  

3.1. Inteligencia artificial  

3.1.1. Machine Learning  
3.1.2. Deep Learning  
3.1.3. La explosión del Deep Learning. ¿Por qué ahora?  

3.2. Redes neuronales  

3.2.1. La red neuronal  
3.2.2. Usos de las redes neuronales  
3.2.3. Regresión lineal y perceptrón  
3.2.4. Forward Propagation  
3.2.5. Backpropagation  
3.2.6. Feature vectors  

3.3. Loss Functions  

3.3.1. Loss Functions  
3.3.2. Tipos de Loss Functions  
3.3.3. Elección de la Loss Functions  

3.4. Funciones de activación  

3.4.1. Función de activación  
3.4.2. Funciones lineales  
3.4.3. Funciones no lineales  
3.4.4. Output vs. Hidden Layer Activation Functions  

3.5. Regularización y normalización  

3.5.1. Regularización y normalización  
3.5.2. Overfitting and Data Augmentation  
3.5.3. Regularization Methods: L1, L2 and Dropout  
3.5.4. Normalization Methods: Batch, Weight, Layer 

3.6. Optimización  

3.6.1. Gradient Descent  
3.6.2. Stochastic Gradient Descent  
3.6.3. Mini Batch Gradient Descent  
3.6.4. Momentum  
3.6.5. Adam  

3.7. Hyperparameter Tuning y pesos  

3.7.1. Los hiperparámetros  
3.7.2. Batch Size vs. Learning Rate vs. Step Decay  
3.7.3. Pesos  

3.8. Métricas de evaluación de una red neuronal  

3.8.1. Accuracy  
3.8.2. Dice Coefficient  
3.8.3. Sensitivity vs. Specificity/Recall vs. Precision  
3.8.4. Curva ROC (AUC)  
3.8.5. F1-score  
3.8.6. Confusión Matrix  
3.8.7. Cross-Validation  

3.9. Frameworks y Hardware  

3.9.1. Tensor Flow  
3.9.2. Pytorch  
3.9.3. Caffe  
3.9.4. Keras  
3.9.5. Hardware para la fase de entrenamiento   

3.10. Creación de una red neuronal–entrenamiento y validación   

3.10.1. Dataset  
3.10.2. Construcción de la red  
3.10.3. Entrenamiento  
3.10.4. Visualización de resultados  

Módulo 4. La Robótica en la automatización de procesos industriales 

4.1. Diseño de sistemas automatizados 

4.1.1. Arquitecturas hardware 
4.1.2. Controladores lógicos programables 
4.1.3. Redes de comunicación industriales 

4.2. Diseño eléctrico avanzado I: automatización 

4.2.1. Diseño de cuadros eléctricos y simbología 
4.2.2. Circuitos de potencia y de control. Armónicos 
4.2.3. Elementos de protección y puesta a tierra 

4.3. Diseño eléctrico avanzado II: determinismo y seguridad 

4.3.1. Seguridad de máquina y redundancia 
4.3.2. Relés de seguridad y disparadores 
4.3.3. PLCs de seguridad 
4.3.4. Redes seguras 

4.4. Actuación eléctrica 

4.4.1. Motores y servomotores 
4.4.2. Variadores de frecuencia y controladores 
4.4.3. Robótica industrial de actuación eléctrica 

4.5. Actuación hidráulica y neumática 

4.5.1. Diseño hidráulico y simbología 
4.5.2. Diseño neumático y simbología 
4.5.3. Entornos ATEX en la automatización 

4.6. Transductores en la Robótica y automatización 

4.6.1. Medida de la posición y velocidad 
4.6.2. Medida de la fuerza y temperatura 
4.6.3. Medida de la presencia 
4.6.4. Sensores para visión 

4.7. Programación y configuración de controladores programables lógicos PLCs 

4.7.1. Programación PLC: LD 
4.7.2. Programación PLC: ST 
4.7.3. Programación PLC: FBD y CFC 
4.7.4. Programación PLC: SFC 

4.8. Programación y configuración de equipos en plantas industriales 

4.8.1. Programación de variadores y controladores 
4.8.2. Programación de HMI 
4.8.3. Programación de robots manipuladores 

4.9. Programación y configuración de equipos informáticos industriales 

4.9.1. Programación de sistemas de visión 
4.9.2. Programación de SCADA/software 
4.9.3. Configuración de redes 

4.10. Implementación de automatismos 

4.10.1. Diseño de máquinas de estado 
4.10.2. Implementación de máquinas de estado en PLCs 
4.10.3. Implementación de sistemas de control analógico PID en PLCs 
4.10.4. Mantenimiento de automatismos e higiene de código 
4.10.5. Simulación de automatismos y plantas 

Módulo 5. Sistemas de control automático en Robótica 

5.1. Análisis y diseño de sistemas no lineales 

5.1.1. Análisis y modelado de sistemas no lineales 
5.1.2. Control con realimentación 
5.1.3. Linealización por realimentación 

5.2. Diseño de técnicas de control para sistemas no lineales avanzados 

5.2.1. Control en modo deslizante (Sliding Mode control) 
5.2.2. Control basado en Lyapunov y Backstepping 
5.2.3. Control basado en pasividad 

5.3. Arquitecturas de control 

5.3.1. El paradigma de la Robótica 
5.3.2. Arquitecturas de control 
5.3.3. Aplicaciones y ejemplos de arquitecturas de control 

5.4. Control de movimiento para brazos robóticos 

5.4.1. Modelado cinemático y dinámico 
5.4.2. Control en el espacio de las articulaciones 
5.4.3. Control en el espacio operacional 

5.5. Control de fuerza en los actuadores 

5.5.1. Control de fuerza 
5.5.2. Control de impedancia 
5.5.3. Control híbrido 

5.6. Robots móviles terrestres 

5.6.1. Ecuaciones de movimiento 
5.6.2. Técnicas de control en robots terrestres 
5.6.3. Manipuladores móviles 

5.7. Robots móviles aéreos 

5.7.1. Ecuaciones de movimiento 
5.7.2. Técnicas de control en robots aéreos 
5.7.3. Manipulación aérea 

5.8. Control basado en técnicas de Aprendizaje Automático 

5.8.1. Control mediante Aprendizaje Supervisado 
5.8.2. Control mediante aprendizaje reforzado 
5.8.3. Control mediante Aprendizaje No Supervisado 

5.9. Control basado en visión 

5.9.1. Visual Servoing basado en posición 
5.9.2. Visual Servoing basado en imagen 
5.9.3. Visual Servoing híbrido 

5.10. Control predictivo 

5.10.1. Modelos y estimación de estado 
5.10.2. MPC aplicado a Robots Móviles 
5.10.3. MPC aplicado a UAVs

Módulo 6. Algoritmos de planificación en robots 

6.1. Algoritmos de planificación clásicos 

6.1.1. Planificación discreta: espacio de estados 
6.1.2. Problemas de planificación en Robótica. Modelos de sistemas robóticos 
6.1.3. Clasificación de planificadores 

6.2. El problema de planificación de trayectorias en robots móviles 

6.2.1. Formas de representación del entorno: grafos 
6.2.2. Algoritmos de búsqueda en grafos 
6.2.3. Introducción de costes en los grafos 
6.2.4. Algoritmos de búsqueda en grafos pesados 
6.2.5. Algoritmos con enfoque de cualquier ángulo 

6.3. Planificación en sistemas robóticos de alta dimensionalidad 

6.3.1. Problemas de Robótica de alta dimensionalidad: manipuladores 
6.3.2. Modelo cinemático directo/inverso 
6.3.3. Algoritmos de planificación por muestreo PRM y RRT 
6.3.4. Planificando ante restricciones dinámicas 

6.4. Planificación por muestreo óptimo 

6.4.1. Problemática de los planificadores basados en muestreo 
6.4.2. RRT* concepto de optimalidad probabilística 
6.4.3. Paso de reconectado: restricciones dinámicas 
6.4.4. CForest. Paralelizando la planificación 

6.5. Implementación real de un sistema de planificación de movimientos 

6.5.1. Problema de planificación global. Entornos dinámicos 
6.5.2. Ciclo de acción, sensorización. Adquisición de información del entorno 
6.5.3. Planificación local y global 

6.6. Coordinación en sistemas multirobot I: sistema centralizado 

6.6.1. Problema de coordinación multirobot 
6.6.2. Detección y resolución de colisiones: modificación de trayectorias con Algoritmos Genéticos 
6.6.3. Otros algoritmos bio-inspirados: enjambre de partículas y fuegos de artificio 
6.6.4. Algoritmo de evitación de colisiones por elección de maniobra 

6.7. Coordinación en sistemas multirobot II: enfoques distribuidos I 

6.7.1. Uso de funciones de objetivo complejas 
6.7.2. Frente de Pareto 
6.7.3. Algoritmos evolutivos multiobjetivo 

6.8. Coordinación en sistemas multirobot III: enfoques distribuidos II 

6.8.1. Sistemas de planificación de orden 1 
6.8.2. Algoritmo ORCA 
6.8.3. Añadido de restricciones cinemáticas y dinámicas en ORCA 

6.9. Teoría de planificación por Decisión 

6.9.1. Teoría de decisión 
6.9.2. Sistemas de decisión secuencial 
6.9.3. Sensores y espacios de información 
6.9.4. Planificación ante incertidumbre en sensorización y en actuación 

6.10. Sistemas de planificación de aprendizaje por refuerzo 

6.10.1. Obtención de la recompensa esperada de un sistema 
6.10.2. Técnicas de aprendizaje por recompensa media 
6.10.3. Aprendizaje por refuerzo inverso  

Módulo 7. Visión artificial  

7.1. Percepción humana  

7.1.1. Sistema visual humano  
7.1.2. El color  
7.1.3. Frecuencias visibles y no visibles  

7.2. Crónica de la Visión Artificial  

7.2.1. Principios  
7.2.2. Evolución  
7.2.3. La importancia de la visión artificial  

7.3. Composición de imágenes digitales  

7.3.1. La imagen digital  
7.3.2. Tipos de imágenes  
7.3.3. Espacios de color  
7.3.4. RGB  
7.3.5. HSV y HSL  
7.3.6. CMY-CMYK  
7.3.7. YCbCr  
7.3.8. Imagen indexada  

7.4. Sistemas de captación de imágenes  

7.4.1. Funcionamiento de una cámara digital  
7.4.2. La correcta exposición para cada situación  
7.4.3. Profundidad de campo  
7.4.4. Resolución  
7.4.5. Formatos de imagen  
7.4.6. Modo HDR  
7.4.7. Cámaras de alta resolución  
7.4.8. Cámaras de alta velocidad  

7.5. Sistemas ópticos  

7.5.1. Principios ópticos  
7.5.2. Objetivos convencionales  
7.5.3. Objetivos telecéntricos  
7.5.4. Tipos de autoenfoque  
7.5.5. Distancia focal  
7.5.6. Profundidad de campo  
7.5.7. Distorsión óptica  
7.5.8. Calibración de una imagen  

7.6. Sistemas de iluminación  

7.6.1. Importancia de la iluminación  
7.6.2. Respuesta frecuencial  
7.6.3. Iluminación led  
7.6.4. Iluminación en exteriores  
7.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos  

7.7. Sistemas captación 3D  

7.7.1. Estéreo visión  
7.7.2. Triangulación  
7.7.3. Luz estructurada  
7.7.4. Time of Flight  
7.7.5. Lidar  

7.8. Multiespectro  

7.8.1. Cámaras multiespectrales  
7.8.2. Cámaras hiperespectrales  

7.9. Espectro cercano no visible  

7.9.1. Cámaras IR  
7.9.2. Cámaras UV  
7.9.3. Convertir de no visible a visible gracias a la iluminación  

7.10. Otras bandas del espectro  

7.10.1. Rayos X  
7.10.2. Teraherzios 

Módulo 8. Aplicaciones y estado del arte 

8.1. Aplicaciones industriales  

8.1.1. Librerías de visión industrial  
8.1.2. Cámaras compactas  
8.1.3. Sistemas basados en PC  
8.1.4. Robótica industrial  
8.1.5. Pick and place 2D  
8.1.6. Bin picking  
8.1.7. Control de calidad  
8.1.8. Presencia ausencia de componentes  
8.1.9. Control dimensional  
8.1.10. Control etiquetaje  
8.1.11. Trazabilidad  

8.2. Vehículos autónomos  

8.2.1. Asistencia al conductor  
8.2.2. Conducción autónoma  

8.3. Visión artificial para análisis de contenidos  

8.3.1. Filtro por contenido  
8.3.2. Moderación de contenido visual  
8.3.3. Sistemas de seguimiento  
8.3.4. Identificación de marcas y logos  
8.3.5. Etiquetación y clasificación de videos  
8.3.6. Detección de cambios de escena  
8.3.7. Extracción de textos o créditos  

8.4. Aplicaciones médicas  

8.4.1. Detección y localización de enfermedades  
8.4.2. Cáncer y análisis de radiografías  
8.4.3. Avances en visión artificial dado el Covid-19  
8.4.4. Asistencia en el quirófano  

8.5. Aplicaciones espaciales  

8.5.1. Análisis de imagen por satélite  
8.5.2. Visión artificial para el estudio del espacio  
8.5.3. Misión a Marte  

8.6. Aplicaciones comerciales  

8.6.1. Control stock  
8.6.2. Videovigilancia, seguridad en casa  
8.6.3. Cámaras aparcamiento  
8.6.4. Cámaras control población  
8.6.5. Cámaras velocidad  

8.7. Visión aplicada a la robótica  

8.7.1. Drones  
8.7.2. AGV  
8.7.3. Visión en robots colaborativos  
8.7.4. Los ojos de los robots  

8.8. Realidad aumentada  

8.8.1. Funcionamiento  
8.8.2. Dispositivos  
8.8.3. Aplicaciones en la industria  
8.8.4. Aplicaciones comerciales  

8.9. Cloud computing  

8.9.1. Plataformas de Cloud Computing  
8.9.2. Del Cloud Computing a la producción  

8.10. Investigación y astado del arte  

8.10.1. La comunidad científica  
8.10.2. ¿Qué se está cociendo?  
8.10.3. El futuro de la visión artificial  

Módulo 9. Técnicas de Visión Artificial en Robótica: procesamiento y análisis de imágenes 

9.1. La Visión por Computador 

9.1.1. La Visión por Computador 
9.1.2. Elementos de un sistema de Visión por Computador 
9.1.3. Herramientas matemáticas 

9.2. Sensores ópticos para la Robótica 

9.2.1. Sensores ópticos pasivos 
9.2.2. Sensores ópticos activos 
9.2.3. Sensores no ópticos 

9.3. Adquisición de imágenes 

9.3.1. Representación de imágenes 
9.3.2. Espacio de colores 
9.3.3. Proceso de digitalización 

9.4. Geometría de las imágenes 

9.4.1. Modelos de lentes 
9.4.2. Modelos de cámaras 
9.4.3. Calibración de cámaras 

9.5. Herramientas matemáticas 

9.5.1. Histograma de una imagen 
9.5.2. Convolución 
9.5.3. Transformada de Fourier 

9.6. Preprocesamiento de imágenes 

9.6.1. Análisis de ruido 
9.6.2. Suavizado de imágenes 
9.6.3. Realce de imágenes 

9.7. Segmentación de imágenes 

9.7.1. Técnicas basadas en contornos 
9.7.3. Técnicas basadas en histograma 
9.7.4. Operaciones morfológicas 

9.8. Detección de características en la imagen 

9.8.1. Detección de puntos de interés 
9.8.2. Descriptores de características 
9.8.3. Correspondencias entre características 

9.9. Sistemas de visión 3D 

9.9.1. Percepción 3D 
9.9.2. Correspondencia de características entre imágenes 
9.9.3. Geometría de múltiples vistas 

9.10. Localización basada en Visión Artificial 

9.10.1. El problema de la localización de robots 
9.10.2. Odometría visual 
9.10.3. Fusión sensorial  

Módulo 10. Sistemas de percepción visual de robots con aprendizaje automático

10.1. Métodos de Aprendizaje No Supervisados aplicados a la Visión Artificial 

10.1.1. Clustering 
10.1.2. PCA 
10.1.3. Nearest Neighbors 
10.1.4. Similarity and matrix decomposition 

10.2. Métodos de Aprendizaje Supervisados aplicados a la Visión Artificial 

10.2.1. Concepto “Bag of words” 
10.2.2. Máquina de soporte de vectores 
10.2.3. Latent Dirichlet Allocation 
10.2.4. Redes neuronales 

10.3. Redes Neuronales Profundas: estructuras, Backbones y Transfer Learning 

10.3.1. Capas generadoras de Features 

10.3.3.1. VGG 
10.3.3.2. Densenet 
10.3.3.3. ResNet 
10.3.3.4. Inception 
10.3.3.5. GoogLeNet 

10.3.2. Transfer Learning 
10.3.3. Los datos. Preparación para el entrenamiento 

10.4. Visión Artificial con Aprendizaje Profundo I: detección y segmentación 

10.4.1. YOLO y SSD diferencias y similitudes 
10.4.2. Unet 
10.4.3. Otras estructuras 

10.5. Visión Artificial con aprendizaje profundo II: Generative Adversarial Networks 

10.5.1. Superresolución de imágenes usando GAN 
10.5.2. Creación de Imágenes realistas 
10.5.3. Scene understanding 

10.6. Técnicas de aprendizaje para la localización y mapeo en la Robótica Móvil 

10.6.1. Detección de cierre de bucle y relocalización 
10.6.2. Magic Leap. Super Point y Super Glue 
10.6.3. Depth from Monocular 

10.7. Inferencia bayesiana y modelado 3D 

10.7.1. Modelos bayesianos y aprendizaje “clásico” 
10.7.2. Superficies implícitas con procesos gaussianos (GPIS) 
10.7.3. Segmentación 3D usando GPIS 
10.7.4. Redes neuronales para el modelado de superficies 3D 

10.8. Aplicaciones End-to-End de las Redes Neuronales Profundas 

10.8.1. Sistema End-to-End. Ejemplo de identificación de personas 
10.8.2. Manipulación de objetos con sensores visuales 
10.8.3. Generación de movimientos y planificación con sensores visuales 

10.9. Tecnologías en la nube para acelerar el desarrollo de algoritmos de Deep Learning 

10.9.1. Uso de GPU para el Deep Learning 
10.9.2. Desarrollo ágil con Google IColab 
10.9.3. GPUs remotas, Google Cloud y AWS 

10.10. Despliegue de Redes Neuronales en aplicaciones reales 

10.10.1. Sistemas embebidos 
10.10.2. Despliegue de Redes Neuronales. Uso 
10.10.3. Optimizaciones de redes en el despliegue, ejemplo con TensorRT 

Módulo 11. SLAM visual. Localización de robots y mapeo simultáneo Mediante Técnicas de Visión Artificial 

11.1. Localización y mapeo simultáneo (SLAM) 

11.1.1. Localización y mapeo simultáneo. SLAM 
11.1.2. Aplicaciones del SLAM 
11.1.3. Funcionamiento del SLAM 

11.2. Geometría proyectiva 

11.2.1. Modelo Pin-Hole 
11.2.2. Estimación de parámetros intrínsecos de una cámara 
11.2.3. Homografía, principios básicos y estimación 
11.2.4. Matriz fundamental, principios y estimación 

11.3. Filtros Gaussianos 

11.3.1. Filtro de Kalman 
11.3.2. Filtro de información 
11.3.3. Ajuste y parametrización de filtros Gaussianos 

11.4. Estéreo EKF-SLAM 

11.4.1. Geometría de cámara estéreo 
11.4.2. Extracción y búsqueda de características 
11.4.3. Filtro de Kalman para SLAM estéreo 
11.4.4. Ajuste de Parámetros de EKF-SLAM estéreo 

11.5. Monocular EKF-SLAM 

11.5.1. Parametrización de Landmarks en EKF-SLAM 
11.5.2. Filtro de Kalman para SLAM monocular 
11.5.3. Ajuste de parámetros EKF-SLAM monocular 

11.6. Detección de cierres de bucle 

11.6.1. Algoritmo de fuerza bruta 
11.6.2. FABMAP 
11.6.3. Abstracción mediante GIST y HOG 
11.6.4. Detección mediante aprendizaje profundo 

11.7. Graph-SLAM 

11.7.1. Graph-SLAM 
11.7.2. RGBD-SLAM 
11.7.3. ORB-SLAM 

11.8. Direct Visual SLAM 

11.8.1. Análisis del algoritmo Direct Visual SLAM 
11.8.2. LSD-SLAM 
11.8.3. SVO 

11.9. Visual Inertial SLAM 

11.9.1. Integración de medidas inerciales 
11.9.2. Bajo acoplamiento: SOFT-SLAM 
11.9.3. Alto acoplamiento: Vins-Mono 

11.10. Otras tecnologías de SLAM 

11.10.1. Aplicaciones más allá del SLAM visual 
11.10.2. Lidar-SLAM 
11.10.3. Range-only SLAM  

Módulo 12. Aplicación a la Robótica de las Tecnologías de Realidad Virtual y Aumentada 

12.1. Tecnologías inmersivas en la Robótica 

12.1.1. Realidad Virtual en Robótica 
12.1.2. Realidad Aumentada en Robótica 
12.1.3. Realidad Mixta en Robótica 
12.1.4. Diferencia entre realidades 

12.2. Construcción de entornos virtuales 

12.2.1. Materiales y texturas 
12.2.2. Iluminación 
12.2.3. Sonido y olor virtual 

12.3. Modelado de robots en entornos virtuales 

12.3.1. Modelado geométrico 
12.3.2. Modelado físico 
12.3.3. Estandarización de modelos 

12.4. Modelado de dinámica y cinemática de los robots: motores físicos virtuales 

12.4.1. Motores físicos. Tipología 
12.4.2. Configuración de un motor físico 
12.4.3. Motores físicos en la industria 

12.5. Plataformas, periféricos y herramientas más usadas en el Realidad Virtual 

12.5.1. Visores de Realidad Virtual 
12.5.2. Periféricos de interacción 
12.5.3. Sensores virtuales 

12.6. Sistemas de Realidad Aumentada 

12.6.1. Inserción de elementos virtuales en la realidad 
12.6.2. Tipos de marcadores visuales 
12.6.3. Tecnologías de Realidad Aumentada 

12.7. Metaverso: entornos virtuales de agentes inteligentes y personas 

12.7.1. Creación de avatares 
12.7.2. Agentes inteligentes en entornos virtuales 
12.7.3. Construcción de entornos multiusuarios para VR/AR 

12.8. Creación de proyectos de Realidad Virtual para Robótica 

12.8.1. Fases de desarrollo de un proyecto de Realidad Virtual 
12.8.2. Despliegue de sistemas de Realidad Virtual 
12.8.3. Recursos de Realidad Virtual 

12.9. Creación de proyectos de Realidad Aumentada para Robótica 

12.9.1. Fases de desarrollo de un proyecto de Realidad Aumentada 
12.9.2. Despliegue de proyectos de Realidad Aumentada 
12.9.3. Recursos de Realidad Aumentada 

12.10. Teleoperación de robots con dispositivos móviles 

12.10.1. Realidad mixta en móviles 
12.10.2. Sistemas inmersivos mediante sensores de dispositivos móviles 
12.10.3. Ejemplos de proyectos móviles 

Módulo 13. Sistemas de comunicación e interacción con robots 

13.1. Reconocimiento de habla: sistemas estocásticos 

13.1.1. Modelado acústico del habla 
13.1.2. Modelos ocultos de Markov 
13.1.3. Modelado lingüístico del habla: N-Gramas, gramáticas BNF 

13.2. Reconocimiento de habla: Deep Learning 

13.2.1. Redes neuronales profundas 
13.2.2. Redes neuronales recurrentes 
13.2.3. Células LSTM 

13.3. Reconocimiento de habla: prosodia y efectos ambientales 

13.3.1. Ruido ambiente 
13.3.2. Reconocimiento multilocutor 
13.3.3. Patologías en el habla 

13.4. Comprensión del lenguaje natural: sistemas heurísticos y probabilísticos 

13.4.1. Análisis sintáctico-semántico: reglas lingüísticas 
13.4.2. Comprensión basada en reglas heurísticas 
13.4.3. Sistemas probabilísticos: regresión logística y SVM 
13.4.4. Comprensión basada en redes neuronales 

13.5. Gestión de diálogo: estrategias heurístico/probabilísticas 

13.5.1. Intención del interlocutor 
13.5.2. Diálogo basado en plantillas 
13.5.3. Gestión de diálogo estocástica: redes bayesianas 

13.6. Gestión de diálogo: estrategias avanzadas 

13.6.1. Sistemas de aprendizaje basado en refuerzo 
13.6.2. Sistemas basados en redes neuronales 
13.6.3. Del habla a la intención en una única red 

13.7. Generación de respuesta y síntesis de habla 

13.7.1. Generación de respuesta: de la idea al texto coherente 
13.7.2. Síntesis de habla por concatenación 
13.7.3. Síntesis de habla estocástica 

13.8. Adaptación y contextualización del diálogo 

13.8.1. Iniciativa de diálogo 
13.8.2. Adaptación al locutor 
13.8.3. Adaptación al contexto del diálogo 

13.9. Robots e interacciones sociales: reconocimiento, síntesis y expresión de emociones 

13.9.1. Paradigmas de voz artificial: voz robótica y voz natural 
13.9.2. Reconocimiento de emociones y análisis de sentimiento 
13.9.3. Síntesis de voz emocional 

13.10. Robots e interacciones sociales: interfaces multimodales avanzadas 

13.10.1. Combinación de interfaces vocales y táctiles 
13.10.2. Reconocimiento y traducción de lengua de signos 
13.10.3. Avatares visuales: traducción de voz a lengua de signos  

Módulo 14. Procesado digital de imágenes 

14.1. Entorno de desarrollo en visión por computador  

14.1.1. Librerías de visión por computador  
14.1.2. Entorno de programación  
14.1.3. Herramientas de visualización  

14.2. Procesamiento digital de imágenes  

14.2.1. Relaciones entre pixeles  
14.2.2. Operaciones con imágenes  
14.2.3. Transformaciones geométricas  

14.3. Operaciones de pixeles  

14.3.1. Histograma  
14.3.2. Transformaciones a partir de histograma  
14.3.3. Operaciones en imágenes en color  

14.4. Operaciones lógicas y aritméticas  

14.4.1. Suma y resta  
14.4.2. Producto y división  
14.4.3. And/Nand  
14.4.4. Or/Nor  
14.4.5. Xor/Xnor  

14.5. Filtros  

14.5.1. Máscaras y convolución  
14.5.2. Filtrado lineal  
14.5.3. Filtrado no lineal  
14.5.4. Análisis de Fourier  

14.6. Operaciones morfológicas  

14.6.1. Erode and Dilating  
14.6.2. Closing and Open  
14.6.3. Top hat y Black hat  
14.6.4. Detección de contornos  
14.6.5. Esqueleto  
14.6.6. Relleno de agujeros  
14.6.7. Convex hull  

14.7. Herramientas de análisis de imágenes  

14.7.1. Detección de bordes  
14.7.2. Detección de blobs  
14.7.3. Control dimensional  
14.7.4. Inspección de color  

14.8. Segmentación de objetos  

14.8.1. Segmentación de imágenes  
14.8.2. Técnicas de segmentación clásicas  
14.8.3. Aplicaciones reales  

14.9. Calibración de imágenes  

14.9.1. Calibración de imagen  
14.9.2. Métodos de calibración  
14.9.3. Proceso de calibración en un sistema cámara 2D/robot  

14.10. Procesado de imágenes en entorno real  

14.10.1. Análisis de la problemática  
14.10.2. Tratamiento de la imagen  
14.10.3. Extracción de características  
14.10.4. Resultados finales

Módulo 15. Procesado digital de imágenes avanzado 

15.1. Reconocimiento óptico de caracteres (OCR)  

15.1.1. Preprocesado de la imagen  
15.1.2. Detección de texto  
15.1.3. Reconocimiento de texto  

15.2. Lectura de códigos  

15.2.1. Códigos 1D  
15.2.2. Códigos 2D  
15.2.3. Aplicaciones  

15.3. Búsqueda de patrones  

15.3.1. Búsqueda de patrones  
15.3.2. Patrones basados en nivel de gris  
15.3.3. Patrones basados en contornos  
15.3.4. Patrones basados en formas geométricas  
15.3.5. Otras técnicas  

15.4. Seguimiento de objetos con visión convencional  

15.4.1. Extracción de fondo  
15.4.2. Meanshift  
15.4.3. Camshift  
15.4.4. Optical flow  

15.5. Reconocimiento facial  

15.5.1. Facial Landmark detection  
15.5.2. Aplicaciones  
15.5.3. Reconocimiento facial  
15.5.4. Reconocimiento de emociones  

15.6. Panorámica y alineaciones  

15.6.1. Stitching  
15.6.2. Composición de imágenes  
15.6.3. Fotomontaje  

15.7. High Dinamic Range (HDR) and Photometric Stereo  

15.7.1. Incremento del rango dinámico  
15.7.2. Composición de imágenes para mejorar contornos  
15.7.3. Técnicas para el uso de aplicaciones en dinámico  

15.8. Compresión de imágenes  

15.8.1. La compresión de imágenes  
15.8.2. Tipos de compresores  
15.8.3. Técnicas de compresión de imágenes  

15.9. Procesado de video  

15.9.1. Secuencias de imágenes  
15.9.2. Formatos y códecs de video  
15.9.3. Lectura de un video 
15.9.4. Procesado del fotograma  

15.10. Aplicación real de procesado de imágenes  

15.10.1. Análisis de la problemática  
15.10.2. Tratamiento de la imagen  
15.10.3. Extracción de características  
15.10.4. Resultados finales

Módulo 16. Procesado de imágenes 3D 

16.1. Imagen 3D  

16.1.1. Imagen 3D  
16.1.2. Software de procesado de imágenes 3D y visualizaciones  
16.1.3. Software de metrología  

16.2. Open 3D  

16.2.1. Librería para proceso de datos 3D  
16.2.2. Características  
16.2.3. Instalación y uso  

16.3. Los datos  

16.3.1. Mapas de profundidad en imagen 2D  
16.3.2. Pointclouds  
16.3.3. Normales  
16.3.4. Superficies  

16.4. Visualización  

16.4.1. Visualización de datos  
16.4.2. Controles  
16.4.3. Visualización Web  

16.5. Filtros  

16.5.1. Distancia entre puntos, eliminar outliers  
16.5.2. Filtro paso alto  
16.5.3. Downsampling  

16.6. Geometría y extracción de características  

16.6.1. Extracción de un perfil  
16.6.2. Medición de profundidad  
16.6.3. Volumen  
16.6.4. Formas geométricas 3D  
16.6.5. Planos  
16.6.6. Proyección de un punto  
16.6.7. Distancias geométricas  
16.6.8. Kd Tree  
16.6.9. Features 3D  

16.7. Registro y Meshing  

16.7.1. Concatenación  
16.7.2. ICP  
16.7.3. Ransac 3D  

16.8. Reconocimiento de objetos 3D  

16.8.1. Búsqueda de un objeto en la escena 3D  
16.8.2. Segmentación  
16.8.3. Bin picking  

16.9. Análisis de superficies  

16.9.1. Smoothing  
16.9.2. Superficies orientables  
16.9.3. Octree  

16.10. Triangulación  

16.10.1. De Mesh a Point Cloud  
16.10.2. Triangulación de mapas de profundidad  
16.10.3. Triangulación de PointClouds no ordenados

Módulo 17. Redes convolucionales y clasificación de imágenes 

17.1. Redes neuronales convolucionales  

17.1.1. Introducción  
17.1.2. La convolución 
17.1.3. CNN Building Blocks  

17.2. Tipos de capas CNN  

17.2.1. Convolutional  
17.2.2. Activation  
17.2.3. Batch normalization  
17.2.4. Polling  
17.2.5. Fully connected  

17.3. Métricas  

17.3.1. Confusion Matrix  
17.3.2. Accuracy  
17.3.3. Precisión  
17.3.4. Recall  
17.3.5. F1 Score  
17.3.6. ROC Curve  
17.3.7. AUC  

17.4. Principales Arquitecturas  

17.4.1. AlexNet  
17.4.2. VGG  
17.4.3. Resnet  
17.4.4. GoogleLeNet  

17.5. Clasificación de imágenes  

17.5.1. Introducción  
17.5.2. Análisis de los datos  
17.5.3. Preparación de los datos  
17.5.4. Entrenamiento del modelo  
17.5.5. Validación del modelo  

17.6. Consideraciones prácticas para el entrenamiento de CNN  

17.6.1. Selección de optimizador  
17.6.2. Learning Rate Scheduler  
17.6.3. Comprobar pipeline de entrenamiento  
17.6.4. Entrenamiento con regularización  

17.7. Buenas prácticas en Deep Learning  

17.7.1. Transfer Learning  
17.7.2. Fine Tuning  
17.7.3. Data Augmentation  

17.8. Evaluación estadística de datos  

17.8.1. Número de datasets  
17.8.2. Número de etiquetas  
17.8.3. Número de imágenes  
17.8.4. Balanceo de datos  

17.9. Deployment  

17.9.1. Guardando y cargando modelos  
17.9.2. Onnx  
17.9.3. Inferencia  

17.10. Caso práctico: clasificación de imágenes  

17.10.1. Análisis y preparación de los datos  
17.10.2. Testeo del pipeline de entrenamiento  
17.10.3. Entrenamiento del modelo  
17.10.4. Validación del modelo

Módulo 18. Detección de objetos 

18.1. Detección y seguimiento de objetos  

18.1.1. Detección de objetos  
18.1.2. Casos de uso  
18.1.3. Seguimiento de objetos  
18.1.4. Casos de uso  
18.1.5. Oclusiones, Rigid and No Rigid Poses  

18.2. Métricas de evaluación  

18.2.1. IOU - Intersection Over Union  
18.2.2. Confidence Score  
18.2.3. Recall  
18.2.4. Precisión  
18.2.5. Recall–Precisión Curve  
18.2.6. Mean Average Precision (mAP)  

18.3. Métodos tradicionales  

18.3.1. Sliding window  
18.3.2. Viola detector  
18.3.3. HOG  
18.3.4. Non Maximal Supresion (NMS)  

18.4. Datasets  

18.4.1. Pascal VC  
18.4.2. MS Coco  
18.4.3. ImageNet (2014)  
18.4.4. MOTA Challenge  

18.5. Two Shot Object Detector  

18.5.1. R-CNN  
18.5.2. Fast R-CNN  
18.5.3. Faster R-CNN  
18.5.4. Mask R-CNN  

18.6. Single Shot Object Detector   

18.6.1. SSD  
18.6.2. YOLO  
18.6.3. RetinaNet  
18.6.4. CenterNet  
18.6.5. EfficientDet  

18.7. Backbones  

18.7.1. VGG  
18.7.2. ResNet  
18.7.3. Mobilenet  
18.7.4. Shufflenet  
18.7.5. Darknet  

18.8. Object Tracking  

18.8.1. Enfoques clásicos  
18.8.2. Filtros de partículas  
18.8.3. Kalman  
18.8.4. Sorttracker  
18.8.5. Deep Sort  

18.9. Despliegue  

18.9.1. Plataforma de computación  
18.9.2. Elección del Backbone  
18.9.3. Elección del Framework  
18.9.4. Optimización de modelos  
18.9.5. Versionado de Modelos  

18.10. Estudio: detección y seguimiento de personas   

18.10.1. Detección de personas  
18.10.2. Seguimiento de personas  
18.10.3. Reidentificación  
18.10.4. Conteo de personas en multitudes 

Módulo 19. Detección de objetos 

19.1. Detección de objetos y segmentación  

19.1.1. Segmentación semántica  

19.1.1.1. Casos de uso de segmentación semántica  

19.1.2. Segmentación Instanciada  

19.1.2.1. Casos de uso segmentación instanciada  

19.2. Métricas de evaluación  

19.2.1. Similitudes con otros métodos  
19.2.2. Pixel Accuracy  
19.2.3. Dice Coefficient (F1 Score)  

19.3. Funciones de coste  

19.3.1. Dice Loss  
19.3.2. Focal Loss  
19.3.3. Tversky Loss  
19.3.4. Otras funciones  

19.4. Métodos tradicionales de segmentación  

19.4.1. Aplicación de umbral con Otsu y Riddlen  
19.4.2. Mapas auto organizados  
19.4.3. GMM-EM algorithm  

19.5. Segmentación Semántica aplicando Deep Learning: FCN  

19.5.1. FCN  
19.5.2. Arquitectura  
19.5.3. Aplicaciones de FCN  

19.6. Segmentación semántica aplicando Deep Learning : U-NET  

19.6.1. U-NET  
19.6.2. Arquitectura  
19.6.3. Aplicación U-NET  

19.7. Segmentación semántica aplicando Deep Learning: Deep Lab  

19.7.1. Deep Lab  
19.7.2. Arquitectura  
19.7.3. Aplicación de Deep Lab  

19.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN  

19.8.1. Mask RCNN  
19.8.2. Arquitectura  
19.8.3. Aplicación de un Mas RCNN  

19.9. Segmentación en videos  

19.9.1. STFCN  
19.9.2. Semantic Video CNNs  
19.9.3. Clockwork Convnets  
19.9.4. Low-Latency  

19.10. Segmentación en nubes de puntos  

19.10.1. La nube de puntos  
19.10.2. PointNet  
19.10.3. A-CNN  

Módulo 20. Segmentación de imágenes avanzadas y técnicas avanzadas de visión por computador 

20.1. Base de datos para problemas de segmentación general   

20.1.1. Pascal Context  
20.1.2. CelebAMask-HQ  
20.1.3. Cityscapes Dataset  
20.1.4. CCP Dataset  

20.2. Segmentación semántica en la medicina  

20.2.1. Segmentación semántica en la medicina  
20.2.2. Datasets para problemas médicos  
20.2.3. Aplicación práctica  

20.3. Herramientas de anotación  

20.3.1. Computer Vision Annotation Tool  
20.3.2. LabelMe  
20.3.3. Otras herramientas  

20.4. Herramientas de Segmentación usando diferentes Frameworks  

20.4.1. Keras  
20.4.2. Tensorflow v2  
20.4.3. Pytorch  
20.4.4. Otros  

20.5. Proyecto Segmentación semántica. Los datos, fase 1  

20.5.1. Análisis del problema  
20.5.2. Fuente de entrada para datos  
20.5.3. Análisis de datos  
20.5.4. Preparación de datos  

20.6. Proyecto Segmentación semántica. Entrenamiento, fase 2  

20.6.1. Selección del algoritmo  
20.6.2. Entrenamiento  
20.6.3. Evaluación  

20.7. Proyecto Segmentación semántica. Resultados, fase 3  

20.7.1. Ajuste fino  
20.7.2. Presentación de la solución  
20.7.3. Conclusiones  

20.8. Autocodificadores  

20.8.1. Autocodificadores  
20.8.2. Arquitectura de un autocodificador  
20.8.3. Autocodificadores de eliminación de ruido  
20.8.4. Autocodificador de coloración automática  

20.9. Las Redes Generativas Adversariales (GAN)  

20.9.1. Redes Generativas Adversariales (GAN)  
20.9.2. Arquitectura DCGAN  
20.9.3. Arquitectura GAN Condicionada  

20.10. Redes generativas adversariales mejoradas  

20.10.1. Visión general del problema  
20.10.2. WGAN  
20.10.3. LSGAN  
20.10.4. ACGAN 

##IMAGE##

Diferénciate del resto de tus competidores al adquirir habilidades especializadas en un campo con un gran potencial de crecimiento"

Grand Master en Robótica y Visión Artificial. Facultad de Ingeniería

La robótica y la visión artificial son dos disciplinas que han revolucionado la forma en que interactuamos con la tecnología y han transformado la industria en diversos sectores. En TECH Universidad Tecnológica, en colaboración con la Facultad de Ingeniería, hemos desarrollado un posgrado de Grand Master en Robótica y Visión Artificial para brindar a los profesionales una Capacitación Práctica virtual especializada en estas áreas de alta demanda en el mercado tecnológico actual. Gracias a una metodología innovadora que mezcla clases virtuales y el método Relearning, serás capaz de adquirir competencias sólidas en un entorno inmersivo y flexible que se adapta fácilmente a tu rutina

En este posgrado online, los participantes adquirirán conocimientos avanzados en robótica y visión artificial, desde los fundamentos teóricos hasta las aplicaciones prácticas en el diseño y desarrollo de sistemas robóticos inteligentes. Nuestro enfoque interdisciplinario permite a los participantes comprender los conceptos clave de la robótica y la visión artificial, así como aplicar técnicas y herramientas avanzadas en la resolución de problemas reales en distintos contextos. Además, contarán con la guía de un cuerpo docente especializado, con amplia experiencia en la investigación y aplicación de la robótica y visión artificial en la industria y la academia.