Titulación universitaria
La mayor facultad de ingeniería del mundo”
Presentación
Conviértete en 24 meses en todo un experto en Robótica y Visión Artificial con este Grand Máster de TECH. Matricúlate ahora"
El auge de la Inteligencia Artificial y la Robótica está cambiando el panorama tecnológico, económico y social a nivel global. En este contexto, la especialización en áreas como la Visión Artificial es crucial para mantenerse actualizado en un entorno de avances rápidos y cambios disruptivos. La creciente interacción entre humanos y máquinas, y la necesidad de procesar información visual eficientemente, requiere profesionales altamente capacitados para liderar la innovación y abordar los desafíos.
Un escenario propicio para los profesionales de la ingeniería que deseen progresar en un sector pujante. Por esta razón, TECH ha diseñado este Grand Máster en Robótica y Visión Artificial, que brinda una capacitación integral en estas disciplinas emergentes, cubriendo temas como la Realidad Aumentada, Inteligencia Artificial y procesamiento de información visual en máquinas, entre otros.
Un programa que ofrece un enfoque teórico-práctico que permite a los egresados aplicar sus conocimientos en entornos reales. Todo esto, además, en una titulación universitaria 100% online, que permite al alumnado adaptar su aprendizaje a sus responsabilidades personales y profesionales. Así, tendrán acceso a materiales educativos de alta calidad, como videos, lecturas esenciales y recursos detallados, proporcionándoles una visión global de la Robótica y Visión Artificial.
Asimismo, gracias al método Relearning, basado en la reiteración continuada de los contenidos más destacados, el estudiante verá reducida las horas de estudio y afianzará de forma más sencilla los conceptos más destacados.
Una titulación única en el panorama académico que se distingue, además, por el excelente equipo de especialistas en este campo. Su excelente conocimiento y experiencia en el sector queda patente en un temario avanzado, que tan solo ofrece TECH.
Conviértete en un líder en innovación y aborda los desafíos éticos y de seguridad en la creación de soluciones innovadoras y efectivas en distintos sectores de la industria”
EsteGrand Máster en Robótica y Visión Artificial contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:
- El desarrollo de casos prácticos presentados por expertos en Informática
- Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que están concebidos recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional
- Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje
- Su especial hincapié en metodologías innovadoras en el desarrollo de Robots y Visión Artificial
- Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual
- La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet
Aprovecha la oportunidad de estudiar en un programa 100% online, adaptando tu tiempo de estudio a tus circunstancias personales y profesionales"
Incluye en su cuadro docente a profesionales pertenecientes al ámbito de la robótica, que vierten en este programa la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio.
Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará un estudio inmersivo programado para entrenarse ante situaciones reales.
El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el alumno deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, el profesional contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.
Analiza a través del mejor material didáctico cómo llevar a cabo el ajuste y parametrización de los algoritmos de SLAM”
Profundiza cuando y donde desees en los avances alcanzados en Deep learning”
Temario
El Grand Máster en Robótica y Visión Artificial se presenta como una excelente opción para los profesionales de la ingeniería que buscan especializarse en este campo de vanguardia. Los módulos del programa se desarrollan en un orden progresivo, permitiendo que los alumnos adquieran conocimientos de manera gradual y eficiente. Además, ofrece la oportunidad de aprender sobre el diseño, programación y control de robots, así como sobre algoritmos de visión artificial y técnicas de aprendizaje automático, habilidades esenciales para el éxito en este campo en constante evolución.Todo esto, además, con una Biblioteca Virtual, accesible las 24 horas del día, desde cualquier dispositivo digital con conexión a internet.
Obtén una visión global sobre Robótica y Visión Artificial, gracias al acceso a materiales educativos de alta calidad”
Módulo 1. Robótica. Diseño y modelado de robots
1.1. Robótica e Industria 4.0
1.1.1. Robótica e Industria 4.0
1.1.2. Campos de aplicación y casos de uso
1.1.3. Subáreas de especialización en Robótica
1.2. Arquitecturas hardware y software de robots
1.2.1. Arquitecturas hardware y tiempo real
1.2.2. Arquitecturas software de robots
1.2.3. Modelos de comunicación y tecnologías Middleware
1.2.4. Integración de Software con Robot Operating System (ROS)
1.3. Modelado matemático de robots
1.3.1. Representación matemática de sólidos rígidos
1.3.2. Rotaciones y traslaciones
1.3.3. Representación jerárquica del estado
1.3.4. Representación distribuida del estado en ROS (Librería TF)
1.4. Cinemática y dinámica de robots
1.4.1. Cinemática
1.4.2. Dinámica
1.4.3. Robots subactuados
1.4.4. Robots redundantes
1.5. Modelado de robots y simulación
1.5.1. Tecnologías de modelado de robots
1.5.2. Modelado de robots con URDF
1.5.3. Simulación de robots
1.5.4. Modelado con simulador Gazebo
1.6. Robots manipuladores
1.6.1. Tipos de robots manipuladores
1.6.2. Cinemática
1.6.3. Dinámica
1.6.4. Simulación
1.7. Robots móviles terrestres
1.7.1. Tipos de robots móviles terrestres
1.7.2. Cinemática
1.7.3. Dinámica
1.7.4. Simulación
1.8. Robots móviles aéreos
1.8.1. Tipos de robots móviles aéreos
1.8.2. Cinemática
1.8.3. Dinámica
1.8.4. Simulación
1.9. Robots móviles acuáticos
1.9.1. Tipos de robots móviles acuáticos
1.9.2. Cinemática
1.9.3. Dinámica
1.9.4. Simulación
1.10. Robots bioinspirados
1.10.1. Humanoides
1.10.2. Robots con cuatro o más piernas
1.10.3. Robots modulares
1.10.4. Robots con partes flexibles (Soft-Robotics)
Módulo 2. Agentes inteligentes. Aplicación de la Inteligencia Artificial a robots y Softbots
2.1. Agentes Inteligentes e Inteligencia Artificial
2.1.1. Robots Inteligentes. Inteligencia Artificial
2.1.2. Agentes Inteligentes
2.1.2.1. Agentes hardware. Robots
2.1.2.2. Agentes software. Softbots
2.1.3. Aplicaciones a la Robótica
2.2. Conexión Cerebro-Algoritmo
2.2.1. Inspiración biológica de la Inteligencia Artificial
2.2.2. Razonamiento implementado en algoritmos. Tipología
2.2.3. Explicabilidad de los resultados en los algoritmos de Inteligencia Artificial
2.2.4. Evolución de los algoritmos hasta Deep Learning
2.3. Algoritmos de búsqueda en el espacio de soluciones
2.3.1. Elementos en la búsqueda en el espacio de soluciones
2.3.2. Algoritmos de búsqueda de soluciones en problemas de Inteligencia Artificial
2.3.3. Aplicaciones de algoritmos de búsqueda y optimización
2.3.4. Algoritmos de búsqueda aplicados a Aprendizaje Automático
2.4. Aprendizaje Automático
2.4.1. Aprendizaje automático
2.4.2. Algoritmos de Aprendizaje Supervisado
2.4.3. Algoritmos de Aprendizaje No Supervisado
2.4.4. Algoritmos de Aprendizaje por Refuerzo
2.5. Aprendizaje Supervisado
2.5.1. Métodos de Aprendizaje Supervisado
2.5.2. Árboles de decisión para clasificación
2.5.3. Máquinas de soporte de vectores
2.5.4. Redes neuronales artificiales
2.5.5. Aplicaciones del Aprendizaje Supervisado
2.6. Aprendizaje No supervisado
2.6.1. Aprendizaje No Supervisado
2.6.2. Redes de Kohonen
2.6.3. Mapas autoorganizativos
2.6.4. Algoritmo K-medias
2.7. Aprendizaje por Refuerzo
2.7.1. Aprendizaje por Refuerzo
2.7.2. Agentes basados en procesos de Markov
2.7.3. Algoritmos de Aprendizaje por Refuerzo
2.6.4. Aprendizaje por Refuerzo aplicado a Robótica
2.8. Inferencia probabilística
2.8.1. Inferencia probabilística
2.8.2. Tipos de inferencia y definición del método
2.8.3. Inferencia bayesiana como caso de estudio
2.8.4. Técnicas de inferencia no paramétricas
2.8.5. Filtros Gaussianos
2.9. De la teoría a la práctica: desarrollando un agente inteligente robótico
2.9.1. Inclusión de módulos de Aprendizaje Supervisado en un agente robótico
2.9.2. Inclusión de módulos de Aprendizaje por Refuerzo en un agente robótico
2.9.3. Arquitectura de un agente robótico controlado por Inteligencia Artificial
2.9.4. Herramientas profesionales para la implementación del agente inteligente
2.9.5. Fases de la implementación de algoritmos de IA en agentes robóticos
Módulo 3. Deep Learning
3.1. Inteligencia artificial
3.1.1. Machine Learning
3.1.2. Deep Learning
3.1.3. La explosión del Deep Learning. ¿Por qué ahora?
3.2. Redes neuronales
3.2.1. La red neuronal
3.2.2. Usos de las redes neuronales
3.2.3. Regresión lineal y perceptrón
3.2.4. Forward Propagation
3.2.5. Backpropagation
3.2.6. Feature vectors
3.3. Loss Functions
3.3.1. Loss Functions
3.3.2. Tipos de Loss Functions
3.3.3. Elección de la Loss Functions
3.4. Funciones de activación
3.4.1. Función de activación
3.4.2. Funciones lineales
3.4.3. Funciones no lineales
3.4.4. Output vs. Hidden Layer Activation Functions
3.5. Regularización y normalización
3.5.1. Regularización y normalización
3.5.2. Overfitting and Data Augmentation
3.5.3. Regularization Methods: L1, L2 and Dropout
3.5.4. Normalization Methods: Batch, Weight, Layer
3.6. Optimización
3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam
3.7. Hyperparameter Tuning y pesos
3.7.1. Los hiperparámetros
3.7.2. Batch Size vs. Learning Rate vs. Step Decay
3.7.3. Pesos
3.8. Métricas de evaluación de una red neuronal
3.8.1. Accuracy
3.8.2. Dice Coefficient
3.8.3. Sensitivity vs. Specificity/Recall vs. Precision
3.8.4. Curva ROC (AUC)
3.8.5. F1-score
3.8.6. Confusión Matrix
3.8.7. Cross-Validation
3.9. Frameworks y Hardware
3.9.1. Tensor Flow
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware para la fase de entrenamiento
3.10. Creación de una red neuronal–entrenamiento y validación
3.10.1. Dataset
3.10.2. Construcción de la red
3.10.3. Entrenamiento
3.10.4. Visualización de resultados
Módulo 4. La Robótica en la automatización de procesos industriales
4.1. Diseño de sistemas automatizados
4.1.1. Arquitecturas hardware
4.1.2. Controladores lógicos programables
4.1.3. Redes de comunicación industriales
4.2. Diseño eléctrico avanzado I: automatización
4.2.1. Diseño de cuadros eléctricos y simbología
4.2.2. Circuitos de potencia y de control. Armónicos
4.2.3. Elementos de protección y puesta a tierra
4.3. Diseño eléctrico avanzado II: determinismo y seguridad
4.3.1. Seguridad de máquina y redundancia
4.3.2. Relés de seguridad y disparadores
4.3.3. PLCs de seguridad
4.3.4. Redes seguras
4.4. Actuación eléctrica
4.4.1. Motores y servomotores
4.4.2. Variadores de frecuencia y controladores
4.4.3. Robótica industrial de actuación eléctrica
4.5. Actuación hidráulica y neumática
4.5.1. Diseño hidráulico y simbología
4.5.2. Diseño neumático y simbología
4.5.3. Entornos ATEX en la automatización
4.6. Transductores en la Robótica y automatización
4.6.1. Medida de la posición y velocidad
4.6.2. Medida de la fuerza y temperatura
4.6.3. Medida de la presencia
4.6.4. Sensores para visión
4.7. Programación y configuración de controladores programables lógicos PLCs
4.7.1. Programación PLC: LD
4.7.2. Programación PLC: ST
4.7.3. Programación PLC: FBD y CFC
4.7.4. Programación PLC: SFC
4.8. Programación y configuración de equipos en plantas industriales
4.8.1. Programación de variadores y controladores
4.8.2. Programación de HMI
4.8.3. Programación de robots manipuladores
4.9. Programación y configuración de equipos informáticos industriales
4.9.1. Programación de sistemas de visión
4.9.2. Programación de SCADA/software
4.9.3. Configuración de redes
4.10. Implementación de automatismos
4.10.1. Diseño de máquinas de estado
4.10.2. Implementación de máquinas de estado en PLCs
4.10.3. Implementación de sistemas de control analógico PID en PLCs
4.10.4. Mantenimiento de automatismos e higiene de código
4.10.5. Simulación de automatismos y plantas
Módulo 5. Sistemas de control automático en Robótica
5.1. Análisis y diseño de sistemas no lineales
5.1.1. Análisis y modelado de sistemas no lineales
5.1.2. Control con realimentación
5.1.3. Linealización por realimentación
5.2. Diseño de técnicas de control para sistemas no lineales avanzados
5.2.1. Control en modo deslizante (Sliding Mode control)
5.2.2. Control basado en Lyapunov y Backstepping
5.2.3. Control basado en pasividad
5.3. Arquitecturas de control
5.3.1. El paradigma de la Robótica
5.3.2. Arquitecturas de control
5.3.3. Aplicaciones y ejemplos de arquitecturas de control
5.4. Control de movimiento para brazos robóticos
5.4.1. Modelado cinemático y dinámico
5.4.2. Control en el espacio de las articulaciones
5.4.3. Control en el espacio operacional
5.5. Control de fuerza en los actuadores
5.5.1. Control de fuerza
5.5.2. Control de impedancia
5.5.3. Control híbrido
5.6. Robots móviles terrestres
5.6.1. Ecuaciones de movimiento
5.6.2. Técnicas de control en robots terrestres
5.6.3. Manipuladores móviles
5.7. Robots móviles aéreos
5.7.1. Ecuaciones de movimiento
5.7.2. Técnicas de control en robots aéreos
5.7.3. Manipulación aérea
5.8. Control basado en técnicas de Aprendizaje Automático
5.8.1. Control mediante Aprendizaje Supervisado
5.8.2. Control mediante aprendizaje reforzado
5.8.3. Control mediante Aprendizaje No Supervisado
5.9. Control basado en visión
5.9.1. Visual Servoing basado en posición
5.9.2. Visual Servoing basado en imagen
5.9.3. Visual Servoing híbrido
5.10. Control predictivo
5.10.1. Modelos y estimación de estado
5.10.2. MPC aplicado a Robots Móviles
5.10.3. MPC aplicado a UAVs
Módulo 6. Algoritmos de planificación en robots
6.1. Algoritmos de planificación clásicos
6.1.1. Planificación discreta: espacio de estados
6.1.2. Problemas de planificación en Robótica. Modelos de sistemas robóticos
6.1.3. Clasificación de planificadores
6.2. El problema de planificación de trayectorias en robots móviles
6.2.1. Formas de representación del entorno: grafos
6.2.2. Algoritmos de búsqueda en grafos
6.2.3. Introducción de costes en los grafos
6.2.4. Algoritmos de búsqueda en grafos pesados
6.2.5. Algoritmos con enfoque de cualquier ángulo
6.3. Planificación en sistemas robóticos de alta dimensionalidad
6.3.1. Problemas de Robótica de alta dimensionalidad: manipuladores
6.3.2. Modelo cinemático directo/inverso
6.3.3. Algoritmos de planificación por muestreo PRM y RRT
6.3.4. Planificando ante restricciones dinámicas
6.4. Planificación por muestreo óptimo
6.4.1. Problemática de los planificadores basados en muestreo
6.4.2. RRT* concepto de optimalidad probabilística
6.4.3. Paso de reconectado: restricciones dinámicas
6.4.4. CForest. Paralelizando la planificación
6.5. Implementación real de un sistema de planificación de movimientos
6.5.1. Problema de planificación global. Entornos dinámicos
6.5.2. Ciclo de acción, sensorización. Adquisición de información del entorno
6.5.3. Planificación local y global
6.6. Coordinación en sistemas multirobot I: sistema centralizado
6.6.1. Problema de coordinación multirobot
6.6.2. Detección y resolución de colisiones: modificación de trayectorias con Algoritmos Genéticos
6.6.3. Otros algoritmos bio-inspirados: enjambre de partículas y fuegos de artificio
6.6.4. Algoritmo de evitación de colisiones por elección de maniobra
6.7. Coordinación en sistemas multirobot II: enfoques distribuidos I
6.7.1. Uso de funciones de objetivo complejas
6.7.2. Frente de Pareto
6.7.3. Algoritmos evolutivos multiobjetivo
6.8. Coordinación en sistemas multirobot III: enfoques distribuidos II
6.8.1. Sistemas de planificación de orden 1
6.8.2. Algoritmo ORCA
6.8.3. Añadido de restricciones cinemáticas y dinámicas en ORCA
6.9. Teoría de planificación por Decisión
6.9.1. Teoría de decisión
6.9.2. Sistemas de decisión secuencial
6.9.3. Sensores y espacios de información
6.9.4. Planificación ante incertidumbre en sensorización y en actuación
6.10. Sistemas de planificación de aprendizaje por refuerzo
6.10.1. Obtención de la recompensa esperada de un sistema
6.10.2. Técnicas de aprendizaje por recompensa media
6.10.3. Aprendizaje por refuerzo inverso
Módulo 7. Visión artificial
7.1. Percepción humana
7.1.1. Sistema visual humano
7.1.2. El color
7.1.3. Frecuencias visibles y no visibles
7.2. Crónica de la Visión Artificial
7.2.1. Principios
7.2.2. Evolución
7.2.3. La importancia de la visión artificial
7.3. Composición de imágenes digitales
7.3.1. La imagen digital
7.3.2. Tipos de imágenes
7.3.3. Espacios de color
7.3.4. RGB
7.3.5. HSV y HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Imagen indexada
7.4. Sistemas de captación de imágenes
7.4.1. Funcionamiento de una cámara digital
7.4.2. La correcta exposición para cada situación
7.4.3. Profundidad de campo
7.4.4. Resolución
7.4.5. Formatos de imagen
7.4.6. Modo HDR
7.4.7. Cámaras de alta resolución
7.4.8. Cámaras de alta velocidad
7.5. Sistemas ópticos
7.5.1. Principios ópticos
7.5.2. Objetivos convencionales
7.5.3. Objetivos telecéntricos
7.5.4. Tipos de autoenfoque
7.5.5. Distancia focal
7.5.6. Profundidad de campo
7.5.7. Distorsión óptica
7.5.8. Calibración de una imagen
7.6. Sistemas de iluminación
7.6.1. Importancia de la iluminación
7.6.2. Respuesta frecuencial
7.6.3. Iluminación led
7.6.4. Iluminación en exteriores
7.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos
7.7. Sistemas captación 3D
7.7.1. Estéreo visión
7.7.2. Triangulación
7.7.3. Luz estructurada
7.7.4. Time of Flight
7.7.5. Lidar
7.8. Multiespectro
7.8.1. Cámaras multiespectrales
7.8.2. Cámaras hiperespectrales
7.9. Espectro cercano no visible
7.9.1. Cámaras IR
7.9.2. Cámaras UV
7.9.3. Convertir de no visible a visible gracias a la iluminación
7.10. Otras bandas del espectro
7.10.1. Rayos X
7.10.2. Teraherzios
Módulo 8. Aplicaciones y estado del arte
8.1. Aplicaciones industriales
8.1.1. Librerías de visión industrial
8.1.2. Cámaras compactas
8.1.3. Sistemas basados en PC
8.1.4. Robótica industrial
8.1.5. Pick and place 2D
8.1.6. Bin picking
8.1.7. Control de calidad
8.1.8. Presencia ausencia de componentes
8.1.9. Control dimensional
8.1.10. Control etiquetaje
8.1.11. Trazabilidad
8.2. Vehículos autónomos
8.2.1. Asistencia al conductor
8.2.2. Conducción autónoma
8.3. Visión artificial para análisis de contenidos
8.3.1. Filtro por contenido
8.3.2. Moderación de contenido visual
8.3.3. Sistemas de seguimiento
8.3.4. Identificación de marcas y logos
8.3.5. Etiquetación y clasificación de videos
8.3.6. Detección de cambios de escena
8.3.7. Extracción de textos o créditos
8.4. Aplicaciones médicas
8.4.1. Detección y localización de enfermedades
8.4.2. Cáncer y análisis de radiografías
8.4.3. Avances en visión artificial dado el Covid-19
8.4.4. Asistencia en el quirófano
8.5. Aplicaciones espaciales
8.5.1. Análisis de imagen por satélite
8.5.2. Visión artificial para el estudio del espacio
8.5.3. Misión a Marte
8.6. Aplicaciones comerciales
8.6.1. Control stock
8.6.2. Videovigilancia, seguridad en casa
8.6.3. Cámaras aparcamiento
8.6.4. Cámaras control población
8.6.5. Cámaras velocidad
8.7. Visión aplicada a la robótica
8.7.1. Drones
8.7.2. AGV
8.7.3. Visión en robots colaborativos
8.7.4. Los ojos de los robots
8.8. Realidad aumentada
8.8.1. Funcionamiento
8.8.2. Dispositivos
8.8.3. Aplicaciones en la industria
8.8.4. Aplicaciones comerciales
8.9. Cloud computing
8.9.1. Plataformas de Cloud Computing
8.9.2. Del Cloud Computing a la producción
8.10. Investigación y astado del arte
8.10.1. La comunidad científica
8.10.2. ¿Qué se está cociendo?
8.10.3. El futuro de la visión artificial
Módulo 9. Técnicas de Visión Artificial en Robótica: procesamiento y análisis de imágenes
9.1. La Visión por Computador
9.1.1. La Visión por Computador
9.1.2. Elementos de un sistema de Visión por Computador
9.1.3. Herramientas matemáticas
9.2. Sensores ópticos para la Robótica
9.2.1. Sensores ópticos pasivos
9.2.2. Sensores ópticos activos
9.2.3. Sensores no ópticos
9.3. Adquisición de imágenes
9.3.1. Representación de imágenes
9.3.2. Espacio de colores
9.3.3. Proceso de digitalización
9.4. Geometría de las imágenes
9.4.1. Modelos de lentes
9.4.2. Modelos de cámaras
9.4.3. Calibración de cámaras
9.5. Herramientas matemáticas
9.5.1. Histograma de una imagen
9.5.2. Convolución
9.5.3. Transformada de Fourier
9.6. Preprocesamiento de imágenes
9.6.1. Análisis de ruido
9.6.2. Suavizado de imágenes
9.6.3. Realce de imágenes
9.7. Segmentación de imágenes
9.7.1. Técnicas basadas en contornos
9.7.3. Técnicas basadas en histograma
9.7.4. Operaciones morfológicas
9.8. Detección de características en la imagen
9.8.1. Detección de puntos de interés
9.8.2. Descriptores de características
9.8.3. Correspondencias entre características
9.9. Sistemas de visión 3D
9.9.1. Percepción 3D
9.9.2. Correspondencia de características entre imágenes
9.9.3. Geometría de múltiples vistas
9.10. Localización basada en Visión Artificial
9.10.1. El problema de la localización de robots
9.10.2. Odometría visual
9.10.3. Fusión sensorial
Módulo 10. Sistemas de percepción visual de robots con aprendizaje automático
10.1. Métodos de Aprendizaje No Supervisados aplicados a la Visión Artificial
10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similarity and matrix decomposition
10.2. Métodos de Aprendizaje Supervisados aplicados a la Visión Artificial
10.2.1. Concepto “Bag of words”
10.2.2. Máquina de soporte de vectores
10.2.3. Latent Dirichlet Allocation
10.2.4. Redes neuronales
10.3. Redes Neuronales Profundas: estructuras, Backbones y Transfer Learning
10.3.1. Capas generadoras de Features
10.3.3.1. VGG
10.3.3.2. Densenet
10.3.3.3. ResNet
10.3.3.4. Inception
10.3.3.5. GoogLeNet
10.3.2. Transfer Learning
10.3.3. Los datos. Preparación para el entrenamiento
10.4. Visión Artificial con Aprendizaje Profundo I: detección y segmentación
10.4.1. YOLO y SSD diferencias y similitudes
10.4.2. Unet
10.4.3. Otras estructuras
10.5. Visión Artificial con aprendizaje profundo II: Generative Adversarial Networks
10.5.1. Superresolución de imágenes usando GAN
10.5.2. Creación de Imágenes realistas
10.5.3. Scene understanding
10.6. Técnicas de aprendizaje para la localización y mapeo en la Robótica Móvil
10.6.1. Detección de cierre de bucle y relocalización
10.6.2. Magic Leap. Super Point y Super Glue
10.6.3. Depth from Monocular
10.7. Inferencia bayesiana y modelado 3D
10.7.1. Modelos bayesianos y aprendizaje “clásico”
10.7.2. Superficies implícitas con procesos gaussianos (GPIS)
10.7.3. Segmentación 3D usando GPIS
10.7.4. Redes neuronales para el modelado de superficies 3D
10.8. Aplicaciones End-to-End de las Redes Neuronales Profundas
10.8.1. Sistema End-to-End. Ejemplo de identificación de personas
10.8.2. Manipulación de objetos con sensores visuales
10.8.3. Generación de movimientos y planificación con sensores visuales
10.9. Tecnologías en la nube para acelerar el desarrollo de algoritmos de Deep Learning
10.9.1. Uso de GPU para el Deep Learning
10.9.2. Desarrollo ágil con Google IColab
10.9.3. GPUs remotas, Google Cloud y AWS
10.10. Despliegue de Redes Neuronales en aplicaciones reales
10.10.1. Sistemas embebidos
10.10.2. Despliegue de Redes Neuronales. Uso
10.10.3. Optimizaciones de redes en el despliegue, ejemplo con TensorRT
Módulo 11. SLAM visual. Localización de robots y mapeo simultáneo Mediante Técnicas de Visión Artificial
11.1. Localización y mapeo simultáneo (SLAM)
11.1.1. Localización y mapeo simultáneo. SLAM
11.1.2. Aplicaciones del SLAM
11.1.3. Funcionamiento del SLAM
11.2. Geometría proyectiva
11.2.1. Modelo Pin-Hole
11.2.2. Estimación de parámetros intrínsecos de una cámara
11.2.3. Homografía, principios básicos y estimación
11.2.4. Matriz fundamental, principios y estimación
11.3. Filtros Gaussianos
11.3.1. Filtro de Kalman
11.3.2. Filtro de información
11.3.3. Ajuste y parametrización de filtros Gaussianos
11.4. Estéreo EKF-SLAM
11.4.1. Geometría de cámara estéreo
11.4.2. Extracción y búsqueda de características
11.4.3. Filtro de Kalman para SLAM estéreo
11.4.4. Ajuste de Parámetros de EKF-SLAM estéreo
11.5. Monocular EKF-SLAM
11.5.1. Parametrización de Landmarks en EKF-SLAM
11.5.2. Filtro de Kalman para SLAM monocular
11.5.3. Ajuste de parámetros EKF-SLAM monocular
11.6. Detección de cierres de bucle
11.6.1. Algoritmo de fuerza bruta
11.6.2. FABMAP
11.6.3. Abstracción mediante GIST y HOG
11.6.4. Detección mediante aprendizaje profundo
11.7. Graph-SLAM
11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM
11.8. Direct Visual SLAM
11.8.1. Análisis del algoritmo Direct Visual SLAM
11.8.2. LSD-SLAM
11.8.3. SVO
11.9. Visual Inertial SLAM
11.9.1. Integración de medidas inerciales
11.9.2. Bajo acoplamiento: SOFT-SLAM
11.9.3. Alto acoplamiento: Vins-Mono
11.10. Otras tecnologías de SLAM
11.10.1. Aplicaciones más allá del SLAM visual
11.10.2. Lidar-SLAM
11.10.3. Range-only SLAM
Módulo 12. Aplicación a la Robótica de las Tecnologías de Realidad Virtual y Aumentada
12.1. Tecnologías inmersivas en la Robótica
12.1.1. Realidad Virtual en Robótica
12.1.2. Realidad Aumentada en Robótica
12.1.3. Realidad Mixta en Robótica
12.1.4. Diferencia entre realidades
12.2. Construcción de entornos virtuales
12.2.1. Materiales y texturas
12.2.2. Iluminación
12.2.3. Sonido y olor virtual
12.3. Modelado de robots en entornos virtuales
12.3.1. Modelado geométrico
12.3.2. Modelado físico
12.3.3. Estandarización de modelos
12.4. Modelado de dinámica y cinemática de los robots: motores físicos virtuales
12.4.1. Motores físicos. Tipología
12.4.2. Configuración de un motor físico
12.4.3. Motores físicos en la industria
12.5. Plataformas, periféricos y herramientas más usadas en el Realidad Virtual
12.5.1. Visores de Realidad Virtual
12.5.2. Periféricos de interacción
12.5.3. Sensores virtuales
12.6. Sistemas de Realidad Aumentada
12.6.1. Inserción de elementos virtuales en la realidad
12.6.2. Tipos de marcadores visuales
12.6.3. Tecnologías de Realidad Aumentada
12.7. Metaverso: entornos virtuales de agentes inteligentes y personas
12.7.1. Creación de avatares
12.7.2. Agentes inteligentes en entornos virtuales
12.7.3. Construcción de entornos multiusuarios para VR/AR
12.8. Creación de proyectos de Realidad Virtual para Robótica
12.8.1. Fases de desarrollo de un proyecto de Realidad Virtual
12.8.2. Despliegue de sistemas de Realidad Virtual
12.8.3. Recursos de Realidad Virtual
12.9. Creación de proyectos de Realidad Aumentada para Robótica
12.9.1. Fases de desarrollo de un proyecto de Realidad Aumentada
12.9.2. Despliegue de proyectos de Realidad Aumentada
12.9.3. Recursos de Realidad Aumentada
12.10. Teleoperación de robots con dispositivos móviles
12.10.1. Realidad mixta en móviles
12.10.2. Sistemas inmersivos mediante sensores de dispositivos móviles
12.10.3. Ejemplos de proyectos móviles
Módulo 13. Sistemas de comunicación e interacción con robots
13.1. Reconocimiento de habla: sistemas estocásticos
13.1.1. Modelado acústico del habla
13.1.2. Modelos ocultos de Markov
13.1.3. Modelado lingüístico del habla: N-Gramas, gramáticas BNF
13.2. Reconocimiento de habla: Deep Learning
13.2.1. Redes neuronales profundas
13.2.2. Redes neuronales recurrentes
13.2.3. Células LSTM
13.3. Reconocimiento de habla: prosodia y efectos ambientales
13.3.1. Ruido ambiente
13.3.2. Reconocimiento multilocutor
13.3.3. Patologías en el habla
13.4. Comprensión del lenguaje natural: sistemas heurísticos y probabilísticos
13.4.1. Análisis sintáctico-semántico: reglas lingüísticas
13.4.2. Comprensión basada en reglas heurísticas
13.4.3. Sistemas probabilísticos: regresión logística y SVM
13.4.4. Comprensión basada en redes neuronales
13.5. Gestión de diálogo: estrategias heurístico/probabilísticas
13.5.1. Intención del interlocutor
13.5.2. Diálogo basado en plantillas
13.5.3. Gestión de diálogo estocástica: redes bayesianas
13.6. Gestión de diálogo: estrategias avanzadas
13.6.1. Sistemas de aprendizaje basado en refuerzo
13.6.2. Sistemas basados en redes neuronales
13.6.3. Del habla a la intención en una única red
13.7. Generación de respuesta y síntesis de habla
13.7.1. Generación de respuesta: de la idea al texto coherente
13.7.2. Síntesis de habla por concatenación
13.7.3. Síntesis de habla estocástica
13.8. Adaptación y contextualización del diálogo
13.8.1. Iniciativa de diálogo
13.8.2. Adaptación al locutor
13.8.3. Adaptación al contexto del diálogo
13.9. Robots e interacciones sociales: reconocimiento, síntesis y expresión de emociones
13.9.1. Paradigmas de voz artificial: voz robótica y voz natural
13.9.2. Reconocimiento de emociones y análisis de sentimiento
13.9.3. Síntesis de voz emocional
13.10. Robots e interacciones sociales: interfaces multimodales avanzadas
13.10.1. Combinación de interfaces vocales y táctiles
13.10.2. Reconocimiento y traducción de lengua de signos
13.10.3. Avatares visuales: traducción de voz a lengua de signos
Módulo 14. Procesado digital de imágenes
14.1. Entorno de desarrollo en visión por computador
14.1.1. Librerías de visión por computador
14.1.2. Entorno de programación
14.1.3. Herramientas de visualización
14.2. Procesamiento digital de imágenes
14.2.1. Relaciones entre pixeles
14.2.2. Operaciones con imágenes
14.2.3. Transformaciones geométricas
14.3. Operaciones de pixeles
14.3.1. Histograma
14.3.2. Transformaciones a partir de histograma
14.3.3. Operaciones en imágenes en color
14.4. Operaciones lógicas y aritméticas
14.4.1. Suma y resta
14.4.2. Producto y división
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor
14.5. Filtros
14.5.1. Máscaras y convolución
14.5.2. Filtrado lineal
14.5.3. Filtrado no lineal
14.5.4. Análisis de Fourier
14.6. Operaciones morfológicas
14.6.1. Erode and Dilating
14.6.2. Closing and Open
14.6.3. Top hat y Black hat
14.6.4. Detección de contornos
14.6.5. Esqueleto
14.6.6. Relleno de agujeros
14.6.7. Convex hull
14.7. Herramientas de análisis de imágenes
14.7.1. Detección de bordes
14.7.2. Detección de blobs
14.7.3. Control dimensional
14.7.4. Inspección de color
14.8. Segmentación de objetos
14.8.1. Segmentación de imágenes
14.8.2. Técnicas de segmentación clásicas
14.8.3. Aplicaciones reales
14.9. Calibración de imágenes
14.9.1. Calibración de imagen
14.9.2. Métodos de calibración
14.9.3. Proceso de calibración en un sistema cámara 2D/robot
14.10. Procesado de imágenes en entorno real
14.10.1. Análisis de la problemática
14.10.2. Tratamiento de la imagen
14.10.3. Extracción de características
14.10.4. Resultados finales
Módulo 15. Procesado digital de imágenes avanzado
15.1. Reconocimiento óptico de caracteres (OCR)
15.1.1. Preprocesado de la imagen
15.1.2. Detección de texto
15.1.3. Reconocimiento de texto
15.2. Lectura de códigos
15.2.1. Códigos 1D
15.2.2. Códigos 2D
15.2.3. Aplicaciones
15.3. Búsqueda de patrones
15.3.1. Búsqueda de patrones
15.3.2. Patrones basados en nivel de gris
15.3.3. Patrones basados en contornos
15.3.4. Patrones basados en formas geométricas
15.3.5. Otras técnicas
15.4. Seguimiento de objetos con visión convencional
15.4.1. Extracción de fondo
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Optical flow
15.5. Reconocimiento facial
15.5.1. Facial Landmark detection
15.5.2. Aplicaciones
15.5.3. Reconocimiento facial
15.5.4. Reconocimiento de emociones
15.6. Panorámica y alineaciones
15.6.1. Stitching
15.6.2. Composición de imágenes
15.6.3. Fotomontaje
15.7. High Dinamic Range (HDR) and Photometric Stereo
15.7.1. Incremento del rango dinámico
15.7.2. Composición de imágenes para mejorar contornos
15.7.3. Técnicas para el uso de aplicaciones en dinámico
15.8. Compresión de imágenes
15.8.1. La compresión de imágenes
15.8.2. Tipos de compresores
15.8.3. Técnicas de compresión de imágenes
15.9. Procesado de video
15.9.1. Secuencias de imágenes
15.9.2. Formatos y códecs de video
15.9.3. Lectura de un video
15.9.4. Procesado del fotograma
15.10. Aplicación real de procesado de imágenes
15.10.1. Análisis de la problemática
15.10.2. Tratamiento de la imagen
15.10.3. Extracción de características
15.10.4. Resultados finales
Módulo 16. Procesado de imágenes 3D
16.1. Imagen 3D
16.1.1. Imagen 3D
16.1.2. Software de procesado de imágenes 3D y visualizaciones
16.1.3. Software de metrología
16.2. Open 3D
16.2.1. Librería para proceso de datos 3D
16.2.2. Características
16.2.3. Instalación y uso
16.3. Los datos
16.3.1. Mapas de profundidad en imagen 2D
16.3.2. Pointclouds
16.3.3. Normales
16.3.4. Superficies
16.4. Visualización
16.4.1. Visualización de datos
16.4.2. Controles
16.4.3. Visualización Web
16.5. Filtros
16.5.1. Distancia entre puntos, eliminar outliers
16.5.2. Filtro paso alto
16.5.3. Downsampling
16.6. Geometría y extracción de características
16.6.1. Extracción de un perfil
16.6.2. Medición de profundidad
16.6.3. Volumen
16.6.4. Formas geométricas 3D
16.6.5. Planos
16.6.6. Proyección de un punto
16.6.7. Distancias geométricas
16.6.8. Kd Tree
16.6.9. Features 3D
16.7. Registro y Meshing
16.7.1. Concatenación
16.7.2. ICP
16.7.3. Ransac 3D
16.8. Reconocimiento de objetos 3D
16.8.1. Búsqueda de un objeto en la escena 3D
16.8.2. Segmentación
16.8.3. Bin picking
16.9. Análisis de superficies
16.9.1. Smoothing
16.9.2. Superficies orientables
16.9.3. Octree
16.10. Triangulación
16.10.1. De Mesh a Point Cloud
16.10.2. Triangulación de mapas de profundidad
16.10.3. Triangulación de PointClouds no ordenados
Módulo 17. Redes convolucionales y clasificación de imágenes
17.1. Redes neuronales convolucionales
17.1.1. Introducción
17.1.2. La convolución
17.1.3. CNN Building Blocks
17.2. Tipos de capas CNN
17.2.1. Convolutional
17.2.2. Activation
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected
17.3. Métricas
17.3.1. Confusion Matrix
17.3.2. Accuracy
17.3.3. Precisión
17.3.4. Recall
17.3.5. F1 Score
17.3.6. ROC Curve
17.3.7. AUC
17.4. Principales Arquitecturas
17.4.1. AlexNet
17.4.2. VGG
17.4.3. Resnet
17.4.4. GoogleLeNet
17.5. Clasificación de imágenes
17.5.1. Introducción
17.5.2. Análisis de los datos
17.5.3. Preparación de los datos
17.5.4. Entrenamiento del modelo
17.5.5. Validación del modelo
17.6. Consideraciones prácticas para el entrenamiento de CNN
17.6.1. Selección de optimizador
17.6.2. Learning Rate Scheduler
17.6.3. Comprobar pipeline de entrenamiento
17.6.4. Entrenamiento con regularización
17.7. Buenas prácticas en Deep Learning
17.7.1. Transfer Learning
17.7.2. Fine Tuning
17.7.3. Data Augmentation
17.8. Evaluación estadística de datos
17.8.1. Número de datasets
17.8.2. Número de etiquetas
17.8.3. Número de imágenes
17.8.4. Balanceo de datos
17.9. Deployment
17.9.1. Guardando y cargando modelos
17.9.2. Onnx
17.9.3. Inferencia
17.10. Caso práctico: clasificación de imágenes
17.10.1. Análisis y preparación de los datos
17.10.2. Testeo del pipeline de entrenamiento
17.10.3. Entrenamiento del modelo
17.10.4. Validación del modelo
Módulo 18. Detección de objetos
18.1. Detección y seguimiento de objetos
18.1.1. Detección de objetos
18.1.2. Casos de uso
18.1.3. Seguimiento de objetos
18.1.4. Casos de uso
18.1.5. Oclusiones, Rigid and No Rigid Poses
18.2. Métricas de evaluación
18.2.1. IOU - Intersection Over Union
18.2.2. Confidence Score
18.2.3. Recall
18.2.4. Precisión
18.2.5. Recall–Precisión Curve
18.2.6. Mean Average Precision (mAP)
18.3. Métodos tradicionales
18.3.1. Sliding window
18.3.2. Viola detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)
18.4. Datasets
18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge
18.5. Two Shot Object Detector
18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN
18.6. Single Shot Object Detector
18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet
18.7. Backbones
18.7.1. VGG
18.7.2. ResNet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet
18.8. Object Tracking
18.8.1. Enfoques clásicos
18.8.2. Filtros de partículas
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort
18.9. Despliegue
18.9.1. Plataforma de computación
18.9.2. Elección del Backbone
18.9.3. Elección del Framework
18.9.4. Optimización de modelos
18.9.5. Versionado de Modelos
18.10. Estudio: detección y seguimiento de personas
18.10.1. Detección de personas
18.10.2. Seguimiento de personas
18.10.3. Reidentificación
18.10.4. Conteo de personas en multitudes
Módulo 19. Detección de objetos
19.1. Detección de objetos y segmentación
19.1.1. Segmentación semántica
19.1.1.1. Casos de uso de segmentación semántica
19.1.2. Segmentación Instanciada
19.1.2.1. Casos de uso segmentación instanciada
19.2. Métricas de evaluación
19.2.1. Similitudes con otros métodos
19.2.2. Pixel Accuracy
19.2.3. Dice Coefficient (F1 Score)
19.3. Funciones de coste
19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Otras funciones
19.4. Métodos tradicionales de segmentación
19.4.1. Aplicación de umbral con Otsu y Riddlen
19.4.2. Mapas auto organizados
19.4.3. GMM-EM algorithm
19.5. Segmentación Semántica aplicando Deep Learning: FCN
19.5.1. FCN
19.5.2. Arquitectura
19.5.3. Aplicaciones de FCN
19.6. Segmentación semántica aplicando Deep Learning : U-NET
19.6.1. U-NET
19.6.2. Arquitectura
19.6.3. Aplicación U-NET
19.7. Segmentación semántica aplicando Deep Learning: Deep Lab
19.7.1. Deep Lab
19.7.2. Arquitectura
19.7.3. Aplicación de Deep Lab
19.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN
19.8.1. Mask RCNN
19.8.2. Arquitectura
19.8.3. Aplicación de un Mas RCNN
19.9. Segmentación en videos
19.9.1. STFCN
19.9.2. Semantic Video CNNs
19.9.3. Clockwork Convnets
19.9.4. Low-Latency
19.10. Segmentación en nubes de puntos
19.10.1. La nube de puntos
19.10.2. PointNet
19.10.3. A-CNN
Módulo 20. Segmentación de imágenes avanzadas y técnicas avanzadas de visión por computador
20.1. Base de datos para problemas de segmentación general
20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset
20.2. Segmentación semántica en la medicina
20.2.1. Segmentación semántica en la medicina
20.2.2. Datasets para problemas médicos
20.2.3. Aplicación práctica
20.3. Herramientas de anotación
20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Otras herramientas
20.4. Herramientas de Segmentación usando diferentes Frameworks
20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Otros
20.5. Proyecto Segmentación semántica. Los datos, fase 1
20.5.1. Análisis del problema
20.5.2. Fuente de entrada para datos
20.5.3. Análisis de datos
20.5.4. Preparación de datos
20.6. Proyecto Segmentación semántica. Entrenamiento, fase 2
20.6.1. Selección del algoritmo
20.6.2. Entrenamiento
20.6.3. Evaluación
20.7. Proyecto Segmentación semántica. Resultados, fase 3
20.7.1. Ajuste fino
20.7.2. Presentación de la solución
20.7.3. Conclusiones
20.8. Autocodificadores
20.8.1. Autocodificadores
20.8.2. Arquitectura de un autocodificador
20.8.3. Autocodificadores de eliminación de ruido
20.8.4. Autocodificador de coloración automática
20.9. Las Redes Generativas Adversariales (GAN)
20.9.1. Redes Generativas Adversariales (GAN)
20.9.2. Arquitectura DCGAN
20.9.3. Arquitectura GAN Condicionada
20.10. Redes generativas adversariales mejoradas
20.10.1. Visión general del problema
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN
Diferénciate del resto de tus competidores al adquirir habilidades especializadas en un campo con un gran potencial de crecimiento"
Grand Master en Robótica y Visión Artificial. Facultad de Ingeniería
La robótica y la visión artificial son dos disciplinas que han revolucionado la forma en que interactuamos con la tecnología y han transformado la industria en diversos sectores. En TECH Universidad, en colaboración con la Facultad de Ingeniería, hemos desarrollado un posgrado de Grand Master en Robótica y Visión Artificial para brindar a los profesionales una Capacitación Práctica virtual especializada en estas áreas de alta demanda en el mercado tecnológico actual. Gracias a una metodología innovadora que mezcla clases virtuales y el método Relearning, serás capaz de adquirir competencias sólidas en un entorno inmersivo y flexible que se adapta fácilmente a tu rutina
En este posgrado online, los participantes adquirirán conocimientos avanzados en robótica y visión artificial, desde los fundamentos teóricos hasta las aplicaciones prácticas en el diseño y desarrollo de sistemas robóticos inteligentes. Nuestro enfoque interdisciplinario permite a los participantes comprender los conceptos clave de la robótica y la visión artificial, así como aplicar técnicas y herramientas avanzadas en la resolución de problemas reales en distintos contextos. Además, contarán con la guía de un cuerpo docente especializado, con amplia experiencia en la investigación y aplicación de la robótica y visión artificial en la industria y la academia.