Presentación

Desarrolla habilidades esenciales en Robótica y Visión Artificial inscribiéndote ahora en este Grand Master de Formación Permanente de TECH”

##IMAGE##

El auge de la Inteligencia Artificial y la Robótica está transformando el panorama tecnológico, económico y social en todo el mundo. La especialización en áreas como la Visión Artificial se ha vuelto crucial para mantenerse a la vanguardia en esta era de rápidos avances y cambios disruptivos. La creciente interacción entre máquinas y humanos, así como la necesidad de procesar información visual de manera eficiente, exigen profesionales altamente capacitados que puedan abordar estos desafíos y liderar la innovación.

El Grand Master de Formación Permanente en Robótica y Visión Artificial ofrece una capacitación integral en estas disciplinas emergentes, abarcando temáticas como la Realidad Aumentada, Inteligencia Artificial y procesamiento de información visual en máquinas, entre otros. Los estudiantes se beneficiarán de un enfoque teórico-práctico, aprendiendo sobre las últimas novedades en Robótica y Visión Artificial y cómo aplicar estos conocimientos en entornos reales.

Además, el programa es 100% online, lo que permite a los estudiantes adaptar su aprendizaje a sus circunstancias personales y profesionales, facilitando la compatibilidad de su enseñanza con sus propias responsabilidades. Los alumnos tendrán acceso a materiales educativos de alta calidad, como video resúmenes, lecturas esenciales y vídeos en detalle, proporcionándoles una visión global sobre Robótica y Visión Artificial.

Así, el Grand Master de Formación Permanente en Robótica y Visión Artificial es una oportunidad única para los informáticos que buscan diferenciarse en un mercado laboral altamente competitivo y adquirir habilidades especializadas en un campo con un gran potencial de crecimiento. 

Asimismo, el programa incluye la participación de un Director Invitado Internacional, cuya experiencia profesional es ampliamente reconocida a nivel mundial. Dirigirá 10 Masterclasses centradas en el sector de la Informática y la Robótica.

Refuerza tus conocimientos profesionales con la participación de un Director Invitado Internacional, quien impartirá 10 Masterclasses de alta calidad”

Este Grand Master de Formación Permanente en Robótica y Visión Artificial contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:

  • El desarrollo de casos prácticos presentados por expertos en Informática
  • Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que están concebidos recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional
  • Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje
  • Su especial hincapié en metodologías innovadoras en el desarrollo de Robots y Visión Artificial
  • Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual
  • La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet

Descubre cómo la tecnología robótica puede ser aplicada en campos diversos como medicina y exploración espacial, reforzando considerablemente tu propuesta de valor”

Incluye en su cuadro docente a profesionales pertenecientes al ámbito del periodismo, que vierten en este programa la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio.

Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará un estudio inmersivo programado para entrenarse ante situaciones reales.

El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el alumno deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, el profesional contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.

Potencia tus proyectos explorando la aplicación de la inteligencia artificial y el aprendizaje automático en la robótica"

##IMAGE##

Fortalece tus habilidades en algoritmos de planificación y control para el desarrollo de robots inteligentes y eficientes"

Temario

El Grand Master de Formación Permanente en Robótica y Visión Artificial está diseñado con una estructura y contenido que garantizan una capacitación integral y especializada en el campo. El programa se desarrolla a lo largo de varios módulos, comenzando con conceptos básicos y avanzando progresivamente hacia temáticas más complejas y específicas. Los alumnos tendrán la oportunidad de aprender sobre el diseño, programación y control de robots, así como sobre algoritmos de visión artificial y técnicas de aprendizaje automático.

##IMAGE##

Potencia tu aprendizaje a través de un enfoque práctico y teórico, que te permitirá enfrentarte a retos reales en el mundo de la robótica”

Módulo 1. Robótica. Diseño y modelado de robots

1.1. Robótica e Industria 4.0

1.1.1. Robótica e Industria 4.0
1.1.2. Campos de aplicación y casos de uso
1.1.3. Subáreas de especialización en Robótica

1.2. Arquitecturas hardware y software de robots

1.2.1. Arquitecturas hardware y tiempo real
1.2.2. Arquitecturas software de robots
1.2.3. Modelos de comunicación y tecnologías Middleware
1.2.4. Integración de Software con Robot Operating System (ROS)

1.3. Modelado matemático de robots

1.3.1. Representación matemática de sólidos rígidos
1.3.2. Rotaciones y traslaciones
1.3.3. Representación jerárquica del estado
1.3.4. Representación distribuida del estado en ROS (Librería TF)

1.4. Cinemática y dinámica de robots

1.4.1. Cinemática
1.4.2. Dinámica
1.4.3. Robots subactuados
1.4.4. Robots redundantes

1.5. Modelado de robots y simulación

1.5.1. Tecnologías de modelado de robots
1.5.2. Modelado de robots con URDF
1.5.3. Simulación de robots
1.5.4. Modelado con simulador Gazebo

1.6. Robots manipuladores

1.6.1. Tipos de robots manipuladores
1.6.2. Cinemática
1.6.3. Dinámica
1.6.4. Simulación

1.7. Robots móviles terrestres

1.7.1. Tipos de robots móviles terrestres
1.7.2. Cinemática
1.7.3. Dinámica
1.7.4. Simulación

1.8. Robots móviles aéreos

1.8.1. Tipos de robots móviles aéreos
1.8.2. Cinemática
1.8.3. Dinámica
1.8.4. Simulación

1.9. Robots móviles acuáticos

1.9.1. Tipos de robots móviles acuáticos
1.9.2. Cinemática
1.9.3. Dinámica
1.9.4. Simulación

1.10. Robots bioinspirados

1.10.1. Humanoides
1.10.2. Robots con cuatro o más piernas
1.10.3. Robots modulares
1.10.4. Robots con partes flexibles (Soft-Robotics)

Módulo 2. Agentes inteligentes. Aplicación de la Inteligencia Artificial a robots y Softbots

2.1. Agentes Inteligentes e Inteligencia Artificial

2.1.1. Robots Inteligentes. Inteligencia Artificial
2.1.2. Agentes Inteligentes

2.1.2.1. Agentes hardware. Robots
2.1.2.2. Agentes software. Softbots

2.1.3. Aplicaciones a la Robótica

2.2. Conexión Cerebro-Algoritmo

2.2.1. Inspiración biológica de la Inteligencia Artificial
2.2.2. Razonamiento implementado en algoritmos. Tipología
2.2.3. Explicabilidad de los resultados en los algoritmos de Inteligencia Artificial
2.2.4. Evolución de los algoritmos hasta Deep Learning

2.3. Algoritmos de búsqueda en el espacio de soluciones

2.3.1. Elementos en la búsqueda en el espacio de soluciones
2.3.2. Algoritmos de búsqueda de soluciones en problemas de Inteligencia Artificial
2.3.3. Aplicaciones de algoritmos de búsqueda y optimización
2.3.4. Algoritmos de búsqueda aplicados a Aprendizaje Automático

2.4. Aprendizaje Automático

2.4.1. Aprendizaje automático
2.4.2. Algoritmos de Aprendizaje Supervisado
2.4.3. Algoritmos de Aprendizaje No Supervisado
2.4.4. Algoritmos de Aprendizaje por Refuerzo

2.5. Aprendizaje Supervisado

2.5.1. Métodos de Aprendizaje Supervisado
2.5.2. Árboles de decisión para clasificación
2.5.3. Máquinas de soporte de vectores
2.5.4. Redes neuronales artificiales
2.5.5. Aplicaciones del Aprendizaje Supervisado

2.6. Aprendizaje No supervisado

2.6.1. Aprendizaje No Supervisado
2.6.2. Redes de Kohonen
2.6.3. Mapas autoorganizativos
2.6.4. Algoritmo K-medias

2.7. Aprendizaje por Refuerzo

2.7.1. Aprendizaje por Refuerzo
2.7.2. Agentes basados en procesos de Markov
2.7.3. Algoritmos de Aprendizaje por Refuerzo
2.7.4. Aprendizaje por Refuerzo aplicado a Robótica

2.8. Inferencia probabilística

2.8.1. Inferencia probabilística
2.8.2. Tipos de inferencia y definición del método
2.8.3. Inferencia bayesiana como caso de estudio
2.8.4. Técnicas de inferencia no paramétricas
2.8.5. Filtros Gaussianos

2.9. De la teoría a la práctica: desarrollando un agente inteligente robótico

2.9.1. Inclusión de módulos de Aprendizaje Supervisado en un agente robótico
2.9.2. Inclusión de módulos de Aprendizaje por Refuerzo en un agente robótico
2.9.3. Arquitectura de un agente robótico controlado por Inteligencia Artificial
2.9.4. Herramientas profesionales para la implementación del agente inteligente
2.9.5. Fases de la implementación de algoritmos de IA en agentes robóticos

Módulo 3. Deep Learning

3.1. Inteligencia artificial

3.1.1. Machine Learning
3.1.2. Deep Learning
3.1.3. La explosión del Deep Learning. ¿Por qué ahora?

3.2. Redes neuronales

3.2.1. La red neuronal
3.2.2. Usos de las redes neuronales
3.2.3. Regresión lineal y perceptrón
3.2.4. Forward Propagation
3.2.5. Backpropagation
3.2.6. Feature vectors

3.3. Loss Functions

3.3.1. Loss Functions
3.3.2. Tipos de Loss Functions
3.3.3. Elección de la Loss Functions

3.4. Funciones de activación

3.4.1. Función de activación
3.4.2. Funciones lineales
3.4.3. Funciones no lineales
3.4.4. Output vs. Hidden Layer Activation Functions

3.5. Regularización y normalización

3.5.1. Regularización y normalización
3.5.2. Overfitting and Data Augmentation
3.5.3. Regularization Methods: L1, L2 and Dropout
3.5.4. Normalization Methods: Batch, Weight, Layer

3.6. Optimización

3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam

3.7. Hyperparameter Tuning y pesos

3.7.1. Los hiperparámetros
3.7.2. Batch Size vs. Learning Rate vs. Step Decay
3.7.3. Pesos

3.8. Métricas de evaluación de una red neuronal

3.8.1. Accuracy
3.8.2. Dice Coefficient
3.8.3. Sensitivity vs. Specificity/Recall vs. Precision
3.8.4. Curva ROC (AUC)
3.8.5. F1-score
3.8.6. Confusión Matrix
3.8.7. Cross-Validation

3.9. Frameworks y Hardware

3.9.1. Tensor Flow
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware para la fase de entrenamiento

3.10. Creación de una red neuronal–entrenamiento y validación

3.10.1. Dataset
3.10.2. Construcción de la red
3.10.3. Entrenamiento
3.10.4. Visualización de resultados

Módulo 4. La Robótica en la automatización de procesos industriales

4.1. Diseño de sistemas automatizados

4.1.1. Arquitecturas hardware
4.1.2. Controladores lógicos programables
4.1.3. Redes de comunicación industriales

4.2. Diseño eléctrico avanzado I: automatización

4.2.1. Diseño de cuadros eléctricos y simbología
4.2.2. Circuitos de potencia y de control. Armónicos
4.2.3. Elementos de protección y puesta a tierra

4.3. Diseño eléctrico avanzado II: determinismo y seguridad

4.3.1. Seguridad de máquina y redundancia
4.3.2. Relés de seguridad y disparadores
4.3.3. PLCs de seguridad
4.3.4. Redes seguras

4.4. Actuación eléctrica

4.4.1. Motores y servomotores
4.4.2. Variadores de frecuencia y controladores
4.4.3. Robótica industrial de actuación eléctrica

4.5. Actuación hidráulica y neumática

4.5.1. Diseño hidráulico y simbología
4.5.2. Diseño neumático y simbología
4.5.3. Entornos ATEX en la automatización

4.6. Transductores en la Robótica y automatización

4.6.1. Medida de la posición y velocidad
4.6.2. Medida de la fuerza y temperatura
4.6.3. Medida de la presencia
4.6.4. Sensores para visión

4.7. Programación y configuración de controladores programables lógicos PLCs

4.7.1. Programación PLC: LD
4.7.2. Programación PLC: ST
4.7.3. Programación PLC: FBD y CFC
4.7.4. Programación PLC: SFC

4.8. Programación y configuración de equipos en plantas industriales

4.8.1. Programación de variadores y controladores
4.8.2. Programación de HMI
4.8.3. Programación de robots manipuladores

4.9. Programación y configuración de equipos informáticos industriales

4.9.1. Programación de sistemas de visión
4.9.2. Programación de SCADA/software
4.9.3. Configuración de redes

4.10. Implementación de automatismos

4.10.1. Diseño de máquinas de estado
4.10.2. Implementación de máquinas de estado en PLCs
4.10.3. Implementación de sistemas de control analógico PID en PLCs
4.10.4. Mantenimiento de automatismos e higiene de código
4.10.5. Simulación de automatismos y plantas

Módulo 5. Sistemas de control automático en Robótica

5.1. Análisis y diseño de sistemas no lineales

5.1.1. Análisis y modelado de sistemas no lineales
5.1.2. Control con realimentación
5.1.3. Linealización por realimentación

5.2. Diseño de técnicas de control para sistemas no lineales avanzados

5.2.1. Control en modo deslizante (Sliding Mode control)
5.2.2. Control basado en Lyapunov y Backstepping
5.2.3. Control basado en pasividad

5.3. Arquitecturas de control

5.3.1. El paradigma de la Robótica
5.3.2. Arquitecturas de control
5.3.3. Aplicaciones y ejemplos de arquitecturas de control

5.4. Control de movimiento para brazos robóticos

5.4.1. Modelado cinemático y dinámico
5.4.2. Control en el espacio de las articulaciones
5.4.3. Control en el espacio operacional

5.5. Control de fuerza en los actuadores

5.5.1. Control de fuerza
5.5.2. Control de impedancia
5.5.3. Control híbrido

5.6. Robots móviles terrestres

5.6.1. Ecuaciones de movimiento
5.6.2. Técnicas de control en robots terrestres
5.6.3. Manipuladores móviles

5.7. Robots móviles aéreos

5.7.1. Ecuaciones de movimiento
5.7.2. Técnicas de control en robots aéreos
5.7.3. Manipulación aérea

5.8. Control basado en técnicas de Aprendizaje Automático

5.8.1. Control mediante Aprendizaje Supervisado
5.8.2. Control mediante aprendizaje reforzado
5.8.3. Control mediante Aprendizaje No Supervisado

5.9. Control basado en visión

5.9.1. Visual Servoing basado en posición
5.9.2. Visual Servoing basado en imagen
5.9.3. Visual Servoing híbrido

5.10. Control predictivo

5.10.1. Modelos y estimación de estado
5.10.2. MPC aplicado a Robots Móviles
5.10.3. MPC aplicado a UAVs

Módulo 6. Algoritmos de planificación en robots

6.1. Algoritmos de planificación clásicos

6.1.1. Planificación discreta: espacio de estados
6.1.2. Problemas de planificación en Robótica. Modelos de sistemas robóticos
6.1.3. Clasificación de planificadores

6.2. El problema de planificación de trayectorias en robots móviles

6.2.1. Formas de representación del entorno: grafos
6.2.2. Algoritmos de búsqueda en grafos
6.2.3. Introducción de costes en los grafos
6.2.4. Algoritmos de búsqueda en grafos pesados
6.2.5. Algoritmos con enfoque de cualquier ángulo

6.3. Planificación en sistemas robóticos de alta dimensionalidad

6.3.1. Problemas de Robótica de alta dimensionalidad: manipuladores
6.3.2. Modelo cinemático directo/inverso
6.3.3. Algoritmos de planificación por muestreo PRM y RRT
6.3.4. Planificando ante restricciones dinámicas

6.4. Planificación por muestreo óptimo

6.4.1. Problemática de los planificadores basados en muestreo
6.4.2. RRT* concepto de optimalidad probabilística
6.4.3. Paso de reconectado: restricciones dinámicas
6.4.4. CForest. Paralelizando la planificación

6.5. Implementación real de un sistema de planificación de movimientos

6.5.1. Problema de planificación global. Entornos dinámicos
6.5.2. Ciclo de acción, sensorización. Adquisición de información del entorno
6.5.3. Planificación local y global

6.6. Coordinación en sistemas multirobot I: sistema centralizado

6.6.1. Problema de coordinación multirobot
6.6.2. Detección y resolución de colisiones: modificación de trayectorias con Algoritmos Genéticos
6.6.3. Otros algoritmos bio-inspirados: enjambre de partículas y fuegos de artificio
6.6.4. Algoritmo de evitación de colisiones por elección de maniobra

6.7. Coordinación en sistemas multirobot II: enfoques distribuidos I

6.7.1. Uso de funciones de objetivo complejas
6.7.2. Frente de Pareto
6.7.3. Algoritmos evolutivos multiobjetivo

6.8. Coordinación en sistemas multirobot III: enfoques distribuidos II

6.8.1. Sistemas de planificación de orden 1
6.8.2. Algoritmo ORCA
6.8.3. Añadido de restricciones cinemáticas y dinámicas en ORCA

6.9. Teoría de planificación por Decisión

6.9.1. Teoría de decisión
6.9.2. Sistemas de decisión secuencial
6.9.3. Sensores y espacios de información
6.9.4. Planificación ante incertidumbre en sensorización y en actuación

6.10. Sistemas de planificación de aprendizaje por refuerzo

6.10.1. Obtención de la recompensa esperada de un sistema
6.10.2. Técnicas de aprendizaje por recompensa media
6.10.3. Aprendizaje por refuerzo inverso

Módulo 7. Visión artificial

7.1. Percepción humana

7.1.1. Sistema visual humano
7.1.2. El color
7.1.3. Frecuencias visibles y no visibles

7.2. Crónica de la Visión Artificial

7.2.1. Principios
7.2.2. Evolución
7.2.3. La importancia de la visión artificial

7.3. Composición de imágenes digitales

7.3.1. La imagen digital
7.3.2. Tipos de imágenes
7.3.3. Espacios de color
7.3.4. RGB
7.3.5. HSV y HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Imagen indexada

7.4. Sistemas de captación de imágenes

7.4.1. Funcionamiento de una cámara digital
7.4.2. La correcta exposición para cada situación
7.4.3. Profundidad de campo
7.4.4. Resolución
7.4.5. Formatos de imagen
7.4.6. Modo HDR
7.4.7. Cámaras de alta resolución
7.4.8. Cámaras de alta velocidad

7.5. Sistemas ópticos

7.5.1. Principios ópticos
7.5.2. Objetivos convencionales
7.5.3. Objetivos telecéntricos
7.5.4. Tipos de autoenfoque
7.5.5. Distancia focal
7.5.6. Profundidad de campo
7.5.7. Distorsión óptica
7.5.8. Calibración de una imagen

7.6. Sistemas de iluminación

7.6.1. Importancia de la iluminación
7.6.2. Respuesta frecuencial
7.6.3. Iluminación led
7.6.4. Iluminación en exteriores
7.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos

7.7. Sistemas captación 3D

7.7.1. Estéreo visión
7.7.2. Triangulación
7.7.3. Luz estructurada
7.7.4. Time of Flight
7.7.5. Lidar

7.8. Multiespectro

7.8.1. Cámaras multiespectrales
7.8.2. Cámaras hiperespectrales

7.9. Espectro cercano no visible

7.9.1. Cámaras IR
7.9.2. Cámaras UV
7.9.3. Convertir de no visible a visible gracias a la iluminación

7.10. Otras bandas del espectro

7.10.1. Rayos X
7.10.2. Teraherzios

Módulo 8. Aplicaciones y estado del arte

8.1. Aplicaciones industriales

8.1.1. Librerías de visión industrial
8.1.2. Cámaras compactas
8.1.3. Sistemas basados en PC
8.1.4. Robótica industrial
8.1.5. Pick and place 2D
8.1.6. Bin picking
8.1.7. Control de calidad
8.1.8. Presencia ausencia de componentes
8.1.9. Control dimensional
8.1.10. Control etiquetaje
8.1.11. Trazabilidad

8.2. Vehículos autónomos

8.2.1. Asistencia al conductor
8.2.2. Conducción autónoma

8.3. Visión artificial para análisis de contenidos

8.3.1. Filtro por contenido
8.3.2. Moderación de contenido visual
8.3.3. Sistemas de seguimiento
8.3.4. Identificación de marcas y logos
8.3.5. Etiquetación y clasificación de videos
8.3.6. Detección de cambios de escena
8.3.7. Extracción de textos o créditos

8.4. Aplicaciones médicas

8.4.1. Detección y localización de enfermedades
8.4.2. Cáncer y análisis de radiografías
8.4.3. Avances en visión artificial dado el Covid-19
8.4.4. Asistencia en el quirófano

8.5. Aplicaciones espaciales

8.5.1. Análisis de imagen por satélite
8.5.2. Visión artificial para el estudio del espacio
8.5.3. Misión a Marte

8.6. Aplicaciones comerciales

8.6.1. Control stock
8.6.2. Videovigilancia, seguridad en casa
8.6.3. Cámaras aparcamiento
8.6.4. Cámaras control población
8.6.5. Cámaras velocidad

8.7. Visión aplicada a la robótica

8.7.1. Drones
8.7.2. AGV
8.7.3. Visión en robots colaborativos
8.7.4. Los ojos de los robots

8.8. Realidad aumentada

8.8.1. Funcionamiento
8.8.2. Dispositivos
8.8.3. Aplicaciones en la industria
8.8.4. Aplicaciones comerciales

8.9. Cloud computing

8.9.1. Plataformas de Cloud Computing
8.9.2. Del Cloud Computing a la producción

8.10. Investigación y astado del arte

8.10.1. La comunidad científica
8.10.2. ¿Qué se está cociendo?
8.10.3. El futuro de la visión artificial

Módulo 9. Técnicas de Visión Artificial en Robótica: procesamiento y análisis de imágenes

9.1. La Visión por Computador

9.1.1. La Visión por Computador
9.1.2. Elementos de un sistema de Visión por Computador
9.1.3. Herramientas matemáticas

9.2. Sensores ópticos para la Robótica

9.2.1. Sensores ópticos pasivos
9.2.2. Sensores ópticos activos
9.2.3. Sensores no ópticos

9.3. Adquisición de imágenes

9.3.1. Representación de imágenes
9.3.2. Espacio de colores
9.3.3. Proceso de digitalización

9.4. Geometría de las imágenes

9.4.1. Modelos de lentes
9.4.2. Modelos de cámaras
9.4.3. Calibración de cámaras

9.5. Herramientas matemáticas

9.5.1. Histograma de una imagen
9.5.2. Convolución
9.5.3. Transformada de Fourier

9.6. Preprocesamiento de imágenes

9.6.1. Análisis de ruido
9.6.2. Suavizado de imágenes
9.6.3. Realce de imágenes

9.7. Segmentación de imágenes

9.7.1. Técnicas basadas en contornos
9.7.2. Técnicas basadas en histograma
9.7.3. Operaciones morfológicas

9.8. Detección de características en la imagen

9.8.1. Detección de puntos de interés
9.8.2. Descriptores de características
9.8.3. Correspondencias entre características

9.9. Sistemas de visión 3D

9.9.1. Percepción 3D
9.9.2. Correspondencia de características entre imágenes
9.9.3. Geometría de múltiples vistas

9.10. Localización basada en Visión Artificial

9.10.1. El problema de la localización de robots
9.10.2. Odometría visual
9.10.3. Fusión sensorial

Módulo 10. Sistemas de percepción visual de robots con aprendizaje automático

10.1. Métodos de Aprendizaje No Supervisados aplicados a la Visión Artificial

10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similarity and matrix decomposition

10.2. Métodos de Aprendizaje Supervisados aplicados a la Visión Artificial

10.2.1. Concepto “Bag of words”
10.2.2. Máquina de soporte de vectores
10.2.3. Latent Dirichlet Allocation
10.2.4. Redes neuronales

10.3. Redes Neuronales Profundas: estructuras, Backbones y Transfer Learning

10.3.1. Capas generadoras de Features

10.3.1.1. VGG
10.3.1.2. Densenet
10.3.1.3. ResNet
10.3.1.4. Inception
10.3.1.5. GoogLeNet

10.3.2. Transfer Learning
10.3.3. Los datos. Preparación para el entrenamiento

10.4. Visión Artificial con Aprendizaje Profundo I: detección y segmentación

10.4.1. YOLO y SSD diferencias y similitudes
10.4.2. Unet
10.4.3. Otras estructuras

10.5. Visión Artificial con aprendizaje profundo II: Generative Adversarial Networks

10.5.1. Superresolución de imágenes usando GAN
10.5.2. Creación de Imágenes realistas
10.5.3. Scene understanding

10.6. Técnicas de aprendizaje para la localización y mapeo en la Robótica Móvil

10.6.1. Detección de cierre de bucle y relocalización
10.6.2. Magic Leap. Super Point y Super Glue
10.6.3. Depth from Monocular

10.7. Inferencia bayesiana y modelado 3D

10.7.1. Modelos bayesianos y aprendizaje “clásico”
10.7.2. Superficies implícitas con procesos gaussianos (GPIS)
10.7.3. Segmentación 3D usando GPIS
10.7.4. Redes neuronales para el modelado de superficies 3D

10.8. Aplicaciones End-to-End de las Redes Neuronales Profundas

10.8.1. Sistema end-to-end. Ejemplo de identificación de personas
10.8.2. Manipulación de objetos con sensores visuales
10.8.3. Generación de movimientos y planificación con sensores visuales

10.9. Tecnologías en la nube para acelerar el desarrollo de algoritmos de Deep Learning

10.9.1. Uso de GPU para el Deep Learning
10.9.2. Desarrollo ágil con Google IColab
10.9.3. GPUs remotas, Google Cloud y AWS

10.10. Despliegue de Redes Neuronales en aplicaciones reales

10.10.1. Sistemas embebidos
10.10.2. Despliegue de Redes Neuronales. Uso
10.10.3. Optimizaciones de redes en el despliegue, ejemplo con TensorRT

Módulo 11. SLAM visual. Localización de robots y mapeo simultáneo Mediante Técnicas de Visión Artificial

11.1. Localización y mapeo simultáneo (SLAM)

11.1.1. Localización y mapeo simultáneo. SLAM
11.1.2. Aplicaciones del SLAM
11.1.3. Funcionamiento del SLAM

11.2. Geometría proyectiva

11.2.1. Modelo Pin-Hole
11.2.2. Estimación de parámetros intrínsecos de una cámara
11.2.3. Homografía, principios básicos y estimación
11.2.4. Matriz fundamental, principios y estimación

11.3. Filtros Gaussianos

11.3.1. Filtro de Kalman
11.3.2. Filtro de información
11.3.3. Ajuste y parametrización de filtros Gaussianos

11.4. Estéreo EKF-SLAM

11.4.1. Geometría de cámara estéreo
11.4.2. Extracción y búsqueda de características
11.4.3. Filtro de Kalman para SLAM estéreo
11.4.4. Ajuste de Parámetros de EKF-SLAM estéreo

11.5. Monocular EKF-SLAM

11.5.1. Parametrización de Landmarks en EKF-SLAM
11.5.2. Filtro de Kalman para SLAM monocular
11.5.3. Ajuste de parámetros EKF-SLAM monocular

11.6. Detección de cierres de bucle

11.6.1. Algoritmo de fuerza bruta
11.6.2. FABMAP
11.6.3. Abstracción mediante GIST y HOG
11.6.4. Detección mediante aprendizaje profundo

11.7. Graph-SLAM

11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM

11.8. Direct Visual SLAM

11.8.1. Análisis del algoritmo Direct Visual SLAM
11.8.2. LSD-SLAM
11.8.3. SVO

11.9. Visual Inertial SLAM

11.9.1. Integración de medidas inerciales
11.9.2. Bajo acoplamiento: SOFT-SLAM
11.9.3. Alto acoplamiento: Vins-Mono

11.10. Otras tecnologías de SLAM

11.10.1. Aplicaciones más allá del SLAM visual
11.10.2. Lidar-SLAM
11.10.3. Range-only SLAM

Módulo 12. Aplicación a la Robótica de las Tecnologías de Realidad Virtual y Aumentada

12.1. Tecnologías inmersivas en la Robótica

12.1.1. Realidad Virtual en Robótica
12.1.2. Realidad Aumentada en Robótica
12.1.3. Realidad Mixta en Robótica
12.1.4. Diferencia entre realidades

12.2. Construcción de entornos virtuales

12.2.1. Materiales y texturas
12.2.2. Iluminación
12.2.3. Sonido y olor virtual

12.3. Modelado de robots en entornos virtuales

12.3.1. Modelado geométrico
12.3.2. Modelado físico
12.3.3. Estandarización de modelos

12.4. Modelado de dinámica y cinemática de los robots: motores físicos virtuales

12.4.1. Motores físicos. Tipología
12.4.2. Configuración de un motor físico
12.4.3. Motores físicos en la industria

12.5. Plataformas, periféricos y herramientas más usadas en el Realidad Virtual

12.5.1. Visores de Realidad Virtual
12.5.2. Periféricos de interacción
12.5.3. Sensores virtuales

12.6. Sistemas de Realidad Aumentada

12.6.1. Inserción de elementos virtuales en la realidad
12.6.2. Tipos de marcadores visuales
12.6.3. Tecnologías de Realidad Aumentada

12.7. Metaverso: entornos virtuales de agentes inteligentes y personas

12.7.1. Creación de avatares
12.7.2. Agentes inteligentes en entornos virtuales
12.7.3. Construcción de entornos multiusuarios para VR/AR

12.8. Creación de proyectos de Realidad Virtual para Robótica

12.8.1. Fases de desarrollo de un proyecto de Realidad Virtual
12.8.2. Despliegue de sistemas de Realidad Virtual
12.8.3. Recursos de Realidad Virtual

12.9. Creación de proyectos de Realidad Aumentada para Robótica

12.9.1. Fases de desarrollo de un proyecto de Realidad Aumentada
12.9.2. Despliegue de proyectos de Realidad Aumentada
12.9.3. Recursos de Realidad Aumentada

12.10. Teleoperación de robots con dispositivos móviles

12.10.1. Realidad mixta en móviles
12.10.2. Sistemas inmersivos mediante sensores de dispositivos móviles
12.10.3. Ejemplos de proyectos móviles

Módulo 13. Sistemas de comunicación e interacción con robots

13.1. Reconocimiento de habla: sistemas estocásticos

13.1.1. Modelado acústico del habla
13.1.2. Modelos ocultos de Markov
13.1.3. Modelado lingüístico del habla: N-Gramas, gramáticas BNF

13.2. Reconocimiento de habla: Deep Learning

13.2.1. Redes neuronales profundas
13.2.2. Redes neuronales recurrentes
13.2.3. Células LSTM

13.3. Reconocimiento de habla: prosodia y efectos ambientales

13.3.1. Ruido ambiente
13.3.2. Reconocimiento multilocutor
13.3.3. Patologías en el habla

13.4. Comprensión del lenguaje natural: sistemas heurísticos y probabilísticos

13.4.1. Análisis sintáctico-semántico: reglas lingüísticas
13.4.2. Comprensión basada en reglas heurísticas
13.4.3. Sistemas probabilísticos: regresión logística y SVM
13.4.4. Comprensión basada en redes neuronales

13.5. Gestión de diálogo: estrategias heurístico/probabilísticas

13.5.1. Intención del interlocutor
13.5.2. Diálogo basado en plantillas
13.5.3. Gestión de diálogo estocástica: redes bayesianas

13.6. Gestión de diálogo: estrategias avanzadas

13.6.1. Sistemas de aprendizaje basado en refuerzo
13.6.2. Sistemas basados en redes neuronales
13.6.3. Del habla a la intención en una única red

13.7. Generación de respuesta y síntesis de habla

13.7.1. Generación de respuesta: de la idea al texto coherente
13.7.2. Síntesis de habla por concatenación
13.7.3. Síntesis de habla estocástica

13.8. Adaptación y contextualización del diálogo

13.8.1. Iniciativa de diálogo
13.8.2. Adaptación al locutor
13.8.3. Adaptación al contexto del diálogo

13.9. Robots e interacciones sociales: reconocimiento, síntesis y expresión de emociones

13.9.1. Paradigmas de voz artificial: voz robótica y voz natural
13.9.2. Reconocimiento de emociones y análisis de sentimiento
13.9.3. Síntesis de voz emocional

13.10. Robots e interacciones sociales: interfaces multimodales avanzadas

13.10.1. Combinación de interfaces vocales y táctiles
13.10.2. Reconocimiento y traducción de lengua de signos
13.10.3. Avatares visuales: traducción de voz a lengua de signos

Módulo 14. Procesado digital de imágenes

14.1. Entorno de desarrollo en visión por computador

14.1.1. Librerías de visión por computador
14.1.2. Entorno de programación
14.1.3. Herramientas de visualización

14.2. Procesamiento digital de imágenes

14.2.1. Relaciones entre pixeles
14.2.2. Operaciones con imágenes
14.2.3. Transformaciones geométricas

14.3. Operaciones de pixeles

14.3.1. Histograma
14.3.2. Transformaciones a partir de histograma
14.3.3. Operaciones en imágenes en color

14.4. Operaciones lógicas y aritméticas

14.4.1. Suma y resta
14.4.2. Producto y división
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor

14.5. Filtros

14.5.1. Máscaras y convolución
14.5.2. Filtrado lineal
14.5.3. Filtrado no lineal
14.5.4. Análisis de Fourier

14.6. Operaciones morfológicas

14.6.1. Erode and Dilating
14.6.2. Closing and Open
14.6.3. Top hat y Black hat
14.6.4. Detección de contornos
14.6.5. Esqueleto
14.6.6. Relleno de agujeros
14.6.7. Convex hull

14.7. Herramientas de análisis de imágenes

14.7.1. Detección de bordes
14.7.2. Detección de blobs
14.7.3. Control dimensional
14.7.4. Inspección de color

14.8. Segmentación de objetos

14.8.1. Segmentación de imágenes
14.8.2. Técnicas de segmentación clásicas
14.8.3. Aplicaciones reales

14.9. Calibración de imágenes

14.9.1. Calibración de imagen
14.9.2. Métodos de calibración
14.9.3. Proceso de calibración en un sistema cámara 2D/robot

14.10. Procesado de imágenes en entorno real

14.10.1. Análisis de la problemática
14.10.2. Tratamiento de la imagen
14.10.3. Extracción de características
14.10.4. Resultados finales

Módulo 15. Procesado digital de imágenes avanzado

15.1. Reconocimiento óptico de caracteres (OCR)

15.1.1. Preprocesado de la imagen
15.1.2. Detección de texto
15.1.3. Reconocimiento de texto

15.2. Lectura de códigos

15.2.1. Códigos 1D
15.2.2. Códigos 2D
15.2.3. Aplicaciones

15.3. Búsqueda de patrones

15.3.1. Búsqueda de patrones
15.3.2. Patrones basados en nivel de gris
15.3.3. Patrones basados en contornos
15.3.4. Patrones basados en formas geométricas
15.3.5. Otras técnicas

15.4. Seguimiento de objetos con visión convencional

15.4.1. Extracción de fondo
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Optical flow

15.5. Reconocimiento facial

15.5.1. Facial Landmark detection
15.5.2. Aplicaciones
15.5.3. Reconocimiento facial
15.5.4. Reconocimiento de emociones

15.6. Panorámica y alineaciones

15.6.1. Stitching
15.6.2. Composición de imágenes
15.6.3. Fotomontaje

15.7. High Dinamic Range (HDR) and Photometric Stereo

15.7.1. Incremento del rango dinámico
15.7.2. Composición de imágenes para mejorar contornos
15.7.3. Técnicas para el uso de aplicaciones en dinámico

15.8. Compresión de imágenes

15.8.1. La compresión de imágenes
15.8.2. Tipos de compresores
15.8.3. Técnicas de compresión de imágenes

15.9. Procesado de video

15.9.1. Secuencias de imágenes
15.9.2. Formatos y códecs de video
15.9.3. Lectura de un video
15.9.4. Procesado del fotograma

15.10. Aplicación real de procesado de imágenes

15.10.1. Análisis de la problemática
15.10.2. Tratamiento de la imagen
15.10.3. Extracción de características
15.10.4. Resultados finales

Módulo 16. Procesado de imágenes 3D

16.1. Imagen 3D

16.1.1. Imagen 3D
16.1.2. Software de procesado de imágenes 3D y visualizaciones
16.1.3. Software de metrología

16.2. Open 3D

16.2.1. Librería para proceso de datos 3D
16.2.2. Características
16.2.3. Instalación y uso

16.3. Los datos

16.3.1. Mapas de profundidad en imagen 2D
16.3.2. Pointclouds
16.3.3. Normales
16.3.4. Superficies

16.4. Visualización

16.4.1. Visualización de datos
16.4.2. Controles
16.4.3. Visualización Web

16.5. Filtros

16.5.1. Distancia entre puntos, eliminar outliers
16.5.2. Filtro paso alto
16.5.3. Downsampling

16.6. Geometría y extracción de características

16.6.1. Extracción de un perfil
16.6.2. Medición de profundidad
16.6.3. Volumen
16.6.4. Formas geométricas 3D
16.6.5. Planos
16.6.6. Proyección de un punto
16.6.7. Distancias geométricas
16.6.8. Kd Tree
16.6.9. Features 3D

16.7. Registro y Meshing

16.7.1. Concatenación
16.7.2. ICP
16.7.3. Ransac 3D

16.8. Reconocimiento de objetos 3D

16.8.1. Búsqueda de un objeto en la escena 3D
16.8.2. Segmentación
16.8.3. Bin picking

16.9. Análisis de superficies

16.9.1. Smoothing
16.9.2. Superficies orientables
16.9.3. Octree

16.10. Triangulación

16.10.1. De Mesh a Point Cloud
16.10.2. Triangulación de mapas de profundidad
16.10.3. Triangulación de PointClouds no ordenados

Módulo 17. Redes convolucionales y clasificación de imágenes

17.1. Redes neuronales convolucionales

17.1.1. Introducción
17.1.2. La convolución
17.1.3. CNN Building Blocks

17.2. Tipos de capas CNN

17.2.1. Convolutional
17.2.2. Activation
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected

17.3. Métricas

17.3.1. Confusion Matrix
17.3.2. Accuracy
17.3.3. Precisión
17.3.4. Recall
17.3.5. F1 Score
17.3.6. ROC Curve
17.3.7. AUC

17.4. Principales Arquitecturas

17.4.1. AlexNet
17.4.2. VGG
17.4.3. Resnet
17.4.4. GoogleLeNet

17.5. Clasificación de imágenes

17.5.1. Introducción
17.5.2. Análisis de los datos
17.5.3. Preparación de los datos
17.5.4. Entrenamiento del modelo
17.5.5. Validación del modelo

17.6. Consideraciones prácticas para el entrenamiento de CNN

17.6.1. Selección de optimizador
17.6.2. Learning Rate Scheduler
17.6.3. Comprobar pipeline de entrenamiento
17.6.4. Entrenamiento con regularización

17.7. Buenas prácticas en Deep Learning

17.7.1. Transfer Learning
17.7.2. Fine Tuning
17.7.3. Data Augmentation

17.8. Evaluación estadística de datos

17.8.1. Número de datasets
17.8.2. Número de etiquetas
17.8.3. Número de imágenes
17.8.4. Balanceo de datos

17.9. Deployment

17.9.1. Guardando y cargando modelos
17.9.2. Onnx
17.9.3. Inferencia

17.10. Caso práctico: clasificación de imágenes

17.10.1. Análisis y preparación de los datos
17.10.2. Testeo del pipeline de entrenamiento
17.10.3. Entrenamiento del modelo
17.10.4. Validación del modelo

Módulo 18. Detección de objetos

18.1. Detección y seguimiento de objetos

18.1.1. Detección de objetos
18.1.2. Casos de uso
18.1.3. Seguimiento de objetos
18.1.4. Casos de uso
18.1.5. Oclusiones, Rigid and No Rigid Poses

18.2. Métricas de evaluación

18.2.1. IOU - Intersection Over Union
18.2.2. Confidence Score
18.2.3. Recall
18.2.4. Precisión
18.2.5. Recall–Precisión Curve
18.2.6. Mean Average Precision (mAP)

18.3. Métodos tradicionales

18.3.1. Sliding window
18.3.2. Viola detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)

18.4. Datasets

18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge

18.5. Two Shot Object Detector

18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN

18.6. Single Shot Object Detector

18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet

18.7. Backbones

18.7.1. VGG
18.7.2. ResNet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet

18.8. Object Tracking

18.8.1. Enfoques clásicos
18.8.2. Filtros de partículas
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort

18.9. Despliegue

18.9.1. Plataforma de computación
18.9.2. Elección del Backbone
18.9.3. Elección del Framework
18.9.4. Optimización de modelos
18.9.5. Versionado de Modelos

18.10. Estudio: detección y seguimiento de personas

18.10.1. Detección de personas
18.10.2. Seguimiento de personas
18.10.3. Reidentificación
18.10.4. Conteo de personas en multitudes

Módulo 19. Segmentación de Imágenes con Deep Learning

19.1. Detección de objetos y segmentación

19.1.1. Segmentación semántica

19.1.1.1. Casos de uso de segmentación semántica

19.1.2. Segmentación Instanciada

19.1.2.1. Casos de uso segmentación instanciada

19.2. Métricas de evaluación

19.2.1. Similitudes con otros métodos
19.2.2. Pixel Accuracy
19.2.3. Dice Coefficient (F1 Score)

19.3. Funciones de coste

19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Otras funciones

19.4. Métodos tradicionales de segmentación

19.4.1. Aplicación de umbral con Otsu y Riddlen
19.4.2. Mapas auto organizados
19.4.3. GMM-EM algorithm

19.5. Segmentación Semántica aplicando Deep Learning: FCN

19.5.1. FCN
19.5.2. Arquitectura
19.5.3. Aplicaciones de FCN

19.6. Segmentación semántica aplicando Deep Learning : U-NET

19.6.1. U-NET
19.6.2. Arquitectura
19.6.3. Aplicación U-NET

19.7. Segmentación semántica aplicando Deep Learning: Deep Lab

19.7.1. Deep Lab
19.7.2. Arquitectura
19.7.3. Aplicación de Deep Lab

19.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN

19.8.1. Mask RCNN
19.8.2. Arquitectura
19.8.3. Aplicación de un Mas RCNN

19.9. Segmentación en videos

19.9.1. STFCN
19.9.2. Semantic Video CNNs
19.9.3. Clockwork Convnets
19.9.4. Low-Latency

19.10. Segmentación en nubes de puntos

19.10.1. La nube de puntos
19.10.2. PointNet
19.10.3. A-CNN

Módulo 20. Segmentación de imágenes avanzadas y técnicas avanzadas de visión por computador

20.1. Base de datos para problemas de segmentación general

20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset

20.2. Segmentación semántica en la medicina

20.2.1. Segmentación semántica en la medicina
20.2.2. Datasets para problemas médicos
20.2.3. Aplicación práctica

20.3. Herramientas de anotación

20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Otras herramientas

20.4. Herramientas de Segmentación usando diferentes Frameworks

20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Otros

20.5. Proyecto Segmentación semántica. Los datos, fase 1

20.5.1. Análisis del problema
20.5.2. Fuente de entrada para datos
20.5.3. Análisis de datos
20.5.4. Preparación de datos

20.6. Proyecto Segmentación semántica. Entrenamiento, fase 2

20.6.1. Selección del algoritmo
20.6.2. Entrenamiento
20.6.3. Evaluación

20.7. Proyecto Segmentación semántica. Resultados, fase 3

20.7.1. Ajuste fino
20.7.2. Presentación de la solución
20.7.3. Conclusiones

20.8. Autocodificadores

20.8.1. Autocodificadores
20.8.2. Arquitectura de un autocodificador
20.8.3. Autocodificadores de eliminación de ruido
20.8.4. Autocodificador de coloración automática

20.9. Las Redes Generativas Adversariales (GAN)

20.9.1. Redes Generativas Adversariales (GAN)
20.9.2. Arquitectura DCGAN
20.9.3. Arquitectura GAN Condicionada

20.10. Redes generativas adversariales mejoradas

20.10.1. Visión general del problema
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN

##IMAGE##

Perfecciona tu capacidad de diseño, programación y control de robots mediante algoritmos de visión artificial y aprendizaje automático”

Grand Master en Robótica y Visión Artificial

La robótica y la visión artificial son dos áreas en constante evolución que han revolucionado la forma en que interactuamos con la tecnología en la actualidad. En TECH Universidad Tecnológica, hemos diseñado un posgrado de Grand Master en Robótica y Visión Artificial, en colaboración con la Facultad de Informática, para preparar a los profesionales en las últimas tendencias y avances en estos campos. Este programa de Capacitación Práctica virtual ofrece una amplia variedad de contenidos, desde los fundamentos teóricos hasta la aplicación práctica de técnicas y algoritmos en el desarrollo de sistemas robóticos y de visión artificial.

Con un enfoque interdisciplinario, nuestro programa de Grand Master en Robótica y Visión Artificial capacita a los participantes en la comprensión de los principios y conceptos clave de la robótica y la visión artificial, así como en la aplicación de técnicas avanzadas en la resolución de problemas reales. Los participantes tendrán la oportunidad de explorar temas como la percepción visual, la navegación autónoma, el aprendizaje de máquina y la interacción humano-robot, entre otros. Además, nuestro programa cuenta con un cuerpo docente altamente calificado, con experiencia en la investigación y aplicación de la robótica y visión artificial en diversos sectores industriales y tecnológicos.