Titulación universitaria
La mayor facultad de informática del mundo”
Presentación
La visión artificial es la tecnología del presente y del futuro. Especialízate con este programa y alcanza el progreso profesional que buscas”
Desde hace unos años la inteligencia artificial ha producido una gran revolución en el mundo tecnológico. Permite desarrollar software y máquinas capaces de aprender, generar nuevos conocimientos y actuar en función de la mejor solución disponible en cada caso. Así, sus aplicaciones van desde las ciencias computacionales, pasando por la investigación en ámbitos como el sanitario, hasta el desarrollo de herramientas como vehículos, robots o videojuegos.
Así, se trata de un ámbito en continua expansión y que ya es fundamental en la mayoría de compañías informáticas y tecnológicas. Sin embargo, precisamente debido a su gran importancia e impulso en los últimos años, han ido surgiendo especialidades que se centran en uno de sus aspectos específicos. La visión artificial es una de las más importantes. Esta se centra en cómo las máquinas procesan la información visual recibida y cómo esa información se puede emplear, ya sea para mejorar la relación de la propia máquina con su propio entorno, al hacer más precisas sus operaciones, o para recoger datos de forma eficaz.
Por esa razón, es un campo fundamental y está en estrecha relación con el Machine Learning, por lo que cada vez más compañías buscan informáticos especializados en este ámbito que puedan aportar las mejores soluciones tecnológicas en el desarrollo de proyectos de visión artificial. Este Maestría Título Propio ofrece una profundización en este ámbito, acercándole los conocimientos y herramientas más innovadoras para que, al completar la titulación, pueda lograr progresar profesionalmente de forma inmediata gracias a sus nuevas competencias.
Y todo ello, se conseguirá siguiendo la metodología 100% online de TECH Universidad, especialmente diseñada para que informáticos e ingenieros en activo puedan compaginar este programa con sus trabajos, puesto que se adapta a sus circunstancias personales. Además, durante todo el proceso de aprendizaje estarán acompañados por un cuadro docente experto en esta materia y disfrutarán de los mejores recursos de enseñanza multimedia como casos prácticos, vídeos técnicos, clases magistrales o resúmenes interactivos, entre muchos otros.
El futuro ya está aquí. No pierdas la oportunidad y conviértete en un gran experto en visión artificial gracias a este Maestría Título Propio”
Este Maestría Título Propio en Visión Artificial contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:
- El desarrollo de casos prácticos presentados por expertos en informática y visión artificial
- Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que está concebido recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional
- Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje
- Su especial hincapié en metodologías innovadoras
- Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual
- La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet
No esperes más y especialízate en un ámbito clave de la tecnología del futuro que te hará avanzar profesionalmente de forma inmediata”
El programa incluye, en su cuadro docente, a profesionales del sector que vierten en esta capacitación la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio.
Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará una capacitación inmersiva programada para entrenarse ante situaciones reales.
El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el profesional deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, contará con la ayuda de un novedoso sistema de vídeos interactivos realizados por reconocidos expertos.
Profundiza en la inteligencia artificial y el Deep Learning y sé una referencia en el ámbito de la visión artificial"
Matricúlate ya y comienza a desarrollar prometedores proyectos de visión artificial con lo que aprenderás en este programa"
Temario
Los contenidos de este Maestría Título Propio en Visión Artificial han sido diseñados por grandes expertos internacionales en la materia, por lo que el informático podrá acceder a conocimientos altamente especializados que le colocarán como una referencia de la materia. Así, en este programa podrá profundizar en aspectos como la visión artificial para el estudio del espacio y para análisis de contenido, en la búsqueda de patrones y códigos, en librerías de procesamiento de imágenes 3D o en los autocodificadores.
El temario más completo sobre visión artificial te espera. Completa este programa y accede al futuro de la profesión”
Módulo 1. Visión artificial
1.1. Percepción humana
1.1.1. Sistema visual humano
1.1.2. El color
1.1.3. Frecuencias visibles y no visibles
1.2. Crónica de la Visión Artificial
1.2.1. Principios
1.2.2. Evolución
1.2.3. La importancia de la visión artificial
1.3. Composición de imágenes digitales
1.3.1. La imagen digital
1.3.2. Tipos de imágenes
1.3.3. Espacios de color
1.3.4. RGB
1.3.5. HSV y HSL
1.3.6. CMY-CMYK
1.3.7. YCbCr
1.3.8. Imagen indexada
1.4. Sistemas de captación de imágenes
1.4.1. Funcionamiento de una cámara digital
1.4.2. La correcta exposición para cada situación
1.4.3. Profundidad de campo
1.4.4. Resolución
1.4.5. Formatos de imagen
1.4.6. Modo HDR
1.4.7. Cámaras de alta resolución
1.4.8. Cámaras de alta velocidad
1.5. Sistemas ópticos
1.5.1. Principios ópticos
1.5.2. Objetivos convencionales
1.5.3. Objetivos telecéntricos
1.5.4. Tipos de autoenfoque
1.5.5. Distancia focal
1.5.6. Profundidad de campo
1.5.7. Distorsión óptica
1.5.8. Calibración de una imagen
1.6. Sistemas de iluminación
1.6.1. Importancia de la iluminación
1.6.2. Respuesta frecuencial
1.6.3. Iluminación led
1.6.4. Iluminación en exteriores
1.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos
1.7. Sistemas captación 3D
1.7.1. Estéreo visión
1.7.2. Triangulación
1.7.3. Luz estructurada
1.7.4. Time of Flight
1.7.5. Lidar
1.8. Multiespectro
1.8.1. Cámaras multiespectrales
1.8.2. Cámaras hiperespectrales
1.9. Espectro cercano no visible
1.9.1. Cámaras IR
1.9.2. Cámaras UV
1.9.3. Convertir de no visible a visible gracias a la iluminación
1.10. Otras bandas del espectro
1.10.1. Rayos X
1.10.2. Teraherzios
Módulo 2. Aplicaciones y estado del arte
2.1. Aplicaciones industriales
2.1.1. Librerías de visión industrial
2.1.2. Cámaras compactas
2.1.3. Sistemas basados en PC
2.1.4. Robótica industrial
2.1.5. Pick and place 2D
2.1.6. Bin picking
2.1.7. Control de calidad
2.1.8. Presencia ausencia de componentes
2.1.9. Control dimensional
2.1.10. Control etiquetaje
2.1.11. Trazabilidad
2.2. Vehículos autónomos
2.2.1. Asistencia al conductor
2.2.2. Conducción autónoma
2.3. Visión artificial para análisis de contenidos
2.3.1. Filtro por contenido
2.3.2. Moderación de contenido visual
2.3.3. Sistemas de seguimiento
2.3.4. Identificación de marcas y logos
2.3.5. Etiquetación y clasificación de videos
2.3.6. Detección de cambios de escena
2.3.7. Extracción de textos o créditos
2.4. Aplicaciones médicas
2.4.1. Detección y localización de enfermedades
2.4.2. Cáncer y análisis de radiografías
2.4.3. Avances en visión artificial dado el Covid-19
2.4.4. Asistencia en el quirófano
2.5. Aplicaciones espaciales
2.5.1. Análisis de imagen por satélite
2.5.2. Visión artificial para el estudio del espacio
2.5.3. Misión a Marte
2.6. Aplicaciones comerciales
2.6.1. Control stock
2.6.2. Videovigilancia, seguridad en casa
2.6.3. Cámaras aparcamiento
2.6.4. Cámaras control población
2.6.5. Cámaras velocidad
2.7. Visión aplicada a la robótica
2.7.1. Drones
2.7.2. AGV
2.7.3. Visión en robots colaborativos
2.7.4. Los ojos de los robots
2.8. Realidad aumentada
2.8.1. Funcionamiento
2.8.2. Dispositivos
2.8.3. Aplicaciones en la industria
2.8.4. Aplicaciones comerciales
2.9. Cloud computing
2.9.1. Plataformas de Cloud Computing
2.9.2. Del Cloud Computing a la producción
2.10. Investigación y astado del arte
2.10.1. La comunidad científica
2.10.2. ¿Qué se está cociendo?
2.10.3. El futuro de la visión artificial
Módulo 3. Procesado digital de imágenes
3.1. Entorno de desarrollo en visión por computador
3.1.1. Librerías de visión por computador
3.1.2. Entorno de programación
3.1.3. Herramientas de visualización
3.2. Procesamiento digital de imágenes
3.2.1. Relaciones entre pixeles
3.2.2. Operaciones con imágenes
3.2.3. Transformaciones geométricas
3.3. Operaciones de pixeles
3.3.1. Histograma
3.3.2. Transformaciones a partir de histograma
3.3.3. Operaciones en imágenes en color
3.4. Operaciones lógicas y aritméticas
3.4.1. Suma y resta
3.4.2. Producto y división
3.4.3. And/Nand
3.4.4. Or/Nor
3.4.5. Xor/Xnor
3.5. Filtros
3.5.1. Máscaras y convolución
3.5.2. Filtrado lineal
3.5.3. Filtrado no lineal
3.5.4. Análisis de Fourier
3.6. Operaciones morfológicas
3.6.1. Erode and Dilating
3.6.2. Closing and Open
3.6.3. Top hat y Black hat
3.6.4. Detección de contornos
3.6.5. Esqueleto
3.6.6. Relleno de agujeros
3.6.7. Convex hull
3.7. Herramientas de análisis de imágenes
3.7.1. Detección de bordes
3.7.2. Detección de blobs
3.7.3. Control dimensional
3.7.4. Inspección de color
3.8. Segmentación de objetos
3.8.1. Segmentación de imágenes
3.8.2. Técnicas de segmentación clásicas
3.8.3. Aplicaciones reales
3.9. Calibración de imágenes
3.9.1. Calibración de imagen
3.9.2. Métodos de calibración
3.9.3. Proceso de calibración en un sistema cámara 2D/robot
3.10. Procesado de imágenes en entorno real
3.10.1. Análisis de la problemática
3.10.2. Tratamiento de la imagen
3.10.3. Extracción de características
3.10.4. Resultados finales
Módulo 4. Procesado digital de imágenes avanzado
4.1. Reconocimiento óptico de caracteres (OCR)
4.1.1. Preprocesado de la imagen
4.1.2. Detección de texto
4.1.3. Reconocimiento de texto
4.2. Lectura de códigos
4.2.1. Códigos 1D
4.2.2. Códigos 2D
4.2.3. Aplicaciones
4.3. Búsqueda de patrones
4.3.1. Búsqueda de patrones
4.3.2. Patrones basados en nivel de gris
4.3.3. Patrones basados en contornos
4.3.4. Patrones basados en formas geométricas
4.3.5. Otras técnicas
4.4. Seguimiento de objetos con visión convencional
4.4.1. Extracción de fondo
4.4.2. Meanshift
4.4.3. Camshift
4.4.4. Optical flow
4.5. Reconocimiento facial
4.5.1. Facial Landmark detection
4.5.2. Aplicaciones
4.5.3. Reconocimiento facial
4.5.4. Reconocimiento de emociones
4.6. Panorámica y alineaciones
4.6.1. Stitching
4.6.2. Composición de imágenes
4.6.3. Fotomontaje
4.7. High Dinamic Range (HDR) and Photometric Stereo
4.7.1. Incremento del rango dinámico
4.7.2. Composición de imágenes para mejorar contornos
4.7.3. Técnicas para el uso de aplicaciones en dinámico
4.8. Compresión de imágenes
4.8.1. La compresión de imágenes
4.8.2. Tipos de compresores
4.8.3. Técnicas de compresión de imágenes
4.9. Procesado de video
4.9.1. Secuencias de imágenes
4.9.2. Formatos y códecs de video
4.9.3. Lectura de un video
4.9.4. Procesado del fotograma
4.10. Aplicación real de procesado de imágenes
4.10.1. Análisis de la problemática
4.10.2. Tratamiento de la imagen
4.10.3. Extracción de características
4.10.4. Resultados finales
Módulo 5. Procesado de imágenes 3D
5.1. Imagen 3D
5.1.1. Imagen 3D
5.1.2. Software de procesado de imágenes 3D y visualizaciones
5.1.3. Software de metrología
5.2. Open 3D
5.2.1. Librería para proceso de datos 3D
5.2.2. Características
5.2.3. Instalación y uso
5.3. Los datos
5.3.1. Mapas de profundidad en imagen 2D
5.3.2. Pointclouds
5.3.3. Normales
5.3.4. Superficies
5.4. Visualización
5.4.1. Visualización de datos
5.4.2. Controles
5.4.3. Visualización Web
5.5. Filtros
5.5.1. Distancia entre puntos, eliminar outliers
5.5.2. Filtro paso alto
5.5.3. Downsampling
5.6. Geometría y extracción de características
5.6.1. Extracción de un perfil
5.6.2. Medición de profundidad
5.6.3. Volumen
5.6.4. Formas geométricas 3D
5.6.5. Planos
5.6.6. Proyección de un punto
5.6.7. Distancias geométricas
5.6.8. Kd Tree
5.6.9. Features 3D
5.7. Registro y Meshing
5.7.1. Concatenación
5.7.2. ICP
5.7.3. Ransac 3D
5.8. Reconocimiento de objetos 3D
5.8.1. Búsqueda de un objeto en la escena 3D
5.8.2. Segmentación
5.8.3. Bin picking
5.9. Análisis de superficies
5.9.1. Smoothing
5.9.2. Superficies orientables
5.9.3. Octree
5.10. Triangulación
5.10.1. De Mesh a Point Cloud
5.10.2. Triangulación de mapas de profundidad
5.10.3. Triangulación de PointClouds no ordenados
Módulo 6. Deep Learning
6.1. Inteligencia artificial
6.1.1. Machine Learning
6.1.2. Deep Learning
6.1.3. La explosión del Deep Learning. ¿Por qué ahora?
6.2. Redes neuronales
6.2.1. La red neuronal
6.2.2. Usos de las redes neuronales
6.2.3. Regresión lineal y perceptrón
6.2.4. Forward Propagation
6.2.5. Backpropagation
6.2.6. Feature vectors
6.3. Loss Functions
6.3.1. Loss Functions
6.3.2. Tipos de Loss Functions
6.3.3. Elección de la Loss Functions
6.4. Funciones de activación
6.4.1. Función de activación
6.4.2. Funciones lineales
6.4.3. Funciones no lineales
6.4.4. Output vs. Hidden Layer Activation Functions
6.5. Regularización y normalización
6.5.1. Regularización y normalización
6.5.2. Overfitting and Data Augmentation
6.5.3. Regularization Methods: L1, L2 and Dropout
6.5.4. Normalization Methods: Batch, Weight, Layer
6.6. Optimización
6.6.1. Gradient Descent
6.6.2. Stochastic Gradient Descent
6.6.3. Mini Batch Gradient Descent
6.6.4. Momentum
6.6.5. Adam
6.7. Hyperparameter Tuning y pesos
6.7.1. Los hiperparámetros
6.7.2. Batch Size vs. Learning Rate vs. Step Decay
6.7.3. Pesos
6.8. Métricas de evaluación de una red neuronal
6.8.1. Accuracy
6.8.2. Dice Coefficient
6.8.3. Sensitivity vs. Specificity/Recall vs. Precision
6.8.4. Curva ROC (AUC)
6.8.5. F1-score
6.8.6. Confusión Matrix
6.8.7. Cross-Validation
6.9. Frameworks y Hardware
6.9.1. Tensor Flow
6.9.2. Pytorch
6.9.3. Caffe
6.9.4. Keras
6.9.5. Hardware para la fase de entrenamiento
6.10. Creación de una red neuronal–entrenamiento y validación
6.10.1. Dataset
6.10.2. Construcción de la red
6.10.3. Entrenamiento
6.10.4. Visualización de resultados
Módulo 7. Redes convolucionales y clasificación de imágenes
7.1. Redes neuronales convolucionales
7.1.1. Introducción
7.1.2. La convolución
7.1.3. CNN Building Blocks
7.2. Tipos de capas CNN
7.2.1. Convolutional
7.2.2. Activation
7.2.3. Batch normalization
7.2.4. Polling
7.2.5. Fully connected
7.3. Métricas
7.3.1. Confusion Matrix
7.3.2. Accuracy
7.3.3. Precisión
7.3.4. Recall
7.3.5. F1 Score
7.3.6. ROC Curve
7.3.7. AUC
7.4. Principales Arquitecturas
7.4.1. AlexNet
7.4.2. VGG
7.4.3. Resnet
7.4.4. GoogleLeNet
7.5. Clasificación de imágenes
7.5.1. Introducción
7.5.2. Análisis de los datos
7.5.3. Preparación de los datos
7.5.4. Entrenamiento del modelo
7.5.5. Validación del modelo
7.6. Consideraciones prácticas para el entrenamiento de CNN
7.6.1. Selección de optimizador
7.6.2. Learning Rate Scheduler
7.6.3. Comprobar pipeline de entrenamiento
7.6.4. Entrenamiento con regularización
7.7. Buenas prácticas en Deep Learning
7.7.1. Transfer Learning
7.7.2. Fine Tuning
7.7.3. Data Augmentation
7.8. Evaluación estadística de datos
7.8.1. Número de datasets
7.8.2. Número de etiquetas
7.8.3. Número de imágenes
7.8.4. Balanceo de datos
7.9. Deployment
7.9.1. Guardando y cargando modelos
7.9.2. Onnx
7.9.3. Inferencia
7.10. Caso práctico: clasificación de imágenes
7.10.1. Análisis y preparación de los datos
7.10.2. Testeo del pipeline de entrenamiento
7.10.3. Entrenamiento del modelo
7.10.4. Validación del modelo
Módulo 8. Detección de objetos
8.1. Detección y seguimiento de objetos
8.1.1. Detección de objetos
8.1.2. Casos de uso
8.1.3. Seguimiento de objetos
8.1.4. Casos de uso
8.1.5. Oclusiones, Rigid and No Rigid Poses
8.2. Métricas de evaluación
8.2.1. IOU - Intersection Over Union
8.2.2. Confidence Score
8.2.3. Recall
8.2.4. Precisión
8.2.5. Recall–Precisión Curve
8.2.6. Mean Average Precision (mAP)
8.3. Métodos tradicionales
8.3.1. Sliding window
8.3.2. Viola detector
8.3.3. HOG
8.3.4. Non Maximal Supresion (NMS)
8.4. Datasets
8.4.1. Pascal VC
8.4.2. MS Coco
8.4.3. ImageNet (2014)
8.4.4. MOTA Challenge
8.5. Two Shot Object Detector
8.5.1. R-CNN
8.5.2. Fast R-CNN
8.5.3. Faster R-CNN
8.5.4. Mask R-CNN
8.6. Single Shot Object Detector
8.6.1. SSD
8.6.2. YOLO
8.6.3. RetinaNet
8.6.4. CenterNet
8.6.5. EfficientDet
8.7. Backbones
8.7.1. VGG
8.7.2. ResNet
8.7.3. Mobilenet
8.7.4. Shufflenet
8.7.5. Darknet
8.8. Object Tracking
8.8.1. Enfoques clásicos
8.8.2. Filtros de partículas
8.8.3. Kalman
8.8.4. Sorttracker
8.8.5. Deep Sort
8.9. Despliegue
8.9.1. Plataforma de computación
8.9.2. Elección del Backbone
8.9.3. Elección del Framework
8.9.4. Optimización de modelos
8.9.5. Versionado de Modelos
8.10. Estudio: detección y seguimiento de personas
8.10.1. Detección de personas
8.10.2. Seguimiento de personas
8.10.3. Reidentificación
8.10.4. Conteo de personas en multitudes
Módulo 9. Segmentación de Imágenes con Deep Learning
9.1. Detección de objetos y segmentación
9.1.1. Segmentación semántica
9.1.1.1. Casos de uso de segmentación semántica
9.1.2. Segmentación Instanciada
9.1.2.1. Casos de uso segmentación instanciada
9.2. Métricas de evaluación
9.2.1. Similitudes con otros métodos
9.2.2. Pixel Accuracy
9.2.3. Dice Coefficient (F1 Score)
9.3. Funciones de coste
9.3.1. Dice Loss
9.3.2. Focal Loss
9.3.3. Tversky Loss
9.3.4. Otras funciones
9.4. Métodos tradicionales de segmentación
9.4.1. Aplicación de umbral con Otsu y Riddlen
9.4.2. Mapas auto organizados
9.4.3. GMM-EM algorithm
9.5. Segmentación Semántica aplicando Deep Learning: FCN
9.5.1. FCN
9.5.2. Arquitectura
9.5.3. Aplicaciones de FCN
9.6. Segmentación semántica aplicando Deep Learning : U-NET
9.6.1. U-NET
9.6.2. Arquitectura
9.6.3. Aplicación U-NET
9.7. Segmentación semántica aplicando Deep Learning: Deep Lab
9.7.1. Deep Lab
9.7.2. Arquitectura
9.7.3. Aplicación de Deep Lab
9.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN
9.8.1. Mask RCNN
9.8.2. Arquitectura
9.8.3. Aplicación de un Mas RCNN
9.9. Segmentación en videos
9.9.1. STFCN
9.9.2. Semantic Video CNNs
9.9.3. Clockwork Convnets
9.9.4. Low-Latency
9.10. Segmentación en nubes de puntos
9.10.1. La nube de puntos
9.10.2. PointNet
9.10.3. A-CNN
Módulo 10. Segmentación de imágenes avanzadas y técnicas avanzadas de visión por computador
10.1. Base de datos para problemas de segmentación general
10.1.1. Pascal Context
10.1.2. CelebAMask-HQ
10.1.3. Cityscapes Dataset
10.1.4. CCP Dataset
10.2. Segmentación semántica en la medicina
10.2.1. Segmentación semántica en la medicina
10.2.2. Datasets para problemas médicos
10.2.3. Aplicación práctica
10.3. Herramientas de anotación
10.3.1. Computer Vision Annotation Tool
10.3.2. LabelMe
10.3.3. Otras herramientas
10.4. Herramientas de Segmentación usando diferentes Frameworks
10.4.1. Keras
10.4.2. Tensorflow v2
10.4.3. Pytorch
10.4.4. Otros
10.5. Proyecto Segmentación semántica. Los datos, fase 1
10.5.1. Análisis del problema
10.5.2. Fuente de entrada para datos
10.5.3. Análisis de datos
10.5.4. Preparación de datos
10.6. Proyecto Segmentación semántica. Entrenamiento, fase 2
10.6.1. Selección del algoritmo
10.6.2. Entrenamiento
10.6.3. Evaluación
10.7. Proyecto Segmentación semántica. Resultados, fase 3
10.7.1. Ajuste fino
10.7.2. Presentación de la solución
10.7.3. Conclusiones
10.8. Autocodificadores
10.8.1. Autocodificadores
10.8.2. Arquitectura de un autocodificador
10.8.3. Autocodificadores de eliminación de ruido
10.8.4. Autocodificador de coloración automática
10.9. Las Redes Generativas Adversariales (GAN)
10.9.1. Redes Generativas Adversariales (GAN)
10.9.2. Arquitectura DCGAN
10.9.3. Arquitectura GAN Condicionada
10.10. Redes generativas adversariales mejoradas
10.10.1. Visión general del problema
10.10.2. WGAN
10.10.3. LSGAN
10.10.4. ACGAN
Este Maestría Título Propio dispone de los contenidos más profundos y actualizados en Visión Artificial. No pierdas la oportunidad y matricúlate ya”
Máster en Visión Artificial
La Visión Artificial se ha convertido en una herramienta fundamental para el desarrollo de diversas industrias, como la manufacturera, la automotriz y la de la seguridad. En este contexto, es fundamental que los profesionales estén capacitados para desarrollar e implementar sistemas que puedan procesar, analizar y tomar decisiones basadas en información visual. El Máster en Visión Artificial de TECH, es una excelente oportunidad para adquirir conocimientos y habilidades en este campo. Este programa de estudios, desarrollado por un equipo de expertos en la materia, ofrece una capacitación completa y actualizada en el uso de tecnologías de Visión Artificial, profundizando en temas como la detección de objetos, el reconocimiento facial, la identificación de patrones y la automatización de procesos industriales.
Estarás a la vanguardia de los últimos avances en Visión Artificial
El Máster en Visión Artificial cuenta con una metodología 100% online, lo que te permitirá avanzar estudiar sin interrumpir tu vida laboral y personal. Además, el programa ofrece numerosos recursos multimedia para el aprendizaje, como ejercicios prácticos, vídeos técnicos y clases magistrales. Al completar el programa, estarás preparado para aplicar tus conocimientos en la industria y desempeñarse en áreas relacionadas con el desarrollo de soluciones tecnológicas avanzadas y automatización de procesos.