Titulación universitaria
La mayor facultad de informática del mundo”
Presentación
Estás a tan solo unos pasos de sumergirte en una experiencia académica única con la que adquirirás los conocimientos teóricos y prácticos necesarios para destacar como experto en Visión Artificial”
La evolución de la inteligencia artificial y del Machine Learning, así como el crecimiento cada vez más técnico y especializado de la robótica, la realidad aumentada, el Big Data y la hiperautomatización, es lo que ha permitido el desarrollo de la Visión Artificial. Con la aplicación de sus métodos, hoy en día es posible, por ejemplo, descubrir fallos durante la producción, así como identificar de manera discriminatoria resultados defectuosos. Gracias a la versatilidad de sus complejos sistemas de algoritmos es plausible emplear sus usos en multitud de industrias y procesos: electrónica (lectura de códigos), embalaje (etiquetado o verificación de la impresión), logística (detección de materiales peligrosos), automoción (control de calidad) o la salud (lectura y verificación de envases o realización de radiografías), etc.
El hecho de que se trate de un sector con un futuro lleno de oportunidades y posibilidades es lo que ha llevado a TECH a desarrollar este Máster de Formación Permanente Semipresencial en Visión Artificial. Se trata de un intensivo y exhaustivo programa que aportará al egresado un conocimiento amplio y especializado sobre esta ciencia, sus técnicas y aplicaciones en la actualidad. A través de 1.500 horas de la mejor capacitación teórica y práctica, el informático logrará conocer al detalle los entresijos de los sistemas inteligentes, pudiendo desarrollar por sí mismo un proyecto con total garantía de éxito.
Este programa no solo incluye un temario completo y especializado, diseñado exclusivamente por ingenieros versados en este sector, sino material adicional presentado en diferentes formatos para permitirle ahondar en cada apartado de manera personalizada. Todo ello, a través del Aula Virtual, a la cual podrá acceder desde cualquier dispositivo con conexión a internet y con un horario totalmente adaptado a su disponibilidad. Por último, podrá cursar 120 horas de estancia práctica en un centro de referencia, lo cual le permitirá perfeccionar sus competencias a través de la participación activa en proyectos informáticos e implementar a su currículum un distintivo de prestigio que lo hará destacar en cualquier proceso de selección de personal.
Una titulación completa que aúna la mejor teoría 100% online y la práctica garantizada en 12 meses de capacitación especializada”
Este Máster de Formación Permanente Semipresencial en Visión Artificial contiene el programa más completo y actualizado del mercado. Sus características más destacadas son:
- Desarrollo de más de 100 casos presentados por profesionales de la Informática expertos en dirección de proyectos, análisis y diseño de software y programación de aplicaciones de control de calidad, gestión de clientes y proveedores
- Sus contenidos gráficos, esquemáticos y eminentemente prácticos con los que están concebidos, recogen una información actualizada y avanzada sobre Inteligencia Artificial y Visión Artificial
- Manejo integral de imágenes a exportar, análisis de contenidos y datos en base a sistemas de Visión Artificial, trabajos con plataformas de Cloud Computing usual
- Entendimiento exhaustivo del manejo de dispositivos de realidad aumentada, así como el control de los software más habituales de procesado de imágenes en 3D
- Todo esto se complementará con lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual
- Disponibilidad de los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet
- Además, podrás realizar una estancia de prácticas en una de las mejores empresas de Informática
Contarás con cientos de horas de material adicional de gran calidad y presentado en diversos formatos, para que puedas ahondar de manera personalizada en cada apartado durante el periodo teórico”
En esta propuesta de Máster, de carácter profesional y modalidad semipresencial, el programa está dirigido a la actualización de profesionales de la informática que desarrollan sus funciones en el sector de la ingeniería especializada en Inteligencia Artificial, y que requieren un alto nivel de cualificación. Los contenidos están basados en las últimas evidencias del sector, y orientados de manera didáctica para integrar el saber teórico en la práctica informática, y los elementos teórico-prácticos facilitarán la actualización del conocimiento y permitirán la toma de decisiones en la gestión y dirección de proyectos.
Gracias a su contenido multimedia elaborado con la última tecnología educativa, permitirán al especialista disfrutar de un aprendizaje situado y contextual, es decir; un entorno simulado que proporcionará una capacitación inmersiva programada para entrenarse ante situaciones reales. El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del mismo. Para ello, contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.
Un programa especializado en procesado de imágenes 3D con el que conocer al detalle las estrategias de registro y Meshing más efectivas en la actualidad”
Adquirirás el dominio del procesado digital avanzado de imágenes propio de un experto en el sector"
Temario
Para la elaboración del plan de estudios de este programa 100% online, TECH ha tenido en consideración el criterio del equipo docente, el cual, siguiendo los estrictos parámetros de calidad exigidos por este centro, han seleccionado la información más actualizada y exhaustiva basada en la Visión Artificial. Gracias a ello, al empleo de la metodología pedagógica del Relearning, y a la selección del mejor material adicional presentado en diferentes formatos, ha sido posible elaborar un programa dinámico, novedoso y altamente capacitante. Justo lo que el estudiante necesita para dominar, en tan solo 12 meses, esta disciplina científica.
Realizar una correcta segmentación de imágenes avanzadas mediante diferentes herramientas de frameworks te parecerá una tarea sencilla de realizar tras la superación de este programa”
Módulo 1. Visión artificial
1.1. Percepción humana
1.1.1. Sistema visual humano
1.1.2. El color
1.1.3. Frecuencias visibles y no visibles
1.2. Crónica de la Visión Artificial
1.2.1. Principios
1.2.2. Evolución
1.2.3. La importancia de la visión artificial
1.3. Composición de imágenes digitales
1.3.1. La imagen digital
1.3.2. Tipos de imágenes
1.3.3. Espacios de color
1.3.4. RGB
1.3.5. HSV y HSL
1.3.6. CMY-CMYK
1.3.7. YCbCr
1.3.8. Imagen indexada
1.4. Sistemas de captación de imágenes
1.4.1. Funcionamiento de una cámara digital
1.4.2. La correcta exposición para cada situación
1.4.3. Profundidad de campo
1.4.4. Resolución
1.4.5. Formatos de imagen
1.4.6. Modo HDR
1.4.7. Cámaras de alta resolución
1.4.8. Cámaras de alta velocidad
1.5. Sistemas Ópticos
1.5.1. Principios ópticos
1.5.2. Objetivos convencionales
1.5.3. Objetivos telecéntricos
1.5.4. Tipos de autoenfoque
1.5.5. Distancia focal
1.5.6. Profundidad de campo
1.5.7. Distorsión óptica
1.5.8. Calibración de una imagen
1.6. Sistemas de iluminación
1.6.1. Importancia de la iluminación
1.6.2. Respuesta frecuencial
1.6.3. Iluminación Led
1.6.4. Iluminación en exteriores
1.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos
1.7. Sistemas Captación 3D
1.7.1. Estéreo Visión
1.7.2. Triangulación
1.7.3. Luz estructurada
1.7.4. Time of Flight
1.7.5. Lidar
1.8. Multiespectro
1.8.1. Cámaras Multiespectrales
1.8.2. Cámaras Hiperespectrales
1.9. Espectro cercano No visible
1.9.1. Cámaras IR
1.9.2. Cámaras UV
1.9.3. Convertir de No visible a Visible gracias a la iluminación
1.10. Otras bandas del espectro
1.10.1. Rayos X
1.10.2. Teraherzios
Módulo 2. Aplicaciones y estado del arte
2.1. Aplicaciones industriales
2.1.1. Librerías de visión industrial
2.1.2. Cámaras compactas
2.1.3. Sistemas basados en PC
2.1.4. Robótica industrial
2.1.5. Pick and place 2D
2.1.6. Bin picking
2.1.7. Control de calidad
2.1.8. Presencia ausencia de componentes
2.1.9. Control dimensional
2.1.10. Control etiquetaje
2.1.11. Trazabilidad
2.2. Vehículos autónomos
2.2.1. Asistencia al conductor
2.2.2. Conducción autónoma
2.3. Visión Artificial para Análisis de Contenidos
2.3.1. Filtro por contenido
2.3.2. Moderación de contenido visual
2.3.3. Sistemas de seguimiento
2.3.4. Identificación de marcas y logos
2.3.5. Etiquetación y clasificación de videos
2.3.6. Detección de cambios de escena
2.3.7. Extracción de textos o créditos
2.4. Aplicaciones médicas
2.4.1. Detección y localización de enfermedades
2.4.2. Cáncer y Análisis de radiografías
2.4.3. Avances en visión artificial dada la COVID-19
2.4.4. Asistencia en el quirófano
2.5. Aplicaciones espaciales
2.5.1. Análisis de imagen por satélite
2.5.2. Visión artificial para el estudio del espacio
2.5.3. Misión a Marte
2.6. Aplicaciones comerciales
2.6.1. Control stock
2.6.2. Videovigilancia, seguridad en casa
2.6.3. Cámaras aparcamiento
2.6.4. Cámaras control población
2.6.5. Cámaras velocidad
2.7. Visión Aplicada a la Robótica
2.7.1. Drones
2.7.2. AGV
2.7.3. Visión en robots colaborativos
2.7.4. Los ojos de los robots
2.8. Realidad Aumentada
2.8.1. Funcionamiento
2.8.2. Dispositivos
2.8.3. Aplicaciones en la industria
2.8.4. Aplicaciones comerciales
2.9. Cloud computing
2.9.1. Plataformas de Cloud Computing
2.9.2. Del Cloud Computing a la producción
2.10. Investigación y estado del arte
2.10.1. La comunidad científica
2.10.2. Qué se está cociendo
2.10.3. El futuro de la visión artificial
Módulo 3. Procesado digital de imágenes
3.1. Entorno de desarrollo en Visión por Computador
3.1.1. Librerías de Visión por Computador
3.1.2. Entorno de programación
3.1.3. Herramientas de visualización
3.2. Procesamiento digital de imágenes
3.2.1. Relaciones entre pixeles
3.2.2. Operaciones con imágenes
3.2.3. Transformaciones geométricas
3.3. Operaciones de pixeles
3.3.1. Histograma
3.3.2. Transformaciones a partir de histograma
3.3.3. Operaciones en imágenes en color
3.4. Operaciones lógicas y aritméticas
3.4.1. Suma y resta
3.4.2. Producto y División
3.4.3. And/Nand
3.4.4. Or/Nor
3.4.5. Xor/Xnor
3.5. Filtros
3.5.1. Máscaras y convolución
3.5.2. Filtrado lineal
3.5.3. Filtrado no lineal
3.5.4. Análisis de Fourier
3.6. Operaciones morfológicas
3.6.1. Erode and dilating
3.6.2. Closing and open
3.6.3. Top_hat y black hat
3.6.4. Detección de contornos
3.6.5. Esqueleto
3.6.6. Relleno de agujeros
3.6.7. Convex hull
3.7. Herramientas de análisis de imágenes
3.7.1. Detección de bordes
3.7.2. Detección de blobs
3.7.3. Control dimensional
3.7.4. Inspección de color
3.8. Segmentación de objetos
3.8.1. Segmentación de imágenes
3.8.2. Técnicas de segmentación clásicas
3.8.3. Aplicaciones reales
3.9. Calibración de imágenes
3.9.1. Calibración de imagen
3.9.2. Métodos de calibración
3.9.3. Proceso de calibración en un sistema cámara 2D/robot
3.10. Procesado de imágenes en entorno real
3.10.1. Análisis de la problemática
3.10.2. Tratamiento de la imagen
3.10.3. Extracción de características
3.10.4. Resultados finales
Módulo 4. Procesado digital de imágenes avanzado
4.1. Reconocimiento óptico de caracteres (OCR)
4.1.1. Preprocesado de la imagen
4.1.2. Detección de texto
4.1.3. Reconocimiento de texto
4.2. Lectura de códigos
4.2.1. Códigos 1D
4.2.2. Códigos 2D
4.2.3. Aplicaciones
4.3. Búsqueda de patrones
4.3.1. Búsqueda de patrones
4.3.2. Patrones basados en nivel de gris
4.3.3. Patrones basados en contornos
4.3.4. Patrones basados en formas geométricas
4.3.5. Otras técnicas
4.4. Seguimiento de objetos con visión convencional
4.4.1. Extracción de fondo
4.4.2. Meanshift
4.4.3. Camshift
4.4.4. Optical flow
4.5. Reconocimiento facial
4.5.1. Facial Landmark detection
4.5.2. Aplicaciones
4.5.3. Reconocimiento facial
4.5.4. Reconocimiento de emociones
4.6. Panorámica y alineaciones
4.6.1. Stitching
4.6.2. Composición de imágenes
4.6.3. Fotomontaje
4.7. High Dinamic Range (HDR) and Photometric Stereo
4.7.1. Incremento del rango dinámico
4.7.2. Composición de imágenes para mejorar contornos
4.7.3. Técnicas para el uso de aplicaciones en dinámico
4.8. Compresión de imágenes
4.8.1. La compresión de imágenes
4.8.2. Tipos de compresores
4.8.3. Técnicas de compresión de imágenes
4.9. Procesado de video
4.9.1. Secuencias de imágenes
4.9.2. Formatos y códecs de video
4.9.3. Lectura de un video
4.9.4. Procesado del fotograma
4.10. Aplicación real de procesado de Imágenes
4.10.1. Análisis de la problemática
4.10.2. Tratamiento de la imagen
4.10.3. Extracción de características
4.10.4. Resultados finales
Módulo 5. Procesado de imágenes 3D
5.1. Imagen 3D
5.1.1. Imagen 3D
5.1.2. Software de procesado de imágenes 3d y visualizaciones
5.1.3. Software de Metrología
5.2. Open3D
5.2.1. Librería para Proceso de Datos 3D
5.2.2. Características
5.2.3. Instalación y Uso
5.3. Los datos
5.3.1. Mapas de profundidad en imagen 2D
5.3.2. Pointclouds
5.3.3. Normales
5.3.4. Superficies
5.4. Visualización
5.4.1. Visualización de Datos
5.4.2. Controles
5.4.3. Visualización Web
5.5. Filtros
5.5.1. Distancia entre puntos, eliminar Outliers
5.5.2. Filtro paso alto
5.5.3. Downsampling
5.6. Geometría y extracción de características
5.6.1. Extracción de un perfil
5.6.2. Medición de profundidad
5.6.3. Volumen
5.6.4. Formas geométricas 3D
5.6.5. Planos
5.6.6. Proyección de un punto
5.6.7. Distancias geométricas
5.6.8. Kd Tree
5.6.9. Features 3D
5.7. Registro y meshing
5.7.1. Concatenación
5.7.2. ICP
5.7.3. Ransac 3D
5.8. Reconocimiento de objetos 3D
5.8.1. Búsqueda de un objeto en la escena 3d
5.8.2. Segmentación
5.8.3. Bin picking
5.9. Análisis de superficies
5.9.1. Smoothing
5.9.2. Superficies orientables
5.9.3. Octree
5.10. Triangulación
5.10.1. De Mesh a Point Cloud
5.10.2. Triangulación de mapas de profundidad
5.10.3. Triangulación de PointClouds no ordenados
Módulo 6. Deep learning
6.1. Inteligencia artificial
6.1.1. Machine Learning
6.1.2. Deep Learning
6.1.3. La explosión del Deep Learning. Por qué ahora
6.2. Redes neuronales
6.2.1. La red neuronal
6.2.2. Usos de las redes neuronales
6.2.3. Regresión lineal y perceptron
6.2.4. Forward propagation
6.2.5. Backpropagation
6.2.6. Feature vectors
6.3. Loss Functions
6.3.1. Loss function
6.3.2. Tipos de loss functions
6.3.3. Elección de la loss functions
6.4. Funciones de activación
6.4.1. Función de activación
6.4.2. Funciones lineales
6.4.3. Funciones no lineales
6.4.4. Output vs. Hidden layer activation functions
6.5. Regularización y normalización
6.5.1. Regularización y Normalización
6.5.2. Overfitting and Data Augmentation
6.5.3. Regularization methods: L1, L2 and dropout
6.5.4. Normalization methods: batch, weight, layer
6.6. Optimización
6.6.1. Gradient Descent
6.6.2. Stochastic Gradient Descent
6.6.3. Mini Batch Gradient Descent
6.6.4. Momentum
6.6.5. Adam
6.7. Hyperparameter tuning y Pesos
6.7.1. Los hiperparámetros
6.7.2. Batch Size vs. Learning Rate vs. Step Decay
6.7.3. Pesos
6.8. Métricas de evaluación de una red neuronal
6.8.1. Accuracy
6.8.2. Dice coefficient
6.8.3. Sensitivity vs. Specificity/Recall vs. Precision
6.8.4. Curva ROC (AUC)
6.8.5. F1-score
6.8.6. Confusion matrix
6.8.7. Cross-validation
6.9. Frameworks y hardware
6.9.1. Tensor Flow
6.9.2. Pytorch
6.9.3. Caffe
6.9.4. Keras
6.9.5. Hardware para la fase de entrenamiento
6.10. Creación de una Red Neuronal-Entrenamiento y Validación
6.10.1. Dataset
6.10.2. Construcción de la red
6.10.3. Entrenamiento
6.10.4. Visualización de resultados
Módulo 7. Redes convolucionales y clasificación de imágenes
7.1. Redes neuronales convolucionales
7.1.1. Introducción
7.1.2. La convolución
7.1.3. CNN Building Blocks
7.2. Tipos de capas CNN
7.2.1. Convolutional
7.2.2. Activation
7.2.3. Batch normalization
7.2.4. Polling
7.2.5. Fully connected
7.3. Métricas
7.3.1. Confusion Matrix
7.3.2. Accuracy
7.3.3. Precision
7.3.4. Recall
7.3.5. F1 Score
7.3.6. ROC Curve
7.3.7. AUC
7.4. Principales Arquitecturas
7.4.1. AlexNet
7.4.2. VGG
7.4.3. Resnet
7.4.4. GoogleLeNet
7.5. Clasificación de Imágenes
7.5.1. Introducción
7.5.2. Análisis de los datos
7.5.3. Preparación de los datos
7.5.4. Entrenamiento del modelo
7.5.5. Validación del modelo
7.6. Consideraciones prácticas para el entrenamiento de CNN
7.6.1. Selección de optimizador
7.6.2. Learning Rate Scheduler
7.6.3. Comprobar pipeline de entrenamiento
7.6.4. Entrenamiento con regularización
7.7. Buenas prácticas en Deep Learning
7.7.1. Transfer learning
7.7.2. Fine Tuning
7.7.3. Data Augmentation
7.8. Evaluación estadística de datos
7.8.1. Número de datasets
7.8.2. Número de etiquetas
7.8.3. Número de imágenes
7.8.4. Balanceo de datos
7.9. Deployment
7.9.1. Guardando y cargando modelos
7.9.2. Onnx
7.9.3. Inferencia
7.10. Caso Práctico: clasificación de Imágenes
7.10.1. Análisis y preparación de los datos
7.10.2. Testeo del pipeline de entrenamiento
7.10.3. Entrenamiento del modelo
7.10.4. Validación del modelo
Módulo 8. Detección de objetos
8.1. Detección y seguimiento de objetos
8.1.1. Detección de objetos
8.1.2. Casos de uso
8.1.3. Seguimiento de objetos
8.1.4. Casos de uso
8.1.5. Oclusiones, Rigid and No Rigid Poses
8.2. Métricas de Evaluación
8.2.1. IOU-Intersection Over Union
8.2.2. Confidence Score
8.2.3. Recall
8.2.4. Precisión
8.2.5. Recall-Precisión Curve
8.2.6. Mean Average Precision (mAP)
8.3. Métodos tradicionales
8.3.1. Sliding window
8.3.2. Viola detector
8.3.3. HOG
8.3.4. Non Maximal Supresion (NMS)
8.4. Datasets
8.4.1. Pascal VC
8.4.2. MS Coco
8.4.3. ImageNet (2014)
8.4.4. MOTA Challenge
8.5. Two shot bbject detector
8.5.1. R-CNN
8.5.2. Fast R-CNN
8.5.3. Faster R-CNN
8.5.4. Mask R-CNN
8.6. Single shot object detector
8.6.1. SSD
8.6.2. YOLO
8.6.3. RetinaNet
8.6.4. CenterNet
8.6.5. EfficientDet
8.7. Backbones
8.7.1. VGG
8.7.2. ResNet
8.7.3. Mobilenet
8.7.4. Shufflenet
8.7.5. Darknet
8.8. Object tracking
8.8.1. Enfoques clásicos
8.8.2. Filtros de partículas
8.8.3. Kalman
8.8.4. Sort tracker
8.8.5. Deep Sort
8.9. Despliegue
8.9.1. Plataforma de computación
8.9.2. Elección del backbone
8.9.3. Elección del Framework
8.9.4. Optimización de modelos
8.9.5. Versionado de modelos
8.10. Estudio: detección y seguimiento de personas
8.10.1. Detección de personas
8.10.2. Seguimiento de personas
8.10.3. Reidentificación
8.10.4. Conteo de personas en multitudes
Módulo 9. Segmentación de imágenes con deep learning
9.1. Detección de objetos y segmentación
9.1.1. Segmentación semántica
9.1.1.1. Casos de uso de segmentación semántica
9.1.2. Segmentación Instanciada
9.1.2.1. Casos de uso segmentación instanciada
9.2. Métricas de evaluación
9.2.1. Similitudes con otros métodos
9.2.2. Pixel Accuracy
9.2.3. Dice Coefficient (F1 Score)
9.3. Funciones de coste
9.3.1. Dice Loss
9.3.2. Focal Loss
9.3.3. Tversky Loss
9.3.4. Otras funciones
9.4. Métodos tradicionales de segmentación
9.4.1. Aplicación de umbral con Otsu y Riddlen
9.4.2. Mapas auto organizados
9.4.3. GMM-EM algorithm
9.5. Segmentación Semántica aplicando Deep Learning: FCN
9.5.1. FCN
9.5.2. Arquitectura
9.5.3. Aplicaciones de FCN
9.6. Segmentación semántica aplicando Deep Learning: U-NET
9.6.1. U-NET
9.6.2. Arquitectura
9.6.3. Aplicación U-NET
9.7. Segmentación semántica aplicando Deep Learning: Deep Lab
9.7.1. Deep Lab
9.7.2. Arquitectura
9.7.3. Aplicación de Deep Lab
9.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN
9.8.1. Mask RCNN
9.8.2. Arquitectura
9.8.3. Aplicación de un Mask RCNN
9.9. Segmentación en videos
9.9.1. STFCN
9.9.2. Semantic Video CNNs
9.9.3. Clockwork Convnets
9.9.4. Low-Latency
9.10. Segmentación en nubes de puntos
9.10.1. La nube de puntos
9.10.2. PointNet
9.10.3. A-CNN
Módulo 10. Segmentación de imágenes avanzada y técnicas avanzadas de Visión por Computador
10.1. Base de datos para problemas de Segmentación General
10.1.1. Pascal Context
10.1.2. CelebAMask-HQ
10.1.3. Cityscapes Dataset
10.1.4. CCP Dataset
10.2. Segmentación Semántica en la Medicina
10.2.1. Segmentación Semántica en la Medicina
10.2.2. Datasets para problemas médicos
10.2.3. Aplicación práctica
10.3. Herramientas de anotación
10.3.1. Computer Vision Annotation Tool
10.3.2. LabelMe
10.3.3. Otras herramientas
10.4. Herramientas de Segmentación usando diferentes frameworks
10.4.1. Keras
10.4.2. Tensorflow v2
10.4.3. Pytorch
10.4.4. Otros
10.5. Proyecto Segmentación semántica. Los datos. Fase 1
10.5.1. Análisis del problema
10.5.2. Fuente de entrada para datos
10.5.3. Análisis de datos
10.5.4. Preparación de datos
10.6. Proyecto Segmentación semántica. Entrenamiento. Fase 2
10.6.1. Selección del algoritmo
10.6.2. Entrenamiento
10.6.3. Evaluación
10.7. Proyecto Segmentación semántica. Resultados. Fase 3
10.7.1. Ajuste fino
10.7.2. Presentación de la solución
10.7.3. Conclusiones
10.8. Autocodificadores
10.8.1. Autocodificadores
10.8.2. Arquitectura de un Autocodificador
10.8.3. Autocodificadores de Eliminación de Ruido
10.8.4. Autocodificador de Coloración Automática
10.9. Las Redes Generativas Adversariales (GAN)
10.9.1. Redes Generativas Adversariales (GAN)
10.9.2. Arquitectura DCGAN
10.9.3. Arquitectura GAN Condicionada
10.10. Redes Generativas Adversariales Mejoradas
10.10.1. Visión general del problema
10.10.2. WGAN
10.10.3. LSGAN
10.10.4. ACGAN
Estás a un solo clic de poder dominar el Deep Learning y sus diferentes métodos de segmentación (FCN, U-NET, Deep Lab y Mask RCNN) con este Máster de Formación Permanente Semipresencial”
Máster Semipresencial en Visión Artificial
La visión artificial es un campo en constante crecimiento y evolución. En un mundo cada vez más digital, la visión artificial se ha convertido en una herramienta clave para la automatización y mejora de procesos en diferentes áreas como la medicina, la industrialización, la seguridad y la robótica, entre otras. Es por ello que en TECH Universidad Tecnológica hemos creado el Máster Semipresencial en Visión Artificial, para capacitar a los profesionales que deseen especializarse en este campo. Este programa, diseñado por expertosen la materia, combina clases presenciales con una plataforma virtual, lo que permite al estudiante adaptar su horario de estudio a sus necesidades, sin tener que renunciar a la interacción con el profesorado y los demás estudiantes.
Estudia en la Mayor Facultad de Informática
Uno de los principales beneficios de nuestro programa de Máster en Visión Artificial es la actualización constante de contenidos y técnicas, lo que permite a nuestros estudiantes estar a la vanguardia de los avances en la materia. Además, nuestros profesores cuentan con amplia experiencia en el sector y están a disposición de los estudiantes para resolver cualquier duda y guiarlos en su proceso de aprendizaje. Algunos de los temas que se tratarán en el programa son la inteligencia artificial, el procesamiento de imágenes, el aprendizaje profundo, la robótica, la detección y reconocimiento de patrones, entre otros. De esta manera, los estudiantes adquirirán las habilidades y conocimientos necesarios para desarrollar proyectos de visión artificial de forma autónoma y para colaborar en equipos multidisciplinarios en diferentes sectores. ¿Sabes por qué TECH está considerada una de las mejores universidades del mundo? Porque contamos con un catálogo de más de diez mil programas académicos, presencia en múltiples países, metodologías innovadoras, tecnología académica única y un equipo docente altamente cualificado. En resumen, el Máster Semipresencial en Visión Artificial de TECH Universidad Tecnológica es una excelente oportunidad para aquellos profesionales que desean especializarse en un área en constante crecimiento, y que buscan una formación de calidad y adaptada a sus necesidades.