Apresentação

Está a poucos passos de mergulhar numa experiência académica única que lhe dará os conhecimentos teóricos e práticos necessários para se destacar como especialista em Visão Artificial"

##IMAGE##

A evolução da inteligência artificial e da Machine Learning, bem como o crescimento cada vez mais técnico e especializado da robótica, da realidade aumentada, da Big Data e da hiperautomatização, é o que permitiu o desenvolvimento da Visão Artificial. Com a aplicação dos seus métodos, é atualmente possível, por exemplo, descobrir falhas durante a produção, bem como identificar discriminadamente resultados defeituosos. Graças à versatilidade dos seus complexos sistemas algorítmicos, é plausível empregá-la numa multiplicidade de indústrias e processos: eletrónica (leitura de códigos), embalagem (rotulagem ou verificação de impressões), logística (deteção de materiais perigosos), automóvel (controlo de qualidade) ou saúde (leitura e verificação de embalagens ou raios X), etc.

O facto de este ser um setor com um futuro cheio de oportunidades e possibilidades foi o que levou a TECH a desenvolver este Mestrado próprio b-learning em Visão Artificial. Trata-se de um curso intensivo e exaustivo que proporcionará ao aluno um conhecimento amplo e especializado desta ciência, das suas técnicas e aplicações atuais. Através de 1500 horas da melhor formação teórica e prática, o profissional de informática conhecerá em pormenor os meandros dos sistemas inteligentes, sendo capaz de desenvolver sozinho um projeto com total garantia de sucesso.

Este curso inclui não só um programa curricular completo e especializado, concebido exclusivamente por engenheiros com experiência neste setor, mas também material adicional apresentado em diferentes formatos para permitir o aprofundamento de cada secção. Tudo isto através da Aula Virtual, à qual poderá aceder a partir de qualquer dispositivo com ligação à internet e com um horário totalmente adaptado à sua disponibilidade. Finalmente, poderá realizar 120 horas de estágio num centro de referência, o que lhe permitirá aperfeiçoar as suas competências através da participação ativa em projetos informáticos e acrescentar ao seu currículo um selo de prestígio que o destacará em qualquer processo de seleção.

Uma capacitação completa que combina a melhor teoria 100% online e a prática garantida em 12 meses de formação especializada"

Este Mestrado próprio b-learning em Visão Artificial conta com o conteúdo educativo mais completo e atualizado do mercado. As características que mais se destacam são:

  • Desenvolvimento de mais de 100 casos de estudo apresentados por profissionais de informática com experiência em gestão de projetos, análise e conceção de software e programação de aplicações de controlo de qualidade, gestão de clientes e fornecedores
  • O seu conteúdo gráfico, esquemático e eminentemente prático foi concebido para fornecer informações atualizadas e avançadas sobre Inteligência Artificial e Visão Artificial
  • Tratamento integral das imagens a exportar, análise de conteúdos e dados com base em sistemas de Visão Artificial, trabalho com plataformas de Cloud Computing usual
  • Conhecimento exaustivo do manuseamento de dispositivos de realidade aumentada, bem como do controlo dos softwares de tratamento de imagens 3D mais comuns
  • Tudo isto será complementado por lições teóricas, perguntas a especialistas, fóruns de discussão sobre questões controversas e atividades de reflexão individual
  • Disponibilidade de acesso aos conteúdos a partir de qualquer dispositivo fixo ou portátil com ligação à internet
  • Além disso, terá a possibilidade de efetuar um estágio numa das melhores empresas de informática

Terá à sua disposição centenas de horas de material adicional de alta qualidade, apresentado em vários formatos, para que possa aprofundar cada secção de forma personalizada durante o período teórico"

Este Mestrado, de natureza profissional e ministrado numa modalidade de blended learning, destina-se a atualizar os profissionais de Informática que desempenhem as suas funções no setor da engenharia especializada em Inteligência Artificial e que requerem um elevado nível de qualificação. Os conteúdos são baseados nas mais recentes evidências do setor e orientados de forma didática para integrar os conhecimentos teóricos na prática informática, sendo que os elementos teórico-práticos facilitarão a atualização dos conhecimentos e permitirão a tomada de decisões na gestão de projetos.

Graças aos seus conteúdos multimédia, desenvolvidos com a mais recente tecnologia educativa, permitirá ao profissional uma aprendizagem situada e contextual, ou seja, um ambiente simulado que proporcionará uma aprendizagem imersiva programada para praticar em situações reais. A estrutura deste curso centra-se na Aprendizagem Baseada em Problemas, na qual o aluno deve tentar resolver as diferentes situações de prática profissional que surgem durante o mesmo. 
Para tal, contará com a ajuda de um sistema inovador de vídeos interativos criados por especialistas reconhecidos.

Uma formação especializada no processamento de imagens 3D com o qual pode aprender em pormenor as estratégias de registo e Meshing mais eficazes atualmente disponíveis"

##IMAGE##

Adquirirá as competências avançadas de processamento digital de imagens de um especialista do setor"

Temario

Para la elaboración del plan de estudios de este programa 100% online, TECH ha tenido en consideración el criterio del equipo docente, el cual, siguiendo los estrictos parámetros de calidad exigidos por este centro, han seleccionado la información más actualizada y exhaustiva basada en la Visión Artificial. Gracias a ello, al empleo de la metodología pedagógica del Relearning, y a la selección del mejor material adicional presentado en diferentes formatos, ha sido posible elaborar un programa dinámico, novedoso y altamente capacitante. Justo lo que el estudiante necesita para dominar, en tan solo 12 meses, esta disciplina científica.

posgrado semipresencial vision artificial

Realizar una correcta segmentación de imágenes avanzadas mediante diferentes herramientas de frameworks te parecerá una tarea sencilla de realizar tras la superación de este programa”

Módulo 1. Visión artificial

1.1. Percepción humana

1.1.1. Sistema visual humano
1.1.2. El color
1.1.3. Frecuencias visibles y no visibles

1.2. Crónica de la Visión Artificial

1.2.1. Principios
1.2.2. Evolución
1.2.3. La importancia de la visión artificial

1.3. Composición de imágenes digitales

1.3.1. La imagen digital
1.3.2. Tipos de imágenes
1.3.3. Espacios de color
1.3.4. RGB
1.3.5. HSV y HSL
1.3.6. CMY-CMYK
1.3.7. YCbCr
1.3.8. Imagen indexada

1.4. Sistemas de captación de imágenes

1.4.1. Funcionamiento de una cámara digital
1.4.2. La correcta exposición para cada situación
1.4.3. Profundidad de campo
1.4.4. Resolución
1.4.5. Formatos de imagen
1.4.6. Modo HDR
1.4.7. Cámaras de alta resolución
1.4.8. Cámaras de alta velocidad

1.5. Sistemas Ópticos

1.5.1. Principios ópticos
1.5.2. Objetivos convencionales
1.5.3. Objetivos telecéntricos
1.5.4. Tipos de autoenfoque
1.5.5. Distancia focal
1.5.6. Profundidad de campo
1.5.7. Distorsión óptica
1.5.8. Calibración de una imagen

1.6. Sistemas de iluminación

1.6.1. Importancia de la iluminación
1.6.2. Respuesta frecuencial
1.6.3. Iluminación Led
1.6.4. Iluminación en exteriores
1.6.5. Tipos de iluminaciones para aplicaciones industriales. Efectos

1.7. Sistemas Captación 3D

1.7.1. Estéreo Visión
1.7.2. Triangulación
1.7.3. Luz estructurada
1.7.4. Time of Flight
1.7.5. Lidar

1.8. Multiespectro

1.8.1. Cámaras Multiespectrales
1.8.2. Cámaras Hiperespectrales

1.9. Espectro cercano No visible

1.9.1. Cámaras IR
1.9.2. Cámaras UV
1.9.3. Convertir de No visible a Visible gracias a la iluminación

1.10. Otras bandas del espectro

1.10.1. Rayos X
1.10.2. Teraherzios

Módulo 2. Aplicaciones y estado del arte

2.1. Aplicaciones industriales

2.1.1. Librerías de visión industrial
2.1.2. Cámaras compactas
2.1.3. Sistemas basados en PC
2.1.4. Robótica industrial
2.1.5. Pick and place 2D
2.1.6. Bin picking
2.1.7. Control de calidad
2.1.8. Presencia ausencia de componentes
2.1.9. Control dimensional
2.1.10. Control etiquetaje
2.1.11. Trazabilidad

2.2. Vehículos autónomos

2.2.1. Asistencia al conductor
2.2.2. Conducción autónoma

2.3. Visión Artificial para Análisis de Contenidos

2.3.1. Filtro por contenido
2.3.2. Moderación de contenido visual
2.3.3. Sistemas de seguimiento
2.3.4. Identificación de marcas y logos
2.3.5. Etiquetación y clasificación de videos
2.3.6. Detección de cambios de escena
2.3.7. Extracción de textos o créditos

2.4. Aplicaciones médicas

2.4.1. Detección y localización de enfermedades
2.4.2. Cáncer y Análisis de radiografías
2.4.3. Avances en visión artificial dada la COVID-19
2.4.4. Asistencia en el quirófano

2.5. Aplicaciones espaciales

2.5.1. Análisis de imagen por satélite
2.5.2. Visión artificial para el estudio del espacio
2.5.3. Misión a Marte

2.6. Aplicaciones comerciales

2.6.1. Control stock
2.6.2. Videovigilancia, seguridad en casa
2.6.3. Cámaras aparcamiento
2.6.4. Cámaras control población
2.6.5. Cámaras velocidad

2.7. Visión Aplicada a la Robótica

2.7.1. Drones
2.7.2. AGV
2.7.3. Visión en robots colaborativos
2.7.4. Los ojos de los robots

2.8. Realidad Aumentada

2.8.1. Funcionamiento
2.8.2. Dispositivos
2.8.3. Aplicaciones en la industria
2.8.4. Aplicaciones comerciales

2.9. Cloud computing

2.9.1. Plataformas de Cloud Computing
2.9.2. Del Cloud Computing a la producción

2.10. Investigación y estado del arte

2.10.1. La comunidad científica
2.10.2. Qué se está cociendo
2.10.3. El futuro de la visión artificial

Módulo 3. Procesado digital de imágenes

3.1. Entorno de desarrollo en Visión por Computador

3.1.1. Librerías de Visión por Computador
3.1.2. Entorno de programación
3.1.3. Herramientas de visualización

3.2. Procesamiento digital de imágenes

3.2.1. Relaciones entre pixeles
3.2.2. Operaciones con imágenes
3.2.3. Transformaciones geométricas

3.3. Operaciones de pixeles

3.3.1. Histograma
3.3.2. Transformaciones a partir de histograma
3.3.3. Operaciones en imágenes en color

3.4. Operaciones lógicas y aritméticas

3.4.1. Suma y resta
3.4.2. Producto y División
3.4.3. And/Nand
3.4.4. Or/Nor
3.4.5. Xor/Xnor

3.5. Filtros

3.5.1. Máscaras y convolución
3.5.2. Filtrado lineal
3.5.3. Filtrado no lineal
3.5.4. Análisis de Fourier

3.6. Operaciones morfológicas

3.6.1. Erode and dilating
3.6.2. Closing and open
3.6.3. Top_hat y black hat
3.6.4. Detección de contornos
3.6.5. Esqueleto
3.6.6. Relleno de agujeros
3.6.7. Convex hull

3.7. Herramientas de análisis de imágenes

3.7.1. Detección de bordes
3.7.2. Detección de blobs
3.7.3. Control dimensional
3.7.4. Inspección de color

3.8. Segmentación de objetos

3.8.1. Segmentación de imágenes
3.8.2. Técnicas de segmentación clásicas
3.8.3. Aplicaciones reales

3.9. Calibración de imágenes

3.9.1. Calibración de imagen
3.9.2. Métodos de calibración
3.9.3. Proceso de calibración en un sistema cámara 2D/robot

3.10. Procesado de imágenes en entorno real

3.10.1. Análisis de la problemática
3.10.2. Tratamiento de la imagen
3.10.3. Extracción de características
3.10.4. Resultados finales

Módulo 4. Procesado digital de imágenes avanzado

4.1. Reconocimiento óptico de caracteres (OCR)

4.1.1. Preprocesado de la imagen
4.1.2. Detección de texto
4.1.3. Reconocimiento de texto

4.2. Lectura de códigos

4.2.1. Códigos 1D
4.2.2. Códigos 2D
4.2.3. Aplicaciones

4.3. Búsqueda de patrones

4.3.1. Búsqueda de patrones
4.3.2. Patrones basados en nivel de gris
4.3.3. Patrones basados en contornos
4.3.4. Patrones basados en formas geométricas
4.3.5. Otras técnicas

4.4. Seguimiento de objetos con visión convencional

4.4.1. Extracción de fondo
4.4.2. Meanshift
4.4.3. Camshift
4.4.4. Optical flow

4.5. Reconocimiento facial

4.5.1. Facial Landmark detection
4.5.2. Aplicaciones
4.5.3. Reconocimiento facial
4.5.4. Reconocimiento de emociones

4.6. Panorámica y alineaciones

4.6.1. Stitching
4.6.2. Composición de imágenes
4.6.3. Fotomontaje

4.7. High Dinamic Range (HDR) and Photometric Stereo

4.7.1. Incremento del rango dinámico
4.7.2. Composición de imágenes para mejorar contornos
4.7.3. Técnicas para el uso de aplicaciones en dinámico

4.8. Compresión de imágenes

4.8.1. La compresión de imágenes
4.8.2. Tipos de compresores
4.8.3. Técnicas de compresión de imágenes

4.9. Procesado de video

4.9.1. Secuencias de imágenes
4.9.2. Formatos y códecs de video
4.9.3. Lectura de un video
4.9.4. Procesado del fotograma

4.10. Aplicación real de procesado de Imágenes

4.10.1. Análisis de la problemática
4.10.2. Tratamiento de la imagen
4.10.3. Extracción de características
4.10.4. Resultados finales

Módulo 5. Procesado de imágenes 3D

5.1. Imagen 3D

5.1.1. Imagen 3D
5.1.2. Software de procesado de imágenes 3d y visualizaciones
5.1.3. Software de Metrología

5.2. Open3D

5.2.1. Librería para Proceso de Datos 3D
5.2.2. Características
5.2.3. Instalación y Uso

5.3. Los datos

5.3.1. Mapas de profundidad en imagen 2D
5.3.2. Pointclouds
5.3.3. Normales
5.3.4. Superficies

5.4. Visualización

5.4.1. Visualización de Datos
5.4.2. Controles
5.4.3. Visualización Web

5.5. Filtros

5.5.1. Distancia entre puntos, eliminar Outliers
5.5.2. Filtro paso alto
5.5.3. Downsampling

5.6. Geometría y extracción de características

5.6.1. Extracción de un perfil
5.6.2. Medición de profundidad
5.6.3. Volumen
5.6.4. Formas geométricas 3D
5.6.5. Planos
5.6.6. Proyección de un punto
5.6.7. Distancias geométricas
5.6.8. Kd Tree
5.6.9. Features 3D

5.7. Registro y meshing

5.7.1. Concatenación
5.7.2. ICP
5.7.3. Ransac 3D

5.8. Reconocimiento de objetos 3D

5.8.1. Búsqueda de un objeto en la escena 3d
5.8.2. Segmentación
5.8.3. Bin picking

5.9. Análisis de superficies

5.9.1. Smoothing
5.9.2. Superficies orientables
5.9.3. Octree

5.10. Triangulación

5.10.1. De Mesh a Point Cloud
5.10.2. Triangulación de mapas de profundidad
5.10.3. Triangulación de PointClouds no ordenados

Módulo 6. Deep learning

6.1. Inteligencia artificial

6.1.1. Machine Learning
6.1.2. Deep Learning
6.1.3. La explosión del Deep Learning. Por qué ahora

6.2. Redes neuronales

6.2.1. La red neuronal
6.2.2. Usos de las redes neuronales
6.2.3. Regresión lineal y perceptron
6.2.4. Forward propagation
6.2.5. Backpropagation
6.2.6. Feature vectors

6.3. Loss Functions

6.3.1. Loss function
6.3.2. Tipos de loss functions
6.3.3. Elección de la loss functions

6.4. Funciones de activación

6.4.1. Función de activación
6.4.2. Funciones lineales
6.4.3. Funciones no lineales
6.4.4. Output vs. Hidden layer activation functions

6.5. Regularización y normalización

6.5.1. Regularización y Normalización
6.5.2. Overfitting and Data Augmentation
6.5.3. Regularization methods: L1, L2 and dropout
6.5.4. Normalization methods: batch, weight, layer

6.6. Optimización

6.6.1. Gradient Descent
6.6.2. Stochastic Gradient Descent
6.6.3. Mini Batch Gradient Descent
6.6.4. Momentum
6.6.5. Adam

6.7. Hyperparameter tuning y Pesos

6.7.1. Los hiperparámetros
6.7.2. Batch Size vs. Learning Rate vs. Step Decay
6.7.3. Pesos

6.8. Métricas de evaluación de una red neuronal

6.8.1. Accuracy
6.8.2. Dice coefficient
6.8.3. Sensitivity vs. Specificity/Recall vs. Precision
6.8.4. Curva ROC (AUC)
6.8.5. F1-score
6.8.6. Confusion matrix
6.8.7. Cross-validation

6.9. Frameworks y hardware

6.9.1. Tensor Flow
6.9.2. Pytorch
6.9.3. Caffe
6.9.4. Keras
6.9.5. Hardware para la fase de entrenamiento

6.10. Creación de una Red Neuronal-Entrenamiento y Validación

6.10.1. Dataset
6.10.2. Construcción de la red
6.10.3. Entrenamiento
6.10.4. Visualización de resultados

Módulo 7. Redes convolucionales y clasificación de imágenes

7.1. Redes neuronales convolucionales

7.1.1. Introducción
7.1.2. La convolución
7.1.3. CNN Building Blocks

7.2. Tipos de capas CNN

7.2.1. Convolutional
7.2.2. Activation
7.2.3. Batch normalization
7.2.4. Polling
7.2.5. Fully connected

7.3. Métricas

7.3.1. Confusion Matrix
7.3.2. Accuracy
7.3.3. Precision
7.3.4. Recall
7.3.5. F1 Score
7.3.6. ROC Curve
7.3.7. AUC

7.4. Principales Arquitecturas

7.4.1. AlexNet
7.4.2. VGG
7.4.3. Resnet
7.4.4. GoogleLeNet

7.5. Clasificación de Imágenes

7.5.1. Introducción
7.5.2. Análisis de los datos
7.5.3. Preparación de los datos
7.5.4. Entrenamiento del modelo
7.5.5. Validación del modelo

7.6. Consideraciones prácticas para el entrenamiento de CNN

7.6.1. Selección de optimizador
7.6.2. Learning Rate Scheduler
7.6.3. Comprobar pipeline de entrenamiento
7.6.4. Entrenamiento con regularización

7.7. Buenas prácticas en Deep Learning

7.7.1. Transfer learning
7.7.2. Fine Tuning
7.7.3. Data Augmentation

7.8. Evaluación estadística de datos

7.8.1. Número de datasets
7.8.2. Número de etiquetas
7.8.3. Número de imágenes
7.8.4. Balanceo de datos

7.9. Deployment

7.9.1. Guardando y cargando modelos
7.9.2. Onnx
7.9.3. Inferencia

7.10. Caso Práctico: clasificación de Imágenes

7.10.1. Análisis y preparación de los datos
7.10.2. Testeo del pipeline de entrenamiento
7.10.3. Entrenamiento del modelo
7.10.4. Validación del modelo

Módulo 8. Detección de objetos

8.1. Detección y seguimiento de objetos

8.1.1. Detección de objetos
8.1.2. Casos de uso
8.1.3. Seguimiento de objetos
8.1.4. Casos de uso
8.1.5. Oclusiones, Rigid and No Rigid Poses

8.2. Métricas de Evaluación

8.2.1. IOU-Intersection Over Union
8.2.2. Confidence Score
8.2.3. Recall
8.2.4. Precisión
8.2.5. Recall-Precisión Curve
8.2.6. Mean Average Precision (mAP)

8.3. Métodos tradicionales

8.3.1. Sliding window
8.3.2. Viola detector
8.3.3. HOG
8.3.4. Non Maximal Supresion (NMS)

8.4. Datasets

8.4.1. Pascal VC
8.4.2. MS Coco
8.4.3. ImageNet (2014)
8.4.4. MOTA Challenge

8.5. Two shot bbject detector

8.5.1. R-CNN
8.5.2. Fast R-CNN
8.5.3. Faster R-CNN
8.5.4. Mask R-CNN

8.6. Single shot object detector

8.6.1. SSD
8.6.2. YOLO
8.6.3. RetinaNet
8.6.4. CenterNet
8.6.5. EfficientDet

8.7. Backbones

8.7.1. VGG
8.7.2. ResNet
8.7.3. Mobilenet
8.7.4. Shufflenet
8.7.5. Darknet

8.8. Object tracking

8.8.1. Enfoques clásicos
8.8.2. Filtros de partículas
8.8.3. Kalman
8.8.4. Sort tracker
8.8.5. Deep Sort

8.9. Despliegue

8.9.1. Plataforma de computación
8.9.2. Elección del backbone
8.9.3. Elección del Framework
8.9.4. Optimización de modelos
8.9.5. Versionado de modelos

8.10. Estudio: detección y seguimiento de personas

8.10.1. Detección de personas
8.10.2. Seguimiento de personas
8.10.3. Reidentificación
8.10.4. Conteo de personas en multitudes

Módulo 9. Segmentación de imágenes con deep learning

9.1. Detección de objetos y segmentación

9.1.1. Segmentación semántica

9.1.1.1. Casos de uso de segmentación semántica

9.1.2. Segmentación Instanciada

9.1.2.1. Casos de uso segmentación instanciada

9.2. Métricas de evaluación

9.2.1. Similitudes con otros métodos
9.2.2. Pixel Accuracy
9.2.3. Dice Coefficient (F1 Score)

9.3. Funciones de coste

9.3.1. Dice Loss
9.3.2. Focal Loss
9.3.3. Tversky Loss
9.3.4. Otras funciones

9.4. Métodos tradicionales de segmentación

9.4.1. Aplicación de umbral con Otsu y Riddlen
9.4.2. Mapas auto organizados
9.4.3. GMM-EM algorithm

9.5. Segmentación Semántica aplicando Deep Learning: FCN

9.5.1. FCN
9.5.2. Arquitectura
9.5.3. Aplicaciones de FCN

9.6. Segmentación semántica aplicando Deep Learning: U-NET

9.6.1. U-NET
9.6.2. Arquitectura
9.6.3. Aplicación U-NET

9.7. Segmentación semántica aplicando Deep Learning: Deep Lab

9.7.1. Deep Lab
9.7.2. Arquitectura
9.7.3. Aplicación de Deep Lab

9.8. Segmentación instanciada aplicando Deep Learning: Mask RCNN

9.8.1. Mask RCNN
9.8.2. Arquitectura
9.8.3. Aplicación de un Mask RCNN

9.9. Segmentación en videos

9.9.1. STFCN
9.9.2. Semantic Video CNNs
9.9.3. Clockwork Convnets
9.9.4. Low-Latency

9.10. Segmentación en nubes de puntos

9.10.1. La nube de puntos
9.10.2. PointNet
9.10.3. A-CNN

Módulo 10. Segmentación de imágenes avanzada y técnicas avanzadas de Visión por Computador

10.1. Base de datos para problemas de Segmentación General

10.1.1. Pascal Context
10.1.2. CelebAMask-HQ
10.1.3. Cityscapes Dataset
10.1.4. CCP Dataset

10.2. Segmentación Semántica en la Medicina

10.2.1. Segmentación Semántica en la Medicina
10.2.2. Datasets para problemas médicos
10.2.3. Aplicación práctica

10.3. Herramientas de anotación

10.3.1. Computer Vision Annotation Tool
10.3.2. LabelMe
10.3.3. Otras herramientas

10.4. Herramientas de Segmentación usando diferentes frameworks

10.4.1. Keras
10.4.2. Tensorflow v2
10.4.3. Pytorch
10.4.4. Otros

10.5. Proyecto Segmentación semántica. Los datos. Fase 1

10.5.1. Análisis del problema
10.5.2. Fuente de entrada para datos
10.5.3. Análisis de datos
10.5.4. Preparación de datos

10.6. Proyecto Segmentación semántica. Entrenamiento. Fase 2

10.6.1. Selección del algoritmo
10.6.2. Entrenamiento
10.6.3. Evaluación

10.7. Proyecto Segmentación semántica. Resultados. Fase 3

10.7.1. Ajuste fino
10.7.2. Presentación de la solución
10.7.3. Conclusiones

10.8. Autocodificadores

10.8.1. Autocodificadores
10.8.2. Arquitectura de un Autocodificador
10.8.3. Autocodificadores de Eliminación de Ruido
10.8.4. Autocodificador de Coloración Automática

10.9. Las Redes Generativas Adversariales (GAN)

10.9.1. Redes Generativas Adversariales (GAN)
10.9.2. Arquitectura DCGAN
10.9.3. Arquitectura GAN Condicionada

10.10. Redes Generativas Adversariales Mejoradas

10.10.1. Visión general del problema
10.10.2. WGAN
10.10.3. LSGAN
10.10.4. ACGAN

mejor master semipresencial vision artificial

Estás a un solo clic de poder dominar el Deep Learning y sus diferentes métodos de segmentación (FCN, U-NET, Deep Lab y Mask RCNN) con este Mestrado próprio b-learning”

Mestrado Próprio b-learning em Visão Artificial

A visão artificial é um campo em constante crescimento e evolução. Num mundo cada vez mais digital, a visão artificial tornou-se uma ferramenta chave para a automatização e melhoria dos processos em diferentes áreas como a medicina, a industrialização, a segurança e a robótica, entre outras. É por isso que na TECH Universidade Tecnológica criámos o Mestrado Próprio b-learning em Visão Artificial, para formar profissionais que desejem especializar-se neste campo. Este programa, concebido por especialistas na área, combina aulas presenciais com uma plataforma virtual, que permite ao aluno adaptar o seu horário de estudo às suas necessidades, sem ter de renunciar à interação com o corpo docente e outros alunos.

Estudar na maior Faculdade de Informática

Um dos principais benefícios do nosso Mestrado em Visão Computacional é a constante atualização de conteúdos e técnicas, o que permite aos nossos alunos estarem na vanguarda dos avanços na área. Além disso, os nossos professores têm uma vasta experiência no setor e estão à disposição dos alunos para responder a quaisquer perguntas e orientá-los no seu processo de aprendizagem. Alguns dos tópicos que serão abordados no programa são inteligência artificial, processamento de imagem, aprendizagem profunda, robótica, deteção e reconhecimento de padrões, entre outros. Desta forma, os alunos irão adquirir as competências e conhecimentos necessários para desenvolver projetos de visão artificial de forma autónoma e para colaborar com equipas multidisciplinares em diferentes setores. Sabe porque é que a TECH é considerada uma das melhores universidades do mundo? Porque temos um catálogo de mais de dez mil programas académicos, presença em múltiplos países, metodologias inovadoras, tecnologia académica única e uma equipa docente altamente qualificada. Em suma, o Mestrado Próprio b-learning em Visão Artificial da TECH Universidade Tecnológica é uma excelente oportunidade para os profissionais que desejam especializar-se numa área em constante crescimento e que procuram uma formação de qualidade adaptada às suas necessidades.