Qualificação universitária
A maior faculdade de Informática do mundo”
Porquê estudar no TECH?
Desenvolva competências essenciais em Robótica e Visão Artificial matriculando-se agora neste Advanced master da TECH"
A ascensão da Inteligência Artificial e da Robótica está a mudar o panorama tecnológico, económico e social por todo o mundo. A especialização em áreas como a visão artificial tornou-se crucial para nos mantermos na vanguarda nesta era de avanços rápidos e mudanças disruptivas. A crescente interação entre máquinas e seres humanos, bem como a necessidade de processar informações visuais de forma eficiente, exigem profissionais altamente qualificados que possam enfrentar estes desafios e liderar a inovação.
O Advanced master em Robótica e Visão Artificial oferece uma capacitação abrangente nestas disciplinas emergentes, cobrindo tópicos como Realidade Aumentada, Inteligência Artificial e processamento de informação visual em máquinas, entre outros. Os alunos beneficiarão de uma abordagem teórico-prática, aprendendo sobre os últimos desenvolvimentos em Robótica e Visão Artificial e a aplicar estes conhecimentos em ambientes reais.
Para além disso, o Advanced master é 100% online, o que permite aos alunos adaptarem a sua aprendizagem às suas circunstâncias pessoais e profissionais, facilitando-lhes a conciliação da aprendizagem com as suas próprias responsabilidades. Os alunos terão acesso a materiais didáticos de alta qualidade, tais como resumos em vídeos, leituras essenciais e vídeos detalhados que lhes proporcionarão uma visão global da robótica e da visão artificial.
Assim, o Advanced master em Robótica e Visão Artificial é uma oportunidade única para os informáticos que procuram diferenciar-se num mercado de trabalho altamente competitivo e adquirir competências especializadas num domínio com grande potencial de crescimento.
Domine as técnicas de visão artificial e torne-se num especialista em análise de imagens e sistemas de visão 3D"
Este Advanced master em Robótica e Visão Artificial conta com o conteúdo educacional mais completo e atualizado do mercado. As suas principais características são:
- O desenvolvimento de casos práticos apresentados por especialistas em Informática
- O conteúdo gráfico, esquemático e eminentemente prático do livro fornece informações científicas e práticas sobre as disciplinas que são essenciais para a prática profissional
- Exercícios práticos onde o processo de autoavaliação pode ser levado a cabo para melhorar a aprendizagem
- A sua ênfase especial em metodologias inovadoras no desenvolvimento de Robôs e Visão Artificial
- As palestras teóricas, perguntas a especialistas, fóruns de discussão sobre questões controversas e atividades de reflexão individual
- A disponibilidade de acesso ao conteúdo a partir de qualquer dispositivo fixo ou portátil com ligação à Internet
Descubra como a tecnologia robótica pode ser aplicada em diversos domínios, como a medicina e a exploração espacial, reforçando consideravelmente a sua proposta de valor"
O seu corpo docente inclui profissionais da área do jornalismo, que trazem a sua experiência profissional para este curso, assim como especialistas reconhecidos de empresas líderes e universidades de prestígio.
Graças ao seu conteúdo multimédia, desenvolvido com a mais recente tecnologia educacional, o profissional terá acesso a uma aprendizagem situada e contextual, ou seja, um ambiente de simulação que proporcionará um estudo imersivo programado para se formar em situações reais.
A estrutura deste curso baseia-se na Aprendizagem Baseada nos Problemas, através da qual o instrutor deve tentar resolver as diferentes situações da atividade profissional que surgem ao longo do curso académico. Para tal, o profissional contará com a ajuda de um sistema inovador de vídeo interativo desenvolvido por especialistas reconhecidos.
Potencialize os seus projetos explorando a aplicação da inteligência artificial e da aprendizagem automática na robótica"

Reforce as suas competências em algoritmos de planeamento e controlo para o desenvolvimento de robôs inteligentes e eficientes"
Programa de estudos
O Advanced master em Robótica e Visão Artificial foi concebido com uma estrutura e um conteúdo que garantem uma formação abrangente e especializada neste domínio. O curso é estruturado em vários módulos, começando com conceitos básicos e avançando progressivamente para temas mais complexos e específicos. Os alunos terão a oportunidade de aprender sobre conceção, programação e controlo de robôs, bem como sobre algoritmos de visão artificial e técnicas de aprendizagem automática.

Potencie a sua aprendizagem através de uma abordagem prática e teórica que lhe permitirá enfrentar desafios reais no mundo da robótica"
Módulo 1. Robótica. Conceção e modelação de robôs
1.1. Robótica e Indústria 4.0
1.1.1. Robótica e Indústria 4.0
1.1.2. Campos de aplicação e casos de utilização
1.1.3. Subáreas de especialização em Robótica
1.2. Arquiteturas de hardware e software de robôs
1.2.1. Arquiteturas de hardware e tempo real
1.2.2. Arquiteturas de software de robôs
1.2.3. Modelos de comunicação e tecnologias middleware
1.2.4. Integração de software com o Robot Operating System (ROS)
1.3. Modelação matemática de robôs
1.3.1. Representação matemática de sólidos rígidos
1.3.2. Rotações e translações
1.3.3. Representação hierárquica do estado
1.3.4. Representação distribuída de estados no ROS (Biblioteca TF)
1.4. Cinemática e dinâmica de robôs
1.4.1. Cinemática
1.4.2. Dinâmica
1.4.3. Robôs subatuados
1.4.4. Robôs redundantes
1.5. Modelação e simulação de robôs
1.5.1. Tecnologias de modelação de robôs
1.5.2. Modelação de robôs com URDF
1.5.3. Simulação de robôs
1.5.4. Modelação com o simulador Gazebo
1.6. Robôs manipuladores
1.6.1. Tipos de robôs manipuladores
1.6.2. Cinemática
1.6.3. Dinâmica
1.6.4. Simulação
1.7. Robôs móveis terrestres
1.7.1. Tipos de robôs móveis terrestres
1.7.2. Cinemática
1.7.3. Dinâmica
1.7.4. Simulação
1.8. Robôs móveis aéreos
1.8.1. Tipos de robôs móveis aéreos
1.8.2. Cinemática
1.8.3. Dinâmica
1.8.4. Simulação
1.9. Robôs móveis aquáticos
1.9.1. Tipos de robôs móveis aquáticos
1.9.2. Cinemática
1.9.3. Dinâmica
1.9.4. Simulação
1.10. Robôs bioinspirados
1.10.1. Humanoides
1.10.2. Robôs com quatro ou mais pernas
1.10.3. Robôs modulares
1.10.4. Robôs com partes flexíveis (Soft-Robotics
Módulo 2. Agentes inteligentes. Aplicar a Inteligência Artificial aos Robôs e Softbots
2.1. Agentes Inteligentes e Inteligência Artificial.
2.1.1. Robôs Inteligentes. Inteligência Artificial
2.1.2. Agentes Inteligentes
2.1.2.1. Agentes de hardware. Robôs.
2.1.2.2. Agentes de software. Softbots
2.1.3. Aplicações na Robótica
2.2. Conexão Cérebro-Algoritmo
2.2.1. Inspiração biológica para a Inteligência Artificial
2.2.2. Raciocínio implementado em algoritmos. Tipologia
2.2.3. Explicabilidade dos resultados nos algoritmos de Inteligência Artificial
2.2.4. Evolução dos algoritmos até ao Deep Learning
2.3. Algoritmos de pesquisa no espaço de soluções
2.3.1. Elementos da pesquisa no espaço de soluções
2.3.2. Algoritmos de pesquisa de soluções para problemas de Inteligência Artificial
2.3.3. Aplicações de algoritmos de pesquisa e otimização
2.3.4. Algoritmos de pesquisa aplicados à Aprendizagem Automática
2.4. Aprendizagem automática
2.4.1. Aprendizagem automática
2.4.2. Algoritmos de Aprendizagem Supervisionada
2.4.3. Algoritmos de Aprendizagem Não-Supervisionada
2.4.4. Algoritmos de Aprendizagem por Reforço
2.5. Aprendizagem Supervisionada
2.5.1. Métodos de Aprendizagem Supervisionada
2.5.2. Árvores de decisão para classificação
2.5.3. Máquina de suporte vetorial
2.5.4. Redes neurais artificiais
2.5.5. Aplicações da Aprendizagem Supervisionada
2.6. Aprendizagem Não-Supervisionada
2.6.1. Aprendizagem Não-Supervisionada
2.6.2. Redes de Kohonen
2.6.3. Mapas auto-organizáveis
2.6.4. Algoritmo K-means
2.7. Aprendizagem por Reforço
2.7.1. Aprendizagem por Reforço
2.7.2. Agentes baseados em processos de Markov
2.7.3. Algoritmos de Aprendizagem por Reforço
2.7.4. Aprendizagem por Reforço aplicada à Robótica
2.8. Inferência probabilística
2.8.1. Inferência probabilística
2.8.2. Tipos de inferência e definição do método
2.8.3. A inferência bayesiana como um caso de estudo
2.8.4. Técnicas de inferência não-paramétricas
2.8.5. Filtros Gaussianos
2.9. Da teoria à prática: desenvolvimento de um agente robótico inteligente
2.9.1. Inclusão de módulos de Aprendizagem Supervisionada num agente robótico
2.9.2. Inclusão de módulos de Aprendizagem por Reforço num agente robótico
2.9.3. Arquitetura de um agente robótico controlado por Inteligência Artificial
2.9.4. Ferramentas profissionais para a implementação de agentes inteligentes
2.9.5. Fases da implementação de algoritmos de IA em agentes robóticos
Módulo 3. Deep Learning
3.1. Inteligência artificial
3.1.1. Machine Learning
3.1.2. Deep Learning
3.1.3. A explosão do Deep Learning. Porquê agora?
3.2. Redes neurais
3.2.1. A rede neural
3.2.2. Utilizações das redes neurais
3.2.3. Regressão linear e perceptron
3.2.4. Forward Propagation
3.2.5. Backpropagation
3.2.6. Feature vectors
3.3. Loss Functions
3.3.1. Loss Functions
3.3.2. Tipos de Loss Functions
3.3.3. Escolha das Loss Functions
3.4. Funções de ativação
3.4.1. Função de ativação
3.4.2. Funções lineares
3.4.3. Funções não-lineares
3.4.4. Saída vs. Hidden Layer Activation Functions
3.5. Regularização e normalização
3.5.1. Regularização e normalização
3.5.2. Overfitting and Data Augmentation
3.5.3. Métodos de Regularização: L1, L2 e Dropout
3.5.4. Métodos de Normalização: Batch, Weight, Layer
3.6. Otimização
3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam
3.7. Hyperparameter Tuning e pesos
3.7.1. Hiperparâmetros
3.7.2. Batch Size vs. Learning Rate vs. Step Decay
3.7.3. Pesos
3.8. Métricas de avaliação de redes neurais
3.8.1. Exatidão
3.8.2. Dice Coefficient
3.8.3. Sensibilidade vs. Especificidade vs. Precisão
3.8.4. Curva ROC (AUC)
3.8.5. F1-score
3.8.6. Matriz de Confusão
3.8.7. Validação cruzada
3.9. Frameworks e Hardware
3.9.1. Fluxo Tensorial
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware para a fase de treino
3.10. Criação de redes neurais - treino e validação
3.10.1. Dataset
3.10.2. Construção da rede
3.10.3. Treino
3.10.4. Visualização de resultados
Módulo 4. A Robótica na automatização de processos industriais
4.1. Conceção de sistemas automatizados
4.1.1. Arquiteturas de hardware
4.1.2. Controladores lógicos programáveis
4.1.3. Redes de comunicação industriais
4.2. Projeto Elétrico Avançado I: Automatização
4.2.1. Conceção de quadros elétricos e simbologia
4.2.2. Circuitos de potência e controlo. Harmoniosos
4.2.3. Elementos de proteção e ligação à terra
4.3. Projeto Elétrico Avançado II: determinismo e segurança
4.3.1. Segurança e redundância das máquinas
4.3.2. Relés e acionadores de segurança
4.3.3. PLCs de segurança
4.3.4. Redes seguras
4.4. Acionamento elétrico
4.4.1. Motores e servomotores
4.4.2. Inversores e controladores de frequência
4.4.3. Robótica industrial com acionamento elétrico
4.5. Acionamento hidráulico e pneumático
4.5.1. Conceção hidráulica e simbologia
4.5.2. Conceção pneumática e simbologia
4.5.3. Ambientes ATEX na automatização
4.6. Transdutores na Robótica e Automatização
4.6.1. Medição da posição e velocidade
4.6.2. Medição da força e temperatura
4.6.3. Medição da presença
4.6.4. Sensores de visão
4.7. Programação e configuração de controladores lógicos programáveis PLCs
4.7.1. Programação PLC: LD
4.7.2. Programação PLC: ST
4.7.3. Programação PLC: FBD e CFC
4.7.4. Programação PLC: SFC
4.8. Programação e configuração de equipamentos em instalações industriais
4.8.1. Programação de acionamentos e controladores
4.8.2. Programação HMI
4.8.3. Programação de robôs manipuladores
4.9. Programação e configuração de equipamentos informáticos industriais
4.9.1. Programação de sistemas de visão
4.9.2. Programação de SCADA/software
4.9.3. Configuração de redes
4.10. Implementação de automatismos
4.10.1. Conceção de máquinas de estado
4.10.2. Implementação de máquinas de estado em PLCs
4.10.3. Implementação de sistemas de controlo analógico PID em PLCs
4.10.4. Manutenção da automatização e da higiene do código
4.10.5. Simulação de automatismos e plantas
Módulo 5. Sistemas de Controlo Automático em Robótica
5.1. Análise e conceção de sistemas não-lineares
5.1.1. Análise e modelação de sistemas não-lineares
5.1.2. Controlo com realimentação
5.1.3. Linearização por realimentação
5.2. Conceção de técnicas de controlo para sistemas não-lineares avançados
5.2.1. Controlo em modo deslizante (Sliding Mode Control)
5.2.2. Controlo baseado em Lyapunov e Backstepping
5.2.3. Controlo baseado na passividade
5.3. Arquiteturas de controlo
5.3.1. O paradigma da robótica
5.3.2. Arquiteturas de controlo
5.3.3. Aplicações e exemplos de arquiteturas de controlo
5.4. Controlo de movimentos para braços robóticos
5.4.1. Modelação cinemática e dinâmica
5.4.2. Controlo no espaço das articulações
5.4.3. Controlo no espaço operacional
5.5. Controlo da força nos atuadores
5.5.1. Controlo da força
5.5.2. Controlo da impedância
5.5.3. Controlo híbrido
5.6. Robôs móveis terrestres
5.6.1. Equações de movimento
5.6.2. Técnicas de controlo para robôs terrestres
5.6.3. Manipuladores móveis
5.7. Robôs móveis aéreos
5.7.1. Equações de movimento
5.7.2. Técnicas de controlo de robôs aéreos
5.7.3. Manuseamento aéreo
5.8. Controlo baseado em técnicas de aprendizagem automática
5.8.1. Controlo através de Aprendizagem Supervisionada
5.8.2. Controlo através de Aprendizagem Reforçada
5.8.3. Controlo através de Aprendizagem Não-Supervisionada
5.9. Controlo baseado na visão
5.9.1. Servomotorização Visual baseada na posição
5.9.2. Servomotorização Visual baseada em imagens
5.9.3. Servomotorização Visual híbrida
5.10. Controlo preditivo
5.10.1. Modelação e estimativa de estado
5.10.2. MPC aplicado a robôs móveis
5.10.3. MPC aplicado a UAVs
Módulo 6. Algoritmos de planeamento em robôs
6.1. Algoritmos de planeamento clássicos
6.1.1. Planeamento discreto: espaço de estados
6.1.2. Problemas de planeamento em Robótica. Modelação de sistemas robóticos
6.1.3. Classificação dos planeadores
6.2. O problema do planeamento de trajetórias em robôs móveis
6.2.1. Formas de representação do ambiente: gráficos
6.2.2. Algoritmos de pesquisa em gráficos
6.2.3. Introdução de custos nos gráficos
6.2.4. Algoritmos de pesquisa em gráficos pesados
6.2.5. Algoritmos com qualquer ângulo de abordagem
6.3. Planeamento em sistemas robóticos de elevada dimensão
6.3.1. Problemas de Robótica de alta dimensão: manipuladores
6.3.2. Modelo cinemático direto/inverso
6.3.3. Algoritmos de planeamento da amostragem PRM e RRT
6.3.4. Planeamento para restrições dinâmicas
6.4. Planeamento ótimo da amostra
6.4.1. Problemas dos planeadores baseados em amostras
6.4.2. RRT* conceito de otimização probabilística
6.4.3. Etapa de reconexão: restrições dinâmicas
6.4.4. CForest. Paralelizar o planeamento
6.5. Implementação efetiva de um sistema de planeamento dos movimentos
6.5.1. Problema de planeamento global. Ambientes dinâmicos
6.5.2. Ciclo de ação, sensoriamento. Aquisição de informações do ambiente
6.5.3. Planeamento local e global
6.6. Coordenação em Sistemas Multirrobô I: sistema centralizado
6.6.1. Problema de coordenação multirrobô
6.6.2. Deteção e resolução de colisões: modificação de trajetórias com Algoritmos Genéticos
6.6.3. Outros algoritmos bioinspirados: enxame de partículas e fogos de artifício
6.6.4. Algoritmo de prevenção de colisões por escolha de manobra
6.7. Coordenação em Sistemas Multirrobô II: abordagens distribuídas I
6.7.1. Utilização de funções de destino complexas
6.7.2. Frente de Pareto
6.7.3. Algoritmos evolutivos multiobjetivo
6.8. Coordenação em Sistemas Multirrobô III: abordagens distribuídas II
6.8.1. Sistemas de planeamento de ordem 1
6.8.2. Algoritmo ORCA
6.8.3. Restrições cinemáticas e dinâmicas adicionadas ao ORCA
6.9. Teoria do planeamento por decisão
6.9.1. Teoria da decisão
6.9.2. Sistemas de decisão sequencial
6.9.3. Sensores e espaços de informação
6.9.4. Planeamento para a incerteza no sensoriamento e atuação
6.10. Sistemas de planeamento de aprendizagem por reforço
6.10.1. Obtenção da recompensa esperada de um sistema
6.10.2. Técnicas de aprendizagem por recompensa média
6.10.3. Aprendizagem por reforço inverso
Módulo 7. Visão artificial
7.1. Perceção humana
7.1.1. Sistema visual humano
7.1.2. A cor
7.1.3. Frequências visíveis e não-visíveis
7.2. Crónica da visão artificial
7.2.1. Princípios
7.2.2. Desenvolvimentos
7.2.3. A importância da visão artificial
7.3. Composição de imagens digitais
7.3.1. A imagem digital
7.3.2. Tipos de imagens
7.3.3. Espaços de cor
7.3.4. RGB
7.3.5. HSV e HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Imagem indexada
7.4. Sistemas de captação de imagens
7.4.1. Como funciona uma câmara digital
7.4.2. A exposição correta para cada situação
7.4.3. Profundidade do campo
7.4.4. Resolução
7.4.5. Formatos de imagem
7.4.6. Modo HDR
7.4.7. Câmaras de alta resolução
7.4.8. Câmaras de alta velocidade
7.5. Sistemas óticos
7.5.1. Princípios de ótica
7.5.2. Objetivas convencionais
7.5.3. Objetivas telecêntricas
7.5.4. Tipos de focagem automática
7.5.5. Distância focal
7.5.6. Profundidade do campo
7.5.7. Distorção ótica
7.5.8. Calibração de uma imagem
7.6. Sistemas de iluminação
7.6.1. Importância da iluminação
7.6.2. Resposta de frequência
7.6.3. Iluminação LED
7.6.4. Iluminação no exterior
7.6.5. Tipos de iluminação para aplicações industriais. Efeitos
7.7. Sistemas de captação 3D
7.7.1. Visão estéreo
7.7.2. Triangulação
7.7.3. Luz estruturada
7.7.4. Tempo de Voo
7.7.5. Lidar
7.8. Multiespectro
7.8.1. Câmaras multiespectrais
7.8.2. Câmaras hiperespectrais
7.9. Espectro próximo não-visível
7.9.1. Câmaras IV
7.9.2. Câmaras UV
7.9.3. Conversão de não-visível a visível através da iluminação
7.10. Outras bandas do espetro
7.10.1. Raios X
7.10.2. Teraherzios
Módulo 8. Aplicações e Estado da arte
8.1. Aplicações industriais
8.1.1. Bibliotecas de visão industrial
8.1.2. Câmaras compactas
8.1.3. Sistemas baseados em PC
8.1.4. Robótica industrial
8.1.5. Pick and place 2D
8.1.6. Bin picking
8.1.7. Controlo de qualidade
8.1.8. Presença e ausência de componentes
8.1.9. Controlo dimensional
8.1.10. Controlo da rotulagem
8.1.11. Rastreabilidade
8.2. Veículos autónomos
8.2.1. Assistência ao condutor
8.2.2. Condução autónoma
8.3. Visão artificial para análise de conteúdos
8.3.1. Filtragem por conteúdo
8.3.2. Moderação de conteúdos visuais
8.3.3. Sistemas de rastreamento
8.3.4. Identificação de marcas registadas e logótipos
8.3.5. Etiquetagem e classificação de vídeos
8.3.6. Deteção de mudanças de cenário
8.3.7. Extração de textos ou créditos
8.4. Aplicação médica
8.4.1. Deteção e localização de doenças
8.4.2. Cancro e análise de radiografias
8.4.3. Avanços na visão artificial na Covid-19
8.4.4. Assistência no bloco operatório
8.5. Aplicações espaciais
8.5.1. Análise de imagens de satélite
8.5.2. Visão artificial para o estudo do espaço
8.5.3. Missão a Marte
8.6. Aplicações comerciais
8.6.1. Controlo de stock
8.6.2. Videovigilância, segurança doméstica
8.6.3. Câmaras de estacionamento
8.6.4. Câmaras de controlo da população
8.6.5. Radares de trânsito
8.7. Visão aplicada à robótica
8.7.1. Drones
8.7.2. AGV
8.7.3. Visão em robôs colaborativos
8.7.4. Os olhos dos robôs
8.8. Realidade aumentada
8.8.1. Funcionamento
8.8.2. Dispositivos
8.8.3. Aplicações na Indústrias
8.8.4. Aplicações comerciais
8.9. Cloud computing
8.9.1. Plataformas de Cloud Computing
8.9.2. Da Cloud Computing à produção
8.10. Investigação e estado da arte
8.10.1. A comunidade científica
8.10.2. O que é que está para chegar?
8.10.3. O futuro da visão artificial
Módulo 9. Técnicas de Visão Artificial em Robótica: processamento e análise de imagens
9.1. Visão por Computador
9.1.1. Visão por Computador
9.1.2. Elementos de um sistema de Visão por Computador
9.1.3. Ferramentas matemáticas
9.2. Sensores óticos para a Robótica
9.2.1. Sensores óticos passivos
9.2.2. Sensores óticos ativos
9.2.3. Sensores não-óticos
9.3. Aquisição de imagens
9.3.1. Representação de imagens
9.3.2. Espaço de cores
9.3.3. Processo de digitalização
9.4. Geometria das imagens
9.4.1. Modelos de lentes
9.4.2. Modelos de câmaras
9.4.3. Calibração de câmaras
9.5. Ferramentas matemáticas
9.5.1. Histograma de uma imagem
9.5.2. Convolução
9.5.3. A transformada de Fourier
9.6. Processamento de imagens
9.6.1. Análise de ruído
9.6.2. Suavização de imagens
9.6.3. Melhoria de imagens
9.7. Segmentação de imagens
9.7.1. Técnicas baseadas em contornos
9.7.2. Técnicas baseadas em histogramas
9.7.3. Operações morfológicas
9.8. Deteção de características na imagem
9.8.1. Deteção de pontos de interesse
9.8.2. Descritores de características
9.8.3. Correspondências entre características
9.9. Sistemas de visão 3D
9.9.1. Perceção 3D
9.9.2. Correspondência de características entre imagens
9.9.3. Geometria de múltiplas vistas
9.10. Localização baseada em Visão Artificial
9.10.1. O problema da localização dos robôs
9.10.2. Odometria visual
9.10.3. Fusão sensorial
Módulo 10. Sistemas de perceção visual de robôs com aprendizagem automática
10.1. Métodos de Aprendizagem Não-Supervisionada aplicados à Visão Artificial
10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similaridade e decomposição de matrizes
10.2. Métodos de Aprendizagem Supervisionada aplicados à Visão Artificial
10.2.1. Conceito de “saco de palavras”
10.2.2. Máquina de suporte vetorial
10.2.3. Latent Dirichlet Allocation
10.2.4. Redes neurais
10.3. Redes Neuronais Profundas: estruturas, Backbones e Transfer Learning
10.3.1. Capas geradoras de Features
10.3.1.1. VGG
10.3.1.2. Densenet
10.3.1.3. ResNet
10.3.1.4. Inception
10.3.1.5. GoogLeNet
10.3.2. Aprendizagem por Transferência
10.3.3. Os dados. Preparação para o treino
10.4. Visão Artificial com Aprendizagem Profunda I: deteção e segmentação
10.4.1. Diferenças e semelhanças entre YOLO e SSD
10.4.2. Unet
10.4.3. Outras estruturas
10.5. Visão Artificial com Aprendizagem Profunda II: Redes Adversariais Generativas
10.5.1. Imagens de super-resolução através de GAN
10.5.2. Criação de imagens realistas
10.5.3. Compreensão da cena
10.6. Técnicas de aprendizagem para localização e mapeamento na Robótica Móvel
10.6.1. Deteção e relocalização do encerramento de circuitos
10.6.2. Magic Leap. Super Point e Super Glue
10.6.3. Depth from Monocular
10.7. Inferência Bayesiana e modelação 3D
10.7.1. Modelos Bayesianos e aprendizagem "clássica"
10.7.2. Superfícies implícitas com processos Gaussianos (GPIS)
10.7.3. Segmentação 3D através de GPIS
10.7.4. Redes neurais para modelação de superfícies 3D
10.8. Aplicações de Ponta-a-Ponta das Redes Neurais Profundas
10.8.1. Sistema end-to-end. Exemplo de identificação de pessoas
10.8.2. Manipulação de objetos com sensores visuais
10.8.3. Geração e planeamento de movimentos com sensores visuais
10.9. Tecnologias na nuvem para acelerar o desenvolvimento de algoritmos de Deep Learning
10.9.1. Utilização de GPUs para o Deep Learning
10.9.2. Desenvolvimento ágil com Google IColab
10.9.3. GPUs remotas, Google Cloud e AWS
10.10. Implementação de Redes Neurais em aplicações reais
10.10.1. Sistemas incorporados
10.10.2. Implementação de Redes Neurais. Utilização
10.10.3. Otimizações de rede na implementação, exemplo com TensorRT
Módulo 11. SLAM visual. Localização e mapeamento simultâneos de robôs através de técnicas de Visão Artificial
11.1. Localização e mapeamento simultâneos (SLAM)
11.1.1. Localização e mapeamento simultâneos. SLAM
11.1.2. Aplicações SLAM
11.1.3. Funcionamento do SLAM
11.2. Geometria projetiva
11.2.1. Modelo Pin-Hole
11.2.2. Estimativa dos parâmetros intrínsecos da câmara
11.2.3. Homografia, princípios básicos e estimativa
11.2.4. Matriz fundamental, princípios e estimativa
11.3. Filtros Gaussianos
11.3.1. Filtro de Kalman
11.3.2. Filtro de informação
11.3.3. Ajuste e parametrização de filtros Gaussianos
11.4. Estéreo EKF-SLAM
11.4.1. Geometria da câmara estéreo
11.4.2. Extração e pesquisa de características
11.4.3. Filtro de Kalman para SLAM estéreo
11.4.4. Definição dos parâmetros do EKF-SLAM estéreo
11.5. Monocular EKF-SLAM
11.5.1. Parametrização de Pontos de Referência no EKF-SLAM
11.5.2. Filtro de Kalman para SLAM monocular
11.5.3. Definição dos parâmetros do EKF-SLAM monocular
11.6. Deteção de encerramento de circuitos
11.6.1. Algoritmo de força bruta
11.6.2. FABMAP
11.6.3. Abstração através de GIST e HOG
11.6.4. Deteção através de aprendizagem profunda
11.7. Graph-SLAM
11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM
11.8. Direct Visual SLAM
11.8.1. Análise do algoritmo Direct Visual SLAM
11.8.2. LSD-SLAM
11.8.3. SVO
11.9. Visual Inertial SLAM
11.9.1. Integração de medições por inércia
11.9.2. Baixo acoplamento: SOFT-SLAM
11.9.3. Acoplamento elevado: Vins-Mono
11.10. Outras tecnologias SLAM
11.10.1. Aplicações para além do SLAM visual
11.10.2. Lidar-SLAM
11.10.3. Range-only SLAM
Módulo 12. Aplicação à Robótica das Tecnologias de Realidade Virtual e Aumentada
12.1. Tecnologias imersivas na Robótica
12.1.1. Realidade Virtual na Robótica
12.1.2. Realidade Aumentada na Robótica
12.1.3. Realidade Mista na Robótica
12.1.4. Diferença entre realidades
12.2. Criação de ambientes virtuais
12.2.1. Materiais e texturas
12.2.2. Iluminação
12.2.3. Som e cheiro virtuais
12.3. Modelação de robôs em ambientes virtuais
12.3.1. Modelação geométrica
12.3.2. Modelação física
12.3.3. Normalização dos modelos
12.4. Modelação da dinâmica e cinemática de robôs: motores físicos virtuais
12.4.1. Motores físicos. Tipologia
12.4.2. Configuração de um motor físico
12.4.3. Motores físicos na indústria
12.5. Plataformas, periféricos e ferramentas mais utilizados em Realidade Virtual
12.5.1. Visualizadores de Realidade Virtual
12.5.2. Periféricos de interação
12.5.3. Sensores virtuais
12.6. Sistemas de Realidade Aumentada
12.6.1. Inserção de elementos virtuais na realidade
12.6.2. Tipos de marcadores visuais
12.6.3. Tecnologias de Realidade Aumentada
12.7. Metaverso: ambientes virtuais de agentes inteligentes e pessoas
12.7.1. Criação de avatares
12.7.2. Agentes inteligentes em ambientes virtuais
12.7.3. Criação de ambientes multiutilizadores para RV/RA
12.8. Criação de projetos de Realidade Virtual para Robótica
12.8.1. Fases de desenvolvimento de um projeto de Realidade Virtual
12.8.2. Implementação de sistemas de Realidade Virtual
12.8.3. Recursos de Realidade Virtual
12.9. Criar projetos de Realidade Aumentada para a Robótica
12.9.1. Fases de desenvolvimento de um projeto de Realidade Aumentada
12.9.2. Implementação de projetos de Realidade Aumentada
12.9.3. Recursos de Realidade Aumentada
12.10. Teleoperação de robôs com dispositivos móveis
12.10.1. Realidade mista em dispositivos móveis
12.10.2. Sistemas imersivos que utilizam sensores de dispositivos móveis
12.10.3. Exemplos de projetos móveis
Módulo 13. Sistemas de comunicação e interação com robôs
13.1. Reconhecimento do discurso: sistemas estocásticos
13.1.1. Modelação acústica da fala
13.1.2. Modelos de Markov ocultos
13.1.3. Modelação linguística da fala: N-Gramáticas, gramáticas BNF
13.2. Reconhecimento da fala: Deep Learning
13.2.1. Redes neurais profundas
13.2.2. Redes neurais recorrentes
13.2.3. Células LSTM
13.3. Reconhecimento da fala: prosódia e efeitos ambientais
13.3.1. Ruído ambiente
13.3.2. Reconhecimento multiorador
13.3.3. Patologias da fala
13.4. Compreensão da linguagem natural: sistemas heurísticos e probabilísticos
13.4.1. Análise sintático-semântica: regras linguísticas
13.4.2. Compreensão baseada em regras heurísticas
13.4.3. Sistemas probabilísticos: regressão logística e SVM
13.4.4. Compreensão baseada em redes neurais
13.5. Gestão do diálogo: estratégias heurísticas/probabilísticas
13.5.1. Intenção do interlocutor
13.5.2. Diálogo baseado em modelos
13.5.3. Gestão estocástica do diálogo: redes bayesianas
13.6. Gestão do diálogo: estratégias avançadas
13.6.1. Sistemas de aprendizagem baseados no reforço
13.6.2. Compreensão baseada em redes neurais
13.6.3. Do discurso à intenção numa única rede
13.7. Geração de respostas e síntese da fala
13.7.1. Geração de respostas: da ideia ao texto coerente
13.7.2. Síntese da fala por concatenação
13.7.3. Síntese estocástica da fala
13.8. Adaptação e contextualização do diálogo
13.8.1. Iniciativa de diálogo
13.8.2. Adaptação ao orador
13.8.3. Adaptação ao contexto do diálogo
13.9. Robôs e interações sociais: reconhecimento, síntese e expressão de emoções
13.9.1. Paradigmas da voz artificial: voz robótica e voz natural
13.9.2. Reconhecimento de emoções e análise de sentimentos
13.9.3. Síntese de voz emocional
13.10. Robôs e interações sociais: interfaces multimodais avançadas
13.10.1. Combinação de interfaces de voz e táteis
13.10.2. Reconhecimento e tradução de línguas gestuais
13.10.3. Avatares visuais: tradução de voz para língua gestual
Módulo 14. Processamento digital de imagens
14.1. Ambiente de desenvolvimento de visão por computador
14.1.1. Bibliotecas de visão por computador
14.1.2. Ambiente de programação
14.1.3. Ferramentas de visualização
14.2. Processamento digital de imagens
14.2.1. Relações entre píxeis
14.2.2. Operações com imagens
14.2.3. Transformações geométricas
14.3. Operações de píxeis
14.3.1. Histogramas
14.3.2. Transformações de histogramas
14.3.3. Operações em imagens a cores
14.4. Operações lógicas e aritméticas
14.4.1. Adição e subtração
14.4.2. Produto e divisão
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor
14.5. Filtros
14.5.1. Máscaras e convolução
14.5.2. Filtragem linear
14.5.3. Filtragem não-linear
14.5.4. Análise de Fourier
14.6. Operações morfológicas
14.6.1. Erode and Dilating
14.6.2. Closing and Open
14.6.3. Top hat e Black hat
14.6.4. Deteção de contornos
14.6.5. Esqueleto
14.6.6. Preenchimento de buracos
14.6.7. Convex hull
14.7. Ferramentas de análise de imagens
14.7.1. Deteção de margens
14.7.2. Deteção de blobs
14.7.3. Controlo dimensional
14.7.4. Inspeção de cores
14.8. Segmentação de objetos
14.8.1. Segmentação de imagens
14.8.2. Técnicas de segmentação clássicas
14.8.3. Aplicações reais
14.9. Calibração de imagens
14.9.1. Calibração de imagens
14.9.2. Métodos de calibração
14.9.3. Processo de calibração num sistema de câmara/robô 2D
14.10. Processamento de imagens em ambiente real
14.10.1. Análise da problemática
14.10.2. Tratamento de imagem
14.10.3. Extração de características
14.10.4. Resultados finais
Módulo 15. Processamento digital de imagens avançado
15.1. Reconhecimento ótico de caracteres (OCR)
15.1.1. Pré-processamento da imagem
15.1.2. Deteção de texto
15.1.3. Reconhecimento de texto
15.2. Leitura de códigos
15.2.1. Códigos 1D
15.2.2. Códigos 2D
15.2.3. Aplicações
15.3. Pesquisa de padrões
15.3.1. Pesquisa de padrões
15.3.2. Padrões baseados no nível de cinzentos
15.3.3. Padrões baseados em contornos
15.3.4. Padrões baseados em formas geométricas
15.3.5. Outras técnicas
15.4. Seguimento de objetos com visão convencional
15.4.1. Extração de fundo
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Fluxo ótico
15.5. Reconhecimento facial
15.5.1. Deteção de marcas faciais
15.5.2. Aplicações
15.5.3. Reconhecimento facial
15.5.4. Reconhecimento de emoções
15.6. Panorâmica e alinhamentos
15.6.1. Stitching
15.6.2. Composição de imagens
15.6.3. Fotomontagem
15.7. Alta Gama Dinâmica (HDR) e Estéreo Fotométrico
15.7.1. Gama dinâmica aumentada
15.7.2. Composição de imagens para melhoria de contornos
15.7.3. Técnicas de utilização de aplicações dinâmicas
15.8. Compressão de imagens
15.8.1. A compressão de imagens
15.8.2. Tipos de compressores
15.8.3. Técnicas de compressão de imagens
15.9. Processamento de vídeo
15.9.1. Sequências de imagens
15.9.2. Formatos e codecs de vídeo
15.9.3. Leitura de um vídeo
15.9.4. Processamento de fotogramas
15.10. Aplicações reais do processamento de imagens
15.10.1. Análise da problemática
15.10.2. Tratamento de imagem
15.10.3. Extração de características
15.10.4. Resultados finais
Módulo 16. Processamento de imagens 3D
16.1. Imagem 3D
16.1.1. Imagem 3D
16.1.2. Software de processamento de imagens 3D e visualizações
16.1.3. Software de metrologia
16.2. Open 3D
16.2.1. Biblioteca para processamento de dados 3D
16.2.2. Características
16.2.3. Instalação e utilização
16.3. Os dados
16.3.1. Mapas de profundidade em imagens 2D
16.3.2. Pointclouds
16.3.3. Normais
16.3.4. Superfícies
16.4. Visualização
16.4.1. Visualização de dados
16.4.2. Controlos
16.4.3. Visualização na Web
16.5. Filtros
16.5.1. Distância entre pontos, eliminar valores anómalos
16.5.2. Filtro passa-alto
16.5.3. Downsampling
16.6. Geometria e extração de características
16.6.1. Extração de um perfil
16.6.2. Medição da profundidade
16.6.3. Volume
16.6.4. Formas geométricas 3D
16.6.5. Planos
16.6.6. Projeção de um ponto
16.6.7. Distâncias geométricas
16.6.8. Kd Tree
16.6.9. Características 3D
16.7. Registo e Meshing
16.7.1. Concatenação
16.7.2. ICP
16.7.3. Ransac 3D
16.8. Reconhecimento de objetos 3D
16.8.1. Procura de um objeto na cena 3D
16.8.2. Segmentação
16.8.3. Bin picking
16.9. Análise de superfícies
16.9.1. Alisamento
16.9.2. Superfícies orientáveis
16.9.3. Octree
16.10. Triangulação
16.10.1. De Mesh a Point Cloud
16.10.2. Triangulação de mapas de profundidade
16.10.3. Triangulação de Point Clouds não-ordenadas
Módulo 17. Redes convolucionais e classificação de imagens
17.1. Redes neurais convolucionais
17.1.1. Introdução
17.1.2. Convolução
17.1.3. CNN Building Blocks
17.2. Tipos de camadas CNN
17.2.1. Convolucional
17.2.2. Ativação
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected
17.3. Métricas
17.3.1. Matriz de Confusão
17.3.2. Exatidão
17.3.3. Precisão
17.3.4. Recall
17.3.5. F1 Score
17.3.6. Curva ROC
17.3.7. AUC
17.4. Arquiteturas Principais
17.4.1. AlexNet
17.4.2. VGG
17.4.3. Resnet
17.4.4. GoogleLeNet
17.5. Classificação de imagens
17.5.1. Introdução
17.5.2. Análises dos dados
17.5.3. Preparação de dados
17.5.4. Treino do modelo
17.5.5. Validação do modelo
17.6. Considerações práticas para o treino CNN
17.6.1. Seleção do otimizador
17.6.2. Learning Rate Scheduler
17.6.3. Verificar o pipeline de treino
17.6.4. Treino com regularização
17.7. Melhores práticas em Deep Learning
17.7.1. Aprendizagem por Transferência
17.7.2. Fine Tuning
17.7.3. Data Augmentation
17.8. Avaliação estatística de dados
17.8.1. Número de datasets
17.8.2. Número de etiquetas
17.8.3. Número de imagens
17.8.4. Equilíbrio de dados
17.9. Implementação
17.9.1. Guardar e carregar modelos
17.9.2. Onnx
17.9.3. Inferência
17.10. Caso de estudo: classificação de imagens
17.10.1. Análise e preparação dos dados
17.10.2. Testar o pipeline de treino
17.10.3. Treino do modelo
17.10.4. Validação do modelo
Módulo 18. Detenção de objetos
18.1. Deteção e seguimento de objetos
18.1.1. Detenção de objetos
18.1.2. Casos de utilização
18.1.3. Seguimento de objetos
18.1.4. Casos de utilização
18.1.5. Oclusões, Poses Rígidas e Não-Rígidas
18.2. Métricas de avaliação
18.2.1. IOU - Intersection Over Union
18.2.2. Índice de Confiança
18.2.3. Recall
18.2.4. Precisão
18.2.5. Recall–Precision Curve
18.2.6. Mean Average Precision (mAP)
18.3. Métodos tradicionais
18.3.1. Sliding window
18.3.2. Viola detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)
18.4. Datasets
18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge
18.5. Detetor de Objetos de Dois Disparos
18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN
18.6. Detetor de Objetos de Disparo Único
18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet
18.7. Backbones
18.7.1. VGG
18.7.2. ResNet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet
18.8. Rastreamento de Objetos
18.8.1. Abordagens clássicas
18.8.2. Filtros de partículas
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort
18.9. Implementação
18.9.1. Plataforma de computação
18.9.2. Escolha do Backbone
18.9.3. Escolha do Framework
18.9.4. Otimização de modelos
18.9.5. Versão do modelo
18.10. Estudo: deteção e rastreamento de pessoas
18.10.1. Deteção de pessoas
18.10.2. Rastreamento de pessoas
18.10.3. Reidentificação
18.10.4. Contagem de pessoas em multidões
Módulo 19. Segmentação de imagens através de Deep Learning
19.1. Deteção e segmentação de objetos
19.1.1. Segmentação semântica
19.1.1.1. Casos de utilização de segmentação semântica
19.1.2. Segmentação Instanciada
19.1.2.1. Casos de utilização de segmentação instanciada
19.2. Métricas de avaliação
19.2.1. Semelhanças com outros métodos
19.2.2. Precisão dos píxeis
19.2.3. Dice Coefficient (F1 Score)
19.3. Funções de custos
19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Outras funções
19.4. Métodos tradicionais de segmentação
19.4.1. Aplicação de limites com Otsu e Riddlen
19.4.2. Equipas auto-organizadas
19.4.3. Algoritmo GMM-EM
19.5. Segmentação Semântica através de Deep Learning: FCN
19.5.1. FCN
19.5.2. Arquitetura
19.5.3. Aplicações do FCN
19.6. Segmentação Semântica através de Deep Learning: U-NET
19.6.1. U-NET
19.6.2. Arquitetura
19.6.3. Aplicação do U-NET
19.7. Segmentação semântica através de Deep Learning: Deep Lab
19.7.1. Deep Lab
19.7.2. Arquitetura
19.7.3. Aplicação do Deep Lab
19.8. Segmentação instanciada através de Deep Learning: Máscara RCNN
19.8.1. Máscara RCNN
19.8.2. Arquitetura
19.8.3. Implementação de uma Máscara RCNN
19.9. Segmentação em vídeos
19.9.1. STFCN
19.9.2. Semantic Video CNNs
19.9.3. Clockwork Convnets
19.9.4. Low-Latency
19.10. Segmentação em nuvens de pontos
19.10.1. A nuvem de pontos
19.10.2. PointNet
19.10.3. A-CNN
Módulo 20. Segmentação avançada de imagens e técnicas avançadas de visão por computador
20.1. Base de dados para problemas gerais de segmentação
20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset
20.2. Segmentação semântica na medicina
20.2.1. Segmentação semântica na medicina
20.2.2. Datasets para problemas médicos
20.2.3. Aplicação prática
20.3. Ferramentas de anotação
20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Outras ferramentas
20.4. Ferramentas de segmentação que utilizam diferentes Frameworks
20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Outros
20.5. Projeto de segmentação semântica. Os dados, fase 1
20.5.1. Análise do problema
20.5.2. Fonte de entrada de dados
20.5.3. Análise de dados
20.5.4. Preparação de dados
20.6. Projeto de segmentação semântica. Treino, fase 2
20.6.1. Seleção do algoritmo
20.6.2. Treino
20.6.3. Avaliação
20.7. Projeto de segmentação semântica. Resultados, fase 3
20.7.1. Ajuste preciso
20.7.2. Apresentação da solução
20.7.3. Conclusões
20.8. Autocodificadores
20.8.1. Autocodificadores
20.8.2. Arquitetura de um autocodificador
20.8.3. Autocodificadores com cancelamento de ruído
20.8.4. Autocodificador de coloração automática
20.9. As Redes Adversariais Generativas (GAN)
20.9.1. Redes Adversariais Generativas (GAN)
20.9.2. Arquitetura DCGAN
20.9.3. Arquitetura GAN Condicionada
20.10. Redes adversariais generativas melhoradas
20.10.1. Visão geral do problema
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN

Aperfeiçoe as suas competências de conceção, programação e controlo de robôs através de algoritmos de visão artificial e aprendizagem automática"
Advanced Master em Robótica e Visão Artificial
A robótica e a visão artificial são duas áreas em constante evolução que têm revolucionado a forma como interagimos com a tecnologia atualmente. Na TECH Universidade Tecnológica, em colaboração com a Faculdade de Informática, concebemos um Advanced Master em Robótica e Visão Artificial para preparar os profissionais nas últimas tendências e avanços nestes domínios. Este programa de formação virtual oferece uma ampla gama de conteúdos, desde os fundamentos teóricos até à aplicação prática de técnicas e algoritmos no desenvolvimento de sistemas robóticos e de visão artificial.
Com uma abordagem interdisciplinar ao desenvolvimento de sistemas robóticos e de visão artificial, concebemos uma abordagem interdisciplinar ao desenvolvimento de sistemas robóticos e de visão artificial.
Com uma abordagem interdisciplinar, o nosso programa de Advanced Master em Robótica e Visão Artificial forma os participantes para compreenderem os princípios e conceitos fundamentais da robótica e da visão artificial, bem como a aplicação de técnicas avançadas na resolução de problemas do mundo real. Os participantes terão a oportunidade de explorar temas como a perceção visual, a navegação autónoma, a aprendizagem automática e a interação homem-robô, entre outros. Além disso, o nosso programa conta com um corpo docente altamente qualificado, com experiência na investigação e aplicação da robótica e da visão artificial em diversos setores industriais e tecnológicos.