Porquê estudar no TECH?

Desenvolva competências essenciais em Robótica e Visão Artificial matriculando-se agora neste Advanced master da TECH"

##IMAGE##

A ascensão da Inteligência Artificial e da Robótica está a mudar o panorama tecnológico, económico e social por todo o mundo. A especialização em áreas como a visão artificial tornou-se crucial para nos mantermos na vanguarda nesta era de avanços rápidos e mudanças disruptivas. A crescente interação entre máquinas e seres humanos, bem como a necessidade de processar informações visuais de forma eficiente, exigem profissionais altamente qualificados que possam enfrentar estes desafios e liderar a inovação.

O Advanced master em Robótica e Visão Artificial oferece uma capacitação abrangente nestas disciplinas emergentes, cobrindo tópicos como Realidade Aumentada, Inteligência Artificial e processamento de informação visual em máquinas, entre outros. Os alunos beneficiarão de uma abordagem teórico-prática, aprendendo sobre os últimos desenvolvimentos em Robótica e Visão Artificial e a aplicar estes conhecimentos em ambientes reais.

Para além disso, o Advanced master é 100% online, o que permite aos alunos adaptarem a sua aprendizagem às suas circunstâncias pessoais e profissionais, facilitando-lhes a conciliação da aprendizagem com as suas próprias responsabilidades. Os alunos terão acesso a materiais didáticos de alta qualidade, tais como resumos em vídeos, leituras essenciais e vídeos detalhados que lhes proporcionarão uma visão global da robótica e da visão artificial.

Assim, o Advanced master  em Robótica e Visão Artificial é uma oportunidade única para os informáticos que procuram diferenciar-se num mercado de trabalho altamente competitivo e adquirir competências especializadas num domínio com grande potencial de crescimento.

Domine as técnicas de visão artificial e torne-se num especialista em análise de imagens e sistemas de visão 3D"

Este Advanced master em Robótica e Visão Artificial conta com o conteúdo educacional mais completo e atualizado do mercado. As suas principais características são:

  • O desenvolvimento de casos práticos apresentados por especialistas em Informática
  • O conteúdo gráfico, esquemático e eminentemente prático do livro fornece informações científicas e práticas sobre as disciplinas que são essenciais para a prática profissional
  • Exercícios práticos onde o processo de autoavaliação pode ser levado a cabo para melhorar a aprendizagem
  • A sua ênfase especial em metodologias inovadoras no desenvolvimento de Robôs e Visão Artificial
  • As palestras teóricas, perguntas a especialistas, fóruns de discussão sobre questões controversas e atividades de reflexão individual
  • A disponibilidade de acesso ao conteúdo a partir de qualquer dispositivo fixo ou portátil com ligação à Internet

Descubra como a tecnologia robótica pode ser aplicada em diversos domínios, como a medicina e a exploração espacial, reforçando consideravelmente a sua proposta de valor"

O seu corpo docente inclui profissionais da área do jornalismo, que trazem a sua experiência profissional para este curso, assim como especialistas reconhecidos de empresas líderes e universidades de prestígio.

Graças ao seu conteúdo multimédia, desenvolvido com a mais recente tecnologia educacional, o profissional terá acesso a uma aprendizagem situada e contextual, ou seja, um ambiente de simulação que proporcionará um estudo imersivo programado para se formar em situações reais.

A estrutura deste curso baseia-se na Aprendizagem Baseada nos Problemas, através da qual o instrutor deve tentar resolver as diferentes situações da atividade profissional que surgem ao longo do curso académico. Para tal, o profissional contará com a ajuda de um sistema inovador de vídeo interativo desenvolvido por especialistas reconhecidos.

Potencialize os seus projetos explorando a aplicação da inteligência artificial e da aprendizagem automática na robótica"

##IMAGE##

Reforce as suas competências em algoritmos de planeamento e controlo para o desenvolvimento de robôs inteligentes e eficientes"

Programa de estudos

O Advanced master em Robótica e Visão Artificial foi concebido com uma estrutura e um conteúdo que garantem uma formação abrangente e especializada neste domínio. O curso é estruturado em vários módulos, começando com conceitos básicos e avançando progressivamente para temas mais complexos e específicos. Os alunos terão a oportunidade de aprender sobre conceção, programação e controlo de robôs, bem como sobre algoritmos de visão artificial e técnicas de aprendizagem automática.

##IMAGE##

Potencie a sua aprendizagem através de uma abordagem prática e teórica que lhe permitirá enfrentar desafios reais no mundo da robótica"

Módulo 1. Robótica. Conceção e modelação de robôs

1.1. Robótica e Indústria 4.0

1.1.1. Robótica e Indústria 4.0
1.1.2. Campos de aplicação e casos de utilização
1.1.3. Subáreas de especialização em Robótica

1.2. Arquiteturas de hardware e software de robôs

1.2.1. Arquiteturas de hardware e tempo real
1.2.2. Arquiteturas de software de robôs
1.2.3. Modelos de comunicação e tecnologias middleware
1.2.4. Integração de software com o Robot Operating System (ROS)

1.3. Modelação matemática de robôs

1.3.1. Representação matemática de sólidos rígidos
1.3.2. Rotações e translações
1.3.3. Representação hierárquica do estado
1.3.4. Representação distribuída de estados no ROS (Biblioteca TF)

1.4. Cinemática e dinâmica de robôs

1.4.1. Cinemática
1.4.2. Dinâmica
1.4.3. Robôs subatuados
1.4.4. Robôs redundantes

1.5. Modelação e simulação de robôs

1.5.1. Tecnologias de modelação de robôs
1.5.2. Modelação de robôs com URDF
1.5.3. Simulação de robôs
1.5.4. Modelação com o simulador Gazebo

1.6. Robôs manipuladores

1.6.1. Tipos de robôs manipuladores
1.6.2. Cinemática
1.6.3. Dinâmica
1.6.4. Simulação

1.7. Robôs móveis terrestres

1.7.1. Tipos de robôs móveis terrestres
1.7.2. Cinemática
1.7.3. Dinâmica
1.7.4. Simulação

1.8. Robôs móveis aéreos

1.8.1. Tipos de robôs móveis aéreos
1.8.2. Cinemática
1.8.3. Dinâmica
1.8.4. Simulação

1.9. Robôs móveis aquáticos

1.9.1. Tipos de robôs móveis aquáticos
1.9.2. Cinemática
1.9.3. Dinâmica
1.9.4. Simulação

1.10. Robôs bioinspirados

1.10.1. Humanoides
1.10.2. Robôs com quatro ou mais pernas
1.10.3. Robôs modulares
1.10.4. Robôs com partes flexíveis (Soft-Robotics

Módulo 2. Agentes inteligentes. Aplicar a Inteligência Artificial aos Robôs e Softbots

2.1. Agentes Inteligentes e Inteligência Artificial.

2.1.1. Robôs Inteligentes. Inteligência Artificial
2.1.2. Agentes Inteligentes

2.1.2.1. Agentes de hardware. Robôs.
2.1.2.2. Agentes de software. Softbots

2.1.3. Aplicações na Robótica

2.2. Conexão Cérebro-Algoritmo

2.2.1. Inspiração biológica para a Inteligência Artificial
2.2.2. Raciocínio implementado em algoritmos. Tipologia
2.2.3. Explicabilidade dos resultados nos algoritmos de Inteligência Artificial
2.2.4. Evolução dos algoritmos até ao Deep Learning

2.3. Algoritmos de pesquisa no espaço de soluções

2.3.1. Elementos da pesquisa no espaço de soluções
2.3.2. Algoritmos de pesquisa de soluções para problemas de Inteligência Artificial
2.3.3. Aplicações de algoritmos de pesquisa e otimização
2.3.4. Algoritmos de pesquisa aplicados à Aprendizagem Automática

2.4. Aprendizagem automática

2.4.1. Aprendizagem automática
2.4.2. Algoritmos de Aprendizagem Supervisionada
2.4.3. Algoritmos de Aprendizagem Não-Supervisionada
2.4.4. Algoritmos de Aprendizagem por Reforço

2.5. Aprendizagem Supervisionada

2.5.1. Métodos de Aprendizagem Supervisionada
2.5.2. Árvores de decisão para classificação
2.5.3. Máquina de suporte vetorial
2.5.4. Redes neurais artificiais
2.5.5. Aplicações da Aprendizagem Supervisionada

2.6. Aprendizagem Não-Supervisionada

2.6.1. Aprendizagem Não-Supervisionada
2.6.2. Redes de Kohonen
2.6.3. Mapas auto-organizáveis
2.6.4. Algoritmo K-means

2.7. Aprendizagem por Reforço

2.7.1. Aprendizagem por Reforço
2.7.2. Agentes baseados em processos de Markov
2.7.3. Algoritmos de Aprendizagem por Reforço
2.7.4. Aprendizagem por Reforço aplicada à Robótica

2.8. Inferência probabilística

2.8.1. Inferência probabilística
2.8.2. Tipos de inferência e definição do método
2.8.3. A inferência bayesiana como um caso de estudo
2.8.4. Técnicas de inferência não-paramétricas
2.8.5. Filtros Gaussianos

2.9. Da teoria à prática: desenvolvimento de um agente robótico inteligente

2.9.1. Inclusão de módulos de Aprendizagem Supervisionada num agente robótico
2.9.2. Inclusão de módulos de Aprendizagem por Reforço num agente robótico
2.9.3. Arquitetura de um agente robótico controlado por Inteligência Artificial
2.9.4. Ferramentas profissionais para a implementação de agentes inteligentes
2.9.5. Fases da implementação de algoritmos de IA em agentes robóticos

Módulo 3. Deep Learning

3.1. Inteligência artificial

3.1.1. Machine Learning
3.1.2. Deep Learning
3.1.3. A explosão do Deep Learning. Porquê agora?

3.2. Redes neurais

3.2.1. A rede neural
3.2.2. Utilizações das redes neurais
3.2.3. Regressão linear e perceptron
3.2.4. Forward Propagation
3.2.5. Backpropagation
3.2.6. Feature vectors

3.3. Loss Functions

3.3.1. Loss Functions
3.3.2. Tipos de Loss Functions
3.3.3. Escolha das Loss Functions

3.4. Funções de ativação

3.4.1. Função de ativação
3.4.2. Funções lineares
3.4.3. Funções não-lineares
3.4.4. Saída vs. Hidden Layer Activation Functions

3.5. Regularização e normalização

3.5.1. Regularização e normalização
3.5.2. Overfitting and Data Augmentation
3.5.3. Métodos de Regularização: L1, L2 e Dropout
3.5.4. Métodos de Normalização: Batch, Weight, Layer

3.6. Otimização

3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam

3.7. Hyperparameter Tuning e pesos

3.7.1. Hiperparâmetros
3.7.2. Batch Size vs. Learning Rate vs. Step Decay
3.7.3. Pesos

3.8. Métricas de avaliação de redes neurais

3.8.1. Exatidão
3.8.2. Dice Coefficient
3.8.3. Sensibilidade vs. Especificidade vs. Precisão
3.8.4. Curva ROC (AUC)
3.8.5. F1-score
3.8.6. Matriz de Confusão
3.8.7. Validação cruzada

3.9. Frameworks e Hardware

3.9.1. Fluxo Tensorial
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware para a fase de treino

3.10. Criação de redes neurais - treino e validação

3.10.1. Dataset
3.10.2. Construção da rede
3.10.3. Treino
3.10.4. Visualização de resultados

Módulo 4. A Robótica na automatização de processos industriais

4.1. Conceção de sistemas automatizados

4.1.1. Arquiteturas de hardware
4.1.2. Controladores lógicos programáveis
4.1.3. Redes de comunicação industriais

4.2. Projeto Elétrico Avançado I: Automatização

4.2.1. Conceção de quadros elétricos e simbologia
4.2.2. Circuitos de potência e controlo. Harmoniosos
4.2.3. Elementos de proteção e ligação à terra

4.3. Projeto Elétrico Avançado II: determinismo e segurança

4.3.1. Segurança e redundância das máquinas
4.3.2. Relés e acionadores de segurança
4.3.3. PLCs de segurança
4.3.4. Redes seguras

4.4. Acionamento elétrico

4.4.1. Motores e servomotores
4.4.2. Inversores e controladores de frequência
4.4.3. Robótica industrial com acionamento elétrico

4.5. Acionamento hidráulico e pneumático

4.5.1. Conceção hidráulica e simbologia
4.5.2. Conceção pneumática e simbologia
4.5.3. Ambientes ATEX na automatização

4.6. Transdutores na Robótica e Automatização

4.6.1. Medição da posição e velocidade
4.6.2. Medição da força e temperatura
4.6.3. Medição da presença
4.6.4. Sensores de visão

4.7. Programação e configuração de controladores lógicos programáveis PLCs

4.7.1. Programação PLC: LD
4.7.2. Programação PLC: ST
4.7.3. Programação PLC: FBD e CFC
4.7.4. Programação PLC: SFC

4.8. Programação e configuração de equipamentos em instalações industriais

4.8.1. Programação de acionamentos e controladores
4.8.2. Programação HMI
4.8.3. Programação de robôs manipuladores

4.9. Programação e configuração de equipamentos informáticos industriais

4.9.1. Programação de sistemas de visão
4.9.2. Programação de SCADA/software
4.9.3. Configuração de redes

4.10. Implementação de automatismos

4.10.1. Conceção de máquinas de estado
4.10.2. Implementação de máquinas de estado em PLCs
4.10.3. Implementação de sistemas de controlo analógico PID em PLCs
4.10.4. Manutenção da automatização e da higiene do código
4.10.5. Simulação de automatismos e plantas

Módulo 5. Sistemas de Controlo Automático em Robótica

5.1. Análise e conceção de sistemas não-lineares

5.1.1. Análise e modelação de sistemas não-lineares
5.1.2. Controlo com realimentação
5.1.3. Linearização por realimentação

5.2. Conceção de técnicas de controlo para sistemas não-lineares avançados

5.2.1. Controlo em modo deslizante (Sliding Mode Control)
5.2.2. Controlo baseado em Lyapunov e Backstepping
5.2.3. Controlo baseado na passividade

5.3. Arquiteturas de controlo

5.3.1. O paradigma da robótica
5.3.2. Arquiteturas de controlo
5.3.3. Aplicações e exemplos de arquiteturas de controlo

5.4. Controlo de movimentos para braços robóticos

5.4.1. Modelação cinemática e dinâmica
5.4.2. Controlo no espaço das articulações
5.4.3. Controlo no espaço operacional

5.5. Controlo da força nos atuadores

5.5.1. Controlo da força
5.5.2. Controlo da impedância
5.5.3. Controlo híbrido

5.6. Robôs móveis terrestres

5.6.1. Equações de movimento
5.6.2. Técnicas de controlo para robôs terrestres
5.6.3. Manipuladores móveis

5.7. Robôs móveis aéreos

5.7.1. Equações de movimento
5.7.2. Técnicas de controlo de robôs aéreos
5.7.3. Manuseamento aéreo

5.8. Controlo baseado em técnicas de aprendizagem automática

5.8.1. Controlo através de Aprendizagem Supervisionada
5.8.2. Controlo através de Aprendizagem Reforçada
5.8.3. Controlo através de Aprendizagem Não-Supervisionada

5.9. Controlo baseado na visão

5.9.1. Servomotorização Visual baseada na posição
5.9.2. Servomotorização Visual baseada em imagens
5.9.3. Servomotorização Visual híbrida

5.10. Controlo preditivo

5.10.1. Modelação e estimativa de estado
5.10.2. MPC aplicado a robôs móveis
5.10.3. MPC aplicado a UAVs

Módulo 6. Algoritmos de planeamento em robôs

6.1. Algoritmos de planeamento clássicos

6.1.1. Planeamento discreto: espaço de estados
6.1.2. Problemas de planeamento em Robótica. Modelação de sistemas robóticos
6.1.3. Classificação dos planeadores

6.2. O problema do planeamento de trajetórias em robôs móveis

6.2.1. Formas de representação do ambiente: gráficos
6.2.2. Algoritmos de pesquisa em gráficos
6.2.3. Introdução de custos nos gráficos
6.2.4. Algoritmos de pesquisa em gráficos pesados
6.2.5. Algoritmos com qualquer ângulo de abordagem

6.3. Planeamento em sistemas robóticos de elevada dimensão

6.3.1. Problemas de Robótica de alta dimensão: manipuladores
6.3.2. Modelo cinemático direto/inverso
6.3.3. Algoritmos de planeamento da amostragem PRM e RRT
6.3.4. Planeamento para restrições dinâmicas

6.4. Planeamento ótimo da amostra

6.4.1. Problemas dos planeadores baseados em amostras
6.4.2. RRT* conceito de otimização probabilística
6.4.3. Etapa de reconexão: restrições dinâmicas
6.4.4. CForest. Paralelizar o planeamento

6.5. Implementação efetiva de um sistema de planeamento dos movimentos

6.5.1. Problema de planeamento global. Ambientes dinâmicos
6.5.2. Ciclo de ação, sensoriamento. Aquisição de informações do ambiente
6.5.3. Planeamento local e global

6.6. Coordenação em Sistemas Multirrobô I: sistema centralizado

6.6.1. Problema de coordenação multirrobô
6.6.2. Deteção e resolução de colisões: modificação de trajetórias com Algoritmos Genéticos
6.6.3. Outros algoritmos bioinspirados: enxame de partículas e fogos de artifício
6.6.4. Algoritmo de prevenção de colisões por escolha de manobra

6.7. Coordenação em Sistemas Multirrobô II: abordagens distribuídas I

6.7.1. Utilização de funções de destino complexas
6.7.2. Frente de Pareto
6.7.3. Algoritmos evolutivos multiobjetivo

6.8. Coordenação em Sistemas Multirrobô III: abordagens distribuídas II

6.8.1. Sistemas de planeamento de ordem 1
6.8.2. Algoritmo ORCA
6.8.3. Restrições cinemáticas e dinâmicas adicionadas ao ORCA

6.9. Teoria do planeamento por decisão

6.9.1. Teoria da decisão
6.9.2. Sistemas de decisão sequencial
6.9.3. Sensores e espaços de informação
6.9.4. Planeamento para a incerteza no sensoriamento e atuação

6.10. Sistemas de planeamento de aprendizagem por reforço

6.10.1. Obtenção da recompensa esperada de um sistema
6.10.2. Técnicas de aprendizagem por recompensa média
6.10.3. Aprendizagem por reforço inverso

Módulo 7. Visão artificial

7.1. Perceção humana

7.1.1. Sistema visual humano
7.1.2. A cor
7.1.3. Frequências visíveis e não-visíveis

7.2. Crónica da visão artificial

7.2.1. Princípios
7.2.2. Desenvolvimentos
7.2.3. A importância da visão artificial

7.3. Composição de imagens digitais

7.3.1. A imagem digital
7.3.2. Tipos de imagens
7.3.3. Espaços de cor
7.3.4. RGB
7.3.5. HSV e HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Imagem indexada

7.4. Sistemas de captação de imagens

7.4.1. Como funciona uma câmara digital
7.4.2. A exposição correta para cada situação
7.4.3. Profundidade do campo
7.4.4. Resolução
7.4.5. Formatos de imagem
7.4.6. Modo HDR
7.4.7. Câmaras de alta resolução
7.4.8. Câmaras de alta velocidade

7.5. Sistemas óticos

7.5.1. Princípios de ótica
7.5.2. Objetivas convencionais
7.5.3. Objetivas telecêntricas
7.5.4. Tipos de focagem automática
7.5.5. Distância focal
7.5.6. Profundidade do campo
7.5.7. Distorção ótica
7.5.8. Calibração de uma imagem

7.6. Sistemas de iluminação

7.6.1. Importância da iluminação
7.6.2. Resposta de frequência
7.6.3. Iluminação LED
7.6.4. Iluminação no exterior
7.6.5. Tipos de iluminação para aplicações industriais. Efeitos

7.7. Sistemas de captação 3D

7.7.1. Visão estéreo
7.7.2. Triangulação
7.7.3. Luz estruturada
7.7.4. Tempo de Voo
7.7.5. Lidar

7.8. Multiespectro

7.8.1. Câmaras multiespectrais
7.8.2. Câmaras hiperespectrais

7.9. Espectro próximo não-visível

7.9.1. Câmaras IV
7.9.2. Câmaras UV
7.9.3. Conversão de não-visível a visível através da iluminação

7.10. Outras bandas do espetro

7.10.1. Raios X
7.10.2. Teraherzios

Módulo 8. Aplicações e Estado da arte

8.1. Aplicações industriais

8.1.1. Bibliotecas de visão industrial
8.1.2. Câmaras compactas
8.1.3. Sistemas baseados em PC
8.1.4. Robótica industrial
8.1.5. Pick and place 2D
8.1.6. Bin picking
8.1.7. Controlo de qualidade
8.1.8. Presença e ausência de componentes
8.1.9. Controlo dimensional
8.1.10. Controlo da rotulagem
8.1.11. Rastreabilidade

8.2. Veículos autónomos

8.2.1. Assistência ao condutor
8.2.2. Condução autónoma

8.3. Visão artificial para análise de conteúdos

8.3.1. Filtragem por conteúdo
8.3.2. Moderação de conteúdos visuais
8.3.3. Sistemas de rastreamento
8.3.4. Identificação de marcas registadas e logótipos
8.3.5. Etiquetagem e classificação de vídeos
8.3.6. Deteção de mudanças de cenário
8.3.7. Extração de textos ou créditos

8.4. Aplicação médica

8.4.1. Deteção e localização de doenças
8.4.2. Cancro e análise de radiografias
8.4.3. Avanços na visão artificial na Covid-19
8.4.4. Assistência no bloco operatório

8.5. Aplicações espaciais

8.5.1. Análise de imagens de satélite
8.5.2. Visão artificial para o estudo do espaço
8.5.3. Missão a Marte

8.6. Aplicações comerciais

8.6.1. Controlo de stock
8.6.2. Videovigilância, segurança doméstica
8.6.3. Câmaras de estacionamento
8.6.4. Câmaras de controlo da população
8.6.5. Radares de trânsito

8.7. Visão aplicada à robótica

8.7.1. Drones
8.7.2. AGV
8.7.3. Visão em robôs colaborativos
8.7.4. Os olhos dos robôs

8.8. Realidade aumentada

8.8.1. Funcionamento
8.8.2. Dispositivos
8.8.3. Aplicações na Indústrias
8.8.4. Aplicações comerciais

8.9. Cloud computing

8.9.1. Plataformas de Cloud Computing
8.9.2. Da Cloud Computing à produção

8.10. Investigação e estado da arte

8.10.1. A comunidade científica
8.10.2. O que é que está para chegar?
8.10.3. O futuro da visão artificial

Módulo 9. Técnicas de Visão Artificial em Robótica: processamento e análise de imagens

9.1. Visão por Computador

9.1.1. Visão por Computador
9.1.2. Elementos de um sistema de Visão por Computador
9.1.3. Ferramentas matemáticas

9.2. Sensores óticos para a Robótica

9.2.1. Sensores óticos passivos
9.2.2. Sensores óticos ativos
9.2.3. Sensores não-óticos

9.3. Aquisição de imagens

9.3.1. Representação de imagens
9.3.2. Espaço de cores
9.3.3. Processo de digitalização

9.4. Geometria das imagens

9.4.1. Modelos de lentes
9.4.2. Modelos de câmaras
9.4.3. Calibração de câmaras

9.5. Ferramentas matemáticas

9.5.1. Histograma de uma imagem
9.5.2. Convolução
9.5.3. A transformada de Fourier

9.6. Processamento de imagens

9.6.1. Análise de ruído
9.6.2. Suavização de imagens
9.6.3. Melhoria de imagens

9.7. Segmentação de imagens

9.7.1. Técnicas baseadas em contornos
9.7.2. Técnicas baseadas em histogramas
9.7.3. Operações morfológicas

9.8. Deteção de características na imagem

9.8.1. Deteção de pontos de interesse
9.8.2. Descritores de características
9.8.3. Correspondências entre características

9.9. Sistemas de visão 3D

9.9.1. Perceção 3D
9.9.2. Correspondência de características entre imagens
9.9.3. Geometria de múltiplas vistas

9.10. Localização baseada em Visão Artificial

9.10.1. O problema da localização dos robôs
9.10.2. Odometria visual
9.10.3. Fusão sensorial

Módulo 10. Sistemas de perceção visual de robôs com aprendizagem automática

10.1. Métodos de Aprendizagem Não-Supervisionada aplicados à Visão Artificial

10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similaridade e decomposição de matrizes

10.2. Métodos de Aprendizagem Supervisionada aplicados à Visão Artificial

10.2.1. Conceito de “saco de palavras”
10.2.2. Máquina de suporte vetorial
10.2.3. Latent Dirichlet Allocation
10.2.4. Redes neurais

10.3. Redes Neuronais Profundas: estruturas, Backbones e Transfer Learning

10.3.1. Capas geradoras de Features

10.3.1.1. VGG
10.3.1.2. Densenet
10.3.1.3. ResNet
10.3.1.4. Inception
10.3.1.5. GoogLeNet

10.3.2. Aprendizagem por Transferência
10.3.3. Os dados. Preparação para o treino

10.4. Visão Artificial com Aprendizagem Profunda I: deteção e segmentação

10.4.1. Diferenças e semelhanças entre YOLO e SSD
10.4.2. Unet
10.4.3. Outras estruturas

10.5. Visão Artificial com Aprendizagem Profunda II: Redes Adversariais Generativas

10.5.1. Imagens de super-resolução através de GAN
10.5.2. Criação de imagens realistas
10.5.3. Compreensão da cena

10.6. Técnicas de aprendizagem para localização e mapeamento na Robótica Móvel

10.6.1. Deteção e relocalização do encerramento de circuitos
10.6.2. Magic Leap. Super Point e Super Glue
10.6.3. Depth from Monocular

10.7. Inferência Bayesiana e modelação 3D

10.7.1. Modelos Bayesianos e aprendizagem "clássica"
10.7.2. Superfícies implícitas com processos Gaussianos (GPIS)
10.7.3. Segmentação 3D através de GPIS
10.7.4. Redes neurais para modelação de superfícies 3D

10.8. Aplicações de Ponta-a-Ponta das Redes Neurais Profundas

10.8.1. Sistema end-to-end. Exemplo de identificação de pessoas
10.8.2. Manipulação de objetos com sensores visuais
10.8.3. Geração e planeamento de movimentos com sensores visuais

10.9. Tecnologias na nuvem para acelerar o desenvolvimento de algoritmos de Deep Learning

10.9.1. Utilização de GPUs para o Deep Learning
10.9.2. Desenvolvimento ágil com Google IColab
10.9.3. GPUs remotas, Google Cloud e AWS

10.10. Implementação de Redes Neurais em aplicações reais

10.10.1. Sistemas incorporados
10.10.2. Implementação de Redes Neurais. Utilização
10.10.3. Otimizações de rede na implementação, exemplo com TensorRT

Módulo 11. SLAM visual. Localização e mapeamento simultâneos de robôs através de técnicas de Visão Artificial

11.1. Localização e mapeamento simultâneos (SLAM)

11.1.1. Localização e mapeamento simultâneos. SLAM
11.1.2. Aplicações SLAM
11.1.3. Funcionamento do SLAM

11.2. Geometria projetiva

11.2.1. Modelo Pin-Hole
11.2.2. Estimativa dos parâmetros intrínsecos da câmara
11.2.3. Homografia, princípios básicos e estimativa
11.2.4. Matriz fundamental, princípios e estimativa

11.3. Filtros Gaussianos

11.3.1. Filtro de Kalman
11.3.2. Filtro de informação
11.3.3. Ajuste e parametrização de filtros Gaussianos

11.4. Estéreo EKF-SLAM

11.4.1. Geometria da câmara estéreo
11.4.2. Extração e pesquisa de características
11.4.3. Filtro de Kalman para SLAM estéreo
11.4.4. Definição dos parâmetros do EKF-SLAM estéreo

11.5. Monocular EKF-SLAM

11.5.1. Parametrização de Pontos de Referência no EKF-SLAM
11.5.2. Filtro de Kalman para SLAM monocular
11.5.3. Definição dos parâmetros do EKF-SLAM monocular

11.6. Deteção de encerramento de circuitos

11.6.1. Algoritmo de força bruta
11.6.2. FABMAP
11.6.3. Abstração através de GIST e HOG
11.6.4. Deteção através de aprendizagem profunda

11.7. Graph-SLAM

11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM

11.8. Direct Visual SLAM

11.8.1. Análise do algoritmo Direct Visual SLAM
11.8.2. LSD-SLAM
11.8.3. SVO

11.9. Visual Inertial SLAM

11.9.1. Integração de medições por inércia
11.9.2. Baixo acoplamento: SOFT-SLAM
11.9.3. Acoplamento elevado: Vins-Mono

11.10. Outras tecnologias SLAM

11.10.1. Aplicações para além do SLAM visual
11.10.2. Lidar-SLAM
11.10.3. Range-only SLAM

Módulo 12. Aplicação à Robótica das Tecnologias de Realidade Virtual e Aumentada

12.1. Tecnologias imersivas na Robótica

12.1.1. Realidade Virtual na Robótica
12.1.2. Realidade Aumentada na Robótica
12.1.3. Realidade Mista na Robótica
12.1.4. Diferença entre realidades

12.2. Criação de ambientes virtuais

12.2.1. Materiais e texturas
12.2.2. Iluminação
12.2.3. Som e cheiro virtuais

12.3. Modelação de robôs em ambientes virtuais

12.3.1. Modelação geométrica
12.3.2. Modelação física
12.3.3. Normalização dos modelos

12.4. Modelação da dinâmica e cinemática de robôs: motores físicos virtuais

12.4.1. Motores físicos. Tipologia
12.4.2. Configuração de um motor físico
12.4.3. Motores físicos na indústria

12.5. Plataformas, periféricos e ferramentas mais utilizados em Realidade Virtual

12.5.1. Visualizadores de Realidade Virtual
12.5.2. Periféricos de interação
12.5.3. Sensores virtuais

12.6. Sistemas de Realidade Aumentada

12.6.1. Inserção de elementos virtuais na realidade
12.6.2. Tipos de marcadores visuais
12.6.3. Tecnologias de Realidade Aumentada

12.7. Metaverso: ambientes virtuais de agentes inteligentes e pessoas

12.7.1. Criação de avatares
12.7.2. Agentes inteligentes em ambientes virtuais
12.7.3. Criação de ambientes multiutilizadores para RV/RA

12.8. Criação de projetos de Realidade Virtual para Robótica

12.8.1. Fases de desenvolvimento de um projeto de Realidade Virtual
12.8.2. Implementação de sistemas de Realidade Virtual
12.8.3. Recursos de Realidade Virtual

12.9. Criar projetos de Realidade Aumentada para a Robótica

12.9.1. Fases de desenvolvimento de um projeto de Realidade Aumentada
12.9.2. Implementação de projetos de Realidade Aumentada
12.9.3. Recursos de Realidade Aumentada

12.10. Teleoperação de robôs com dispositivos móveis

12.10.1. Realidade mista em dispositivos móveis
12.10.2. Sistemas imersivos que utilizam sensores de dispositivos móveis
12.10.3. Exemplos de projetos móveis

Módulo 13. Sistemas de comunicação e interação com robôs

13.1. Reconhecimento do discurso: sistemas estocásticos

13.1.1. Modelação acústica da fala
13.1.2. Modelos de Markov ocultos
13.1.3. Modelação linguística da fala: N-Gramáticas, gramáticas BNF

13.2. Reconhecimento da fala: Deep Learning

13.2.1. Redes neurais profundas
13.2.2. Redes neurais recorrentes
13.2.3. Células LSTM

13.3. Reconhecimento da fala: prosódia e efeitos ambientais

13.3.1. Ruído ambiente
13.3.2. Reconhecimento multiorador
13.3.3. Patologias da fala

13.4. Compreensão da linguagem natural: sistemas heurísticos e probabilísticos

13.4.1. Análise sintático-semântica: regras linguísticas
13.4.2. Compreensão baseada em regras heurísticas
13.4.3. Sistemas probabilísticos: regressão logística e SVM
13.4.4. Compreensão baseada em redes neurais

13.5. Gestão do diálogo: estratégias heurísticas/probabilísticas

13.5.1. Intenção do interlocutor
13.5.2. Diálogo baseado em modelos
13.5.3. Gestão estocástica do diálogo: redes bayesianas

13.6. Gestão do diálogo: estratégias avançadas

13.6.1. Sistemas de aprendizagem baseados no reforço
13.6.2. Compreensão baseada em redes neurais
13.6.3. Do discurso à intenção numa única rede

13.7. Geração de respostas e síntese da fala

13.7.1. Geração de respostas: da ideia ao texto coerente
13.7.2. Síntese da fala por concatenação
13.7.3. Síntese estocástica da fala

13.8. Adaptação e contextualização do diálogo

13.8.1. Iniciativa de diálogo
13.8.2. Adaptação ao orador
13.8.3. Adaptação ao contexto do diálogo

13.9. Robôs e interações sociais: reconhecimento, síntese e expressão de emoções

13.9.1. Paradigmas da voz artificial: voz robótica e voz natural
13.9.2. Reconhecimento de emoções e análise de sentimentos
13.9.3. Síntese de voz emocional

13.10. Robôs e interações sociais: interfaces multimodais avançadas

13.10.1. Combinação de interfaces de voz e táteis
13.10.2. Reconhecimento e tradução de línguas gestuais
13.10.3. Avatares visuais: tradução de voz para língua gestual

Módulo 14. Processamento digital de imagens

14.1. Ambiente de desenvolvimento de visão por computador

14.1.1. Bibliotecas de visão por computador
14.1.2. Ambiente de programação
14.1.3. Ferramentas de visualização

14.2. Processamento digital de imagens

14.2.1. Relações entre píxeis
14.2.2. Operações com imagens
14.2.3. Transformações geométricas

14.3. Operações de píxeis

14.3.1. Histogramas
14.3.2. Transformações de histogramas
14.3.3. Operações em imagens a cores

14.4. Operações lógicas e aritméticas

14.4.1. Adição e subtração
14.4.2. Produto e divisão
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor

14.5. Filtros

14.5.1. Máscaras e convolução
14.5.2. Filtragem linear
14.5.3. Filtragem não-linear
14.5.4. Análise de Fourier

14.6. Operações morfológicas

14.6.1. Erode and Dilating
14.6.2. Closing and Open
14.6.3. Top hat e Black hat
14.6.4. Deteção de contornos
14.6.5. Esqueleto
14.6.6. Preenchimento de buracos
14.6.7. Convex hull

14.7. Ferramentas de análise de imagens

14.7.1. Deteção de margens
14.7.2. Deteção de blobs
14.7.3. Controlo dimensional
14.7.4. Inspeção de cores

14.8. Segmentação de objetos

14.8.1. Segmentação de imagens
14.8.2. Técnicas de segmentação clássicas
14.8.3. Aplicações reais

14.9. Calibração de imagens

14.9.1. Calibração de imagens
14.9.2. Métodos de calibração
14.9.3. Processo de calibração num sistema de câmara/robô 2D

14.10. Processamento de imagens em ambiente real

14.10.1. Análise da problemática
14.10.2. Tratamento de imagem
14.10.3. Extração de características
14.10.4. Resultados finais

Módulo 15. Processamento digital de imagens avançado

15.1. Reconhecimento ótico de caracteres (OCR)

15.1.1. Pré-processamento da imagem
15.1.2. Deteção de texto
15.1.3. Reconhecimento de texto

15.2. Leitura de códigos

15.2.1. Códigos 1D
15.2.2. Códigos 2D
15.2.3. Aplicações

15.3. Pesquisa de padrões

15.3.1. Pesquisa de padrões
15.3.2. Padrões baseados no nível de cinzentos
15.3.3. Padrões baseados em contornos
15.3.4. Padrões baseados em formas geométricas
15.3.5. Outras técnicas

15.4. Seguimento de objetos com visão convencional

15.4.1. Extração de fundo
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Fluxo ótico

15.5. Reconhecimento facial

15.5.1. Deteção de marcas faciais
15.5.2. Aplicações
15.5.3. Reconhecimento facial
15.5.4. Reconhecimento de emoções

15.6. Panorâmica e alinhamentos

15.6.1. Stitching
15.6.2. Composição de imagens
15.6.3. Fotomontagem

15.7. Alta Gama Dinâmica (HDR) e Estéreo Fotométrico

15.7.1. Gama dinâmica aumentada
15.7.2. Composição de imagens para melhoria de contornos
15.7.3. Técnicas de utilização de aplicações dinâmicas

15.8. Compressão de imagens

15.8.1. A compressão de imagens
15.8.2. Tipos de compressores
15.8.3. Técnicas de compressão de imagens

15.9. Processamento de vídeo

15.9.1. Sequências de imagens
15.9.2. Formatos e codecs de vídeo
15.9.3. Leitura de um vídeo
15.9.4. Processamento de fotogramas

15.10. Aplicações reais do processamento de imagens

15.10.1. Análise da problemática
15.10.2. Tratamento de imagem
15.10.3. Extração de características
15.10.4. Resultados finais

Módulo 16. Processamento de imagens 3D

16.1. Imagem 3D

16.1.1. Imagem 3D
16.1.2. Software de processamento de imagens 3D e visualizações
16.1.3. Software de metrologia

16.2. Open 3D

16.2.1. Biblioteca para processamento de dados 3D
16.2.2. Características
16.2.3. Instalação e utilização

16.3. Os dados

16.3.1. Mapas de profundidade em imagens 2D
16.3.2. Pointclouds
16.3.3. Normais
16.3.4. Superfícies

16.4. Visualização

16.4.1. Visualização de dados
16.4.2. Controlos
16.4.3. Visualização na Web

16.5. Filtros

16.5.1. Distância entre pontos, eliminar valores anómalos
16.5.2. Filtro passa-alto
16.5.3. Downsampling

16.6. Geometria e extração de características

16.6.1. Extração de um perfil
16.6.2. Medição da profundidade
16.6.3. Volume
16.6.4. Formas geométricas 3D
16.6.5. Planos
16.6.6. Projeção de um ponto
16.6.7. Distâncias geométricas
16.6.8. Kd Tree
16.6.9. Características 3D

16.7. Registo e Meshing

16.7.1. Concatenação
16.7.2. ICP
16.7.3. Ransac 3D

16.8. Reconhecimento de objetos 3D

16.8.1. Procura de um objeto na cena 3D
16.8.2. Segmentação
16.8.3. Bin picking

16.9. Análise de superfícies

16.9.1. Alisamento
16.9.2. Superfícies orientáveis
16.9.3. Octree

16.10. Triangulação

16.10.1. De Mesh a Point Cloud
16.10.2. Triangulação de mapas de profundidade
16.10.3. Triangulação de Point Clouds não-ordenadas

Módulo 17. Redes convolucionais e classificação de imagens

17.1. Redes neurais convolucionais

17.1.1. Introdução
17.1.2. Convolução
17.1.3. CNN Building Blocks

17.2. Tipos de camadas CNN

17.2.1. Convolucional
17.2.2. Ativação
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected

17.3. Métricas

17.3.1. Matriz de Confusão
17.3.2. Exatidão
17.3.3. Precisão
17.3.4. Recall
17.3.5. F1 Score
17.3.6. Curva ROC
17.3.7. AUC

17.4. Arquiteturas Principais

17.4.1. AlexNet
17.4.2. VGG
17.4.3. Resnet
17.4.4. GoogleLeNet

17.5. Classificação de imagens

17.5.1. Introdução
17.5.2. Análises dos dados
17.5.3. Preparação de dados
17.5.4. Treino do modelo
17.5.5. Validação do modelo

17.6. Considerações práticas para o treino CNN

17.6.1. Seleção do otimizador
17.6.2. Learning Rate Scheduler
17.6.3. Verificar o pipeline de treino
17.6.4. Treino com regularização

17.7. Melhores práticas em Deep Learning

17.7.1. Aprendizagem por Transferência
17.7.2. Fine Tuning
17.7.3. Data Augmentation

17.8. Avaliação estatística de dados

17.8.1. Número de datasets
17.8.2. Número de etiquetas
17.8.3. Número de imagens
17.8.4. Equilíbrio de dados

17.9. Implementação

17.9.1. Guardar e carregar modelos
17.9.2. Onnx
17.9.3. Inferência

17.10. Caso de estudo: classificação de imagens

17.10.1. Análise e preparação dos dados
17.10.2. Testar o pipeline de treino
17.10.3. Treino do modelo
17.10.4. Validação do modelo

Módulo 18. Detenção de objetos

18.1. Deteção e seguimento de objetos

18.1.1. Detenção de objetos
18.1.2. Casos de utilização
18.1.3. Seguimento de objetos
18.1.4. Casos de utilização
18.1.5. Oclusões, Poses Rígidas e Não-Rígidas

18.2. Métricas de avaliação

18.2.1. IOU - Intersection Over Union
18.2.2. Índice de Confiança
18.2.3. Recall
18.2.4. Precisão
18.2.5. Recall–Precision Curve
18.2.6. Mean Average Precision (mAP)

18.3. Métodos tradicionais

18.3.1. Sliding window
18.3.2. Viola detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)

18.4. Datasets

18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge

18.5. Detetor de Objetos de Dois Disparos

18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN

18.6. Detetor de Objetos de Disparo Único

18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet

18.7. Backbones

18.7.1. VGG
18.7.2. ResNet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet

18.8. Rastreamento de Objetos

18.8.1. Abordagens clássicas
18.8.2. Filtros de partículas
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort

18.9. Implementação

18.9.1. Plataforma de computação
18.9.2. Escolha do Backbone
18.9.3. Escolha do Framework
18.9.4. Otimização de modelos
18.9.5. Versão do modelo

18.10. Estudo: deteção e rastreamento de pessoas

18.10.1. Deteção de pessoas
18.10.2. Rastreamento de pessoas
18.10.3. Reidentificação
18.10.4. Contagem de pessoas em multidões

Módulo 19. Segmentação de imagens através de Deep Learning

19.1. Deteção e segmentação de objetos

19.1.1. Segmentação semântica
19.1.1.1. Casos de utilização de segmentação semântica
19.1.2. Segmentação Instanciada
19.1.2.1. Casos de utilização de segmentação instanciada

19.2. Métricas de avaliação

19.2.1. Semelhanças com outros métodos
19.2.2. Precisão dos píxeis
19.2.3. Dice Coefficient (F1 Score)

19.3. Funções de custos

19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Outras funções

19.4. Métodos tradicionais de segmentação

19.4.1. Aplicação de limites com Otsu e Riddlen
19.4.2. Equipas auto-organizadas
19.4.3. Algoritmo GMM-EM

19.5. Segmentação Semântica através de Deep Learning: FCN

19.5.1. FCN
19.5.2. Arquitetura
19.5.3. Aplicações do FCN

19.6. Segmentação Semântica através de Deep Learning: U-NET

19.6.1. U-NET
19.6.2. Arquitetura
19.6.3. Aplicação do U-NET

19.7. Segmentação semântica através de Deep Learning: Deep Lab

19.7.1. Deep Lab
19.7.2. Arquitetura
19.7.3. Aplicação do Deep Lab

19.8. Segmentação instanciada através de Deep Learning: Máscara RCNN

19.8.1. Máscara RCNN
19.8.2. Arquitetura
19.8.3. Implementação de uma Máscara RCNN

19.9. Segmentação em vídeos

19.9.1. STFCN
19.9.2. Semantic Video CNNs
19.9.3. Clockwork Convnets
19.9.4. Low-Latency

19.10. Segmentação em nuvens de pontos

19.10.1. A nuvem de pontos
19.10.2. PointNet
19.10.3. A-CNN

Módulo 20. Segmentação avançada de imagens e técnicas avançadas de visão por computador

20.1. Base de dados para problemas gerais de segmentação

20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset

20.2. Segmentação semântica na medicina

20.2.1. Segmentação semântica na medicina
20.2.2. Datasets para problemas médicos
20.2.3. Aplicação prática

20.3. Ferramentas de anotação

20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Outras ferramentas

20.4. Ferramentas de segmentação que utilizam diferentes Frameworks

20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Outros

20.5. Projeto de segmentação semântica. Os dados, fase 1

20.5.1. Análise do problema
20.5.2. Fonte de entrada de dados
20.5.3. Análise de dados
20.5.4. Preparação de dados

20.6. Projeto de segmentação semântica. Treino, fase 2

20.6.1. Seleção do algoritmo
20.6.2. Treino
20.6.3. Avaliação

20.7. Projeto de segmentação semântica. Resultados, fase 3

20.7.1. Ajuste preciso
20.7.2. Apresentação da solução
20.7.3. Conclusões

20.8. Autocodificadores

20.8.1. Autocodificadores
20.8.2. Arquitetura de um autocodificador
20.8.3. Autocodificadores com cancelamento de ruído
20.8.4. Autocodificador de coloração automática

20.9. As Redes Adversariais Generativas (GAN)

20.9.1. Redes Adversariais Generativas (GAN)
20.9.2. Arquitetura DCGAN
20.9.3. Arquitetura GAN Condicionada

20.10. Redes adversariais generativas melhoradas

20.10.1. Visão geral do problema
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN

##IMAGE##

Aperfeiçoe as suas competências de conceção, programação e controlo de robôs através de algoritmos de visão artificial e aprendizagem automática"

Advanced Master em Robótica e Visão Artificial

A robótica e a visão artificial são duas áreas em constante evolução que têm revolucionado a forma como interagimos com a tecnologia atualmente. Na TECH Universidade Tecnológica, em colaboração com a Faculdade de Informática, concebemos um Advanced Master em Robótica e Visão Artificial para preparar os profissionais nas últimas tendências e avanços nestes domínios. Este programa de formação virtual oferece uma ampla gama de conteúdos, desde os fundamentos teóricos até à aplicação prática de técnicas e algoritmos no desenvolvimento de sistemas robóticos e de visão artificial.

Com uma abordagem interdisciplinar ao desenvolvimento de sistemas robóticos e de visão artificial, concebemos uma abordagem interdisciplinar ao desenvolvimento de sistemas robóticos e de visão artificial.

Com uma abordagem interdisciplinar, o nosso programa de Advanced Master em Robótica e Visão Artificial forma os participantes para compreenderem os princípios e conceitos fundamentais da robótica e da visão artificial, bem como a aplicação de técnicas avançadas na resolução de problemas do mundo real. Os participantes terão a oportunidade de explorar temas como a perceção visual, a navegação autónoma, a aprendizagem automática e a interação homem-robô, entre outros. Além disso, o nosso programa conta com um corpo docente altamente qualificado, com experiência na investigação e aplicação da robótica e da visão artificial em diversos setores industriais e tecnológicos.