Qualificação universitária
A maior faculdade de Informática do mundo”
Apresentação
Revolucione o setor tecnológico graças a este Master em Deep Learning”
A rápida evolução tecnológica dos últimos anos permitiu que não seja tão distante o veículo de condução automática, o diagnóstico precoce de doenças graves através de dispositivos de imagens de grande precisão ou o reconhecimento facial com aplicações móveis. Assim, atualmente, estas inovações emergentes procuram o aperfeiçoamento da precisão dos automatismos e a melhoria da qualidade dos resultados obtidos.
Um cenário onde o profissional de informática, que deve possuir um conhecimento exaustivo sobre Deep Learning, desempenha um papel determinante, sendo capaz de dar um passo mais nesta corrida do setor para criar uma verdadeira Inteligência Artificial. Por essa razão, a TECH criou este Master de 12 meses de duração com o temário mais avançado e atual, confeccionado por autênticos especialistas neste campo.
Uma especialização com uma perspetiva teórico-prática que levará o aluno a adquirir um aprendizado intensivo sobre os fundamentos matemáticos, a construção de redes neuronais, a personalização de modelos e o treino com TensorFlow. Uma amplitude de conteúdo que será muito mais fácil de assimilar graças aos vídeos resumos de cada tema, os vídeos in focus, as leituras especializadas e os casos de estudo. Ademais, com o sistema Relearning, utilizado pela TECH, o informático progredirá de forma mais natural por esta qualificação, consolidando de forma mais simples os novos conceitos, reduzindo assim as longas horas de estudo.
Uma especialização que foca o conhecimento que fará o aluno crescer profissionalmente, que deseja ainda compatibilizar uma opção académica de primeiro nivel com as suas atividades diárias. E basta um dispositivo digital com conexão à internet para aceder a qualquer momento a esta qualificação que situa-se na vanguarda académica.
Triunfe com os seus projetos de IA em setores como o automóvel, as Finanças ou o médico com o ensino que lhe proporciona a TECH”
Este Master em Deep Learning conta com o conteúdo educacional mais completo e atualizado do mercado. As suas principais características são:
- O desenvolvimento de estudos de casos apresentados por especialistas em Data Engineer e Data Scientist
- O conteúdo gráfico, esquemático e eminentemente prático com o qual está concebido fornece informações técnicas e práticas sobre as disciplinas que são essenciais para a prática profissional
- Os exercícios práticos onde o processo de autoavaliação pode ser efetuado a fim de melhorar a aprendizagem
- O seu foco especial em metodologias inovadoras
- As aulas teóricas, perguntas ao especialista, fóruns de discussão sobre questões controversas e atividades de reflexão individual
- A disponibilidade de acesso aos conteúdos a partir de qualquer dispositivo fixo ou portátil com conexão à Internet
Aprofunde-se, quando desejar, nas bibliotecas de transformers da Hugging Face e outras ferramentas de processamento de linguagem natural para aplicar a problemas de visão”
A curso inclui no seu corpo docente, profissionais do setor que trazem a experiência do seu trabalho para esta formação, bem como especialistas reconhecidos das principais sociedades e universidades de prestígio.
O seu conteúdo multimédia, desenvolvido com a mais recente tecnologia educativa, permitirá ao profissional uma aprendizagem situada e contextual, ou seja, um ambiente simulado que proporcionará uma formação imersiva programada para treinar-se em situações reais.
O design deste curso foca-se na Aprendizagem Baseada em Problemas, através da qual o profissional deverá tentar resolver as diferentes situações da atividade profissional que surgem ao longo do curso. Para tal, contará com a ajuda de um sistema inovador de vídeo interativo desenvolvido por especialistas reconhecidos.
Dispõe de um temário avançado em Deep Learning, 24 horas por dia, a partir de qualquer dispositivo digital com conexão à internet”
Um Master de 12 meses de duração com aplicação de técnicas de aprendizagem profunda em problemas reais”
Programa de estudos
O plano de estudos desta qualificação levará o aluno a realizar um percurso académico que vai desde os fundamentos matemáticos do Deep Learning, seus princípios, o treino de redes neuronais profundas, a visualização de resultados e a avaliação de modelos de aprendizagem profunda. Um conteúdo exaustivo, complementado por numerosos recursos didáticos inovadores que constituem a Biblioteca Virtual desta qualificação.
Com o sistema Relearning, dirá adeus às longas horas de estudo e passará a adquirir um aprendizado muito mais eficaz e simples”
Módulo 1. Fundamentos Matemáticos de Deep Learning
1.1. Funções e Derivadas
1.1.1. Funções lineares
1.1.2. Derivadas parciais
1.1.3. Derivadas de ordem superior
1.2. Funções aninhadas
1.2.1. Funções compostas
1.2.2. Funções inversas
1.2.3. Funções recursivas
1.3. A regra da cadeia
1.3.1. Derivadas de funções aninhadas
1.3.2. Derivadas de funções compostas
1.3.3. Derivadas de funções inversas
1.4. Funções com múltiplas entradas
1.4.1. Funções de várias variáveis
1.4.2. Funções vetoriais
1.4.3. Funções matriciais
1.5. Derivadas de funções com entradas múltiplas
1.5.1. Derivadas parciais
1.5.2. Derivadas direcionais
1.5.3. Derivadas mistas
1.6. Funções com múltiplas entradas vetoriais
1.6.1. Funções vetoriais lineares
1.6.2. Funções vetoriais não lineares
1.6.3. Funções vetoriais de matriz
1.7. Criação de novas funções a partir de funções existentes
1.7.1. Soma de funções
1.7.2. Produto de funções
1.7.3. Composição de funções
1.8. Derivadas de funções com múltiplas entradas vetoriais
1.8.1. Derivadas de funções lineares
1.8.2. Derivadas de funções não lineares
1.8.3. Derivadas de funções compostas
1.9. Funções vetoriais e suas derivadas: Um passo além
1.9.1. Derivadas direcionais
1.9.2. Derivadas mistas
1.9.3. Derivadas matriciais
1.10. O Backward Pass
1.10.1. Propagação de erros
1.10.2. Aplicação de regras de atualização
1.10.3. Otimização de parâmetros
Módulo 2. Princípios de Deep Learning
2.1. O Aprendizado Supervisado
2.1.1. Máquinas de aprendizado supervisado
2.1.2. Usos do aprendizado supervisado
2.1.3. Diferenças entre aprendizado supervisado e não supervisado
2.2. Modelos de aprendizado supervisado
2.2.1. Modelos lineares
2.2.2. Modelos de árvores de decisão
2.2.3. Modelos de redes neuronais
2.3. Regressão linear
2.3.1. Regressão linear simples
2.3.2. Regressão linear múltipla
2.3.3. Análise de regressão
2.4. Treino do modelo
2.4.1. Batch Learning
2.4.2. Online Learning
2.4.3. Métodos de Otimização
2.5. Avaliação do modelo: Conjunto de treino versus conjunto de teste
2.5.1. Métricas de avaliação
2.5.2. Validação cruzada
2.5.3. Comparação de conjuntos de dados
2.6. Avaliação do modelo: O código
2.6.1. Geração de previsões
2.6.2. Análise de erros
2.6.3. Métricas de avaliação
2.7. Análise das variáveis
2.7.1. Identificação de variáveis relevantes
2.7.2. Análise de correlação
2.7.3. Análise de regressão
2.8. Explicabilidade dos modelos de redes neuronais
2.8.1. Modelos interpretáveis
2.8.2. Métodos de visualização
2.8.3. Métodos de avaliação
2.9. Otimização
2.9.1. Métodos de otimização
2.9.2. Técnicas de regularização
2.9.3. A utilização de gráficos
2.10. Hiperparâmetros
2.10.1. Seleção de hiperparâmetros
2.10.2. Pesquisa de parâmetros
2.10.3. Ajuste de hiperparâmetros
Módulo 3. As redes neuronais, a base da Deep Learning
3.1. Aprendizagem Profunda
3.1.1. Tipos de aprendizagem profunda
3.1.2. Aplicações da aprendizagem profunda
3.1.3. Vantagens e desvantagens da aprendizagem profunda
3.2. Operações
3.2.1. Adição
3.2.2. Produto
3.2.3. Transferência
3.3. Camadas
3.3.1. Camada de entrada
3.3.2. Camada oculta
3.3.3. Camada de saída
3.4. Ligação de Camadas e Operações
3.4.1. Design de arquiteturas
3.4.2. Conexão entre camadas
3.4.3. Propagação para a frente
3.5. Construção da primeira rede neuronal
3.5.1. Design da rede
3.5.2. Estabelecer os pesos
3.5.3. Treino da rede
3.6. Treinador e Otimizador
3.6.1. Seleção do otimizador
3.6.2. Estabelecimento de uma função de perda
3.6.3. Estabelecimento de uma métrica
3.7. Aplicação dos Princípios das Redes Neuronais
3.7.1. Funções de ativação
3.7.2. Propagação para trás
3.7.3. Ajuste dos parâmetros
3.8. Dos neurónios biológicos aos neurónios artificiais
3.8.1. Funcionamento de um neurónio biológico
3.8.2. Transferência de conhecimentos para os neurónios artificiais
3.8.3. Estabelecer de relações entre os dois
3.9. Implementação do MLP (Perceptron Multicamadas) com o Keras
3.9.1. Definição da estrutura da rede
3.9.2. Compilação do modelo
3.9.3. Treino do modelo
3.10. Hiperparâmetros de Fine tuning de Redes Neuronais
3.10.1. Seleção da função de ativação
3.10.2. Estabelecer o learning rate
3.10.3. Ajuste dos pesos
Módulo 4. Treino de redes neuronais profundas
4.1. Problemas de Gradientes
4.1.1. Técnicas de otimização de gradiente
4.1.2. Gradientes Estocásticos
4.1.3. Técnicas de inicialização de pesos
4.2. Reutilização de camadas pré-treinadas
4.2.1. Treino de transferência de aprendizagem
4.2.2. Extração de caraterísticas
4.2.3. Aprendizagem profunda
4.3. Otimizadores
4.3.1. Otimizadores estocásticos de gradiente descendente
4.3.2. Otimizadores Adam e RMSprop
4.3.3. Otimizadores de momento
4.4. Programação da taxa de aprendizagem
4.4.1. Controlo de taxa sobre aprendizagem automática
4.4.2. Ciclos de aprendizagem
4.4.3. Termos de suavização
4.5. Sobreajuste
4.5.1. Validação cruzada
4.5.2. Regularização
4.5.3. Métricas de avaliação
4.6. Orientações práticas
4.6.1. Design do modelo
4.6.2. Seleção de métricas e parâmetros de avaliação
4.6.3. Teste de hipóteses
4.7. Transfer learning
4.7.1. Treino de transferência de aprendizagem
4.7.2. Extração de caraterísticas
4.7.3. Aprendizagem profunda
4.8. Data Augmentation
4.8.1. Transformações de imagem
4.8.2. Geração de dados sintéticos
4.8.3. Transformação de texto
4.9. Aplicação Prática de Transfer Learning
4.9.1. Treino de transferência de aprendizagem
4.9.2. Extração de caraterísticas
4.9.3. Aprendizagem profunda
4.10. Regularização
4.10.1. L1 e L2
4.10.2. Regularização por entropia máxima
4.10.3. Dropout
Módulo 5. Personalização de modelos e treino com TensorFlow
5.1. TensorFlow
5.1.1. Uso da biblioteca TensorFlow
5.1.2. Treino de modelos com o TensorFlow
5.1.3. Operações de gráfico no TensorFlow
5.2. TensorFlow e NumPy
5.2.1. Ambiente computacional NumPy para TensorFlow
5.2.2. Utilização das arrays NumPy com TensorFlow
5.2.3. Operações NumPy para o TensorFlow gráficos do TensorFlow
5.3. Personalização de modelos e algoritmos de treino
5.3.1. Construir modelos personalizados com o TensorFlow
5.3.2. Gestão dos parâmetros de treino
5.3.3. Utilização de técnicas de otimização para o treino
5.4. Funções e gráficos do TensorFlow
5.4.1. Funções com o TensorFlow
5.4.2. Utilização de gráficos para treino de modelos
5.4.3. Otimização de gráficos com operações do TensorFlow
5.5. Carregamento e préprocessamento de dados com TensorFlow
5.5.1. Carga de conjuntos de dados com o TensorFlow
5.5.2. Préprocessamento de dados com o TensorFlow
5.5.3. Utilizar de ferramentas do TensorFlow para a manipulação de dados
5.6. A API tf.data
5.6.1. Utilização da API tf.data para o processamento de dados
5.6.2. Construção de fluxo de dados com tf.data
5.6.3. Utilização da API tf.data para o treino de modelos
5.7. O formato TFRecord
5.7.1. Utilização da API TFRecord para a serialização de dados
5.7.2. Carregar arquivos TFRecord com TensorFlow
5.7.3. Utilização de arquivos TFRecord para o treino de modelos
5.8. Camadas de pré-processamento do Keras
5.8.1. Utilização da API de pré-processamento do Keras
5.8.2. Construção de pipelined de pré-processamento com o Keras
5.8.3. Utilização da API de pré-processamento do Keras para o treino de modelos
5.9. O projeto TensorFlow Datasets
5.9.1. Usando conjuntos de dados do TensorFlow para carregamento de dados
5.9.2. Pré-processamento de dados com conjuntos de dados TensorFlow
5.9.3. Utilização de TensorFlow Datasets para o treino de modelos
5.10. Construção de uma Aplicação de Deep Learning com TensorFlow. Aplicação Prática
5.10.1. Construção de uma aplicação de Deep Learning com TensorFlow
5.10.2. Treinar um modelo com TensorFlow
5.10.3. Utilizar a aplicação para previsão de resultados
Módulo 6. Deep Computer Vision com Redes Neuronais Convolucionais
6.1. A Arquitetura Visual Cortex
6.1.1. Funções do córtex visual
6.1.2. Teoria da visão computacional
6.1.3. Modelos de processamento de imagens
6.2. Camadas convolucionais
6.2.1. Reutilização de pesos na convolução
6.2.2. Convolução 2D
6.2.3. Funções de ativação
6.3. Camadas de agrupamento e implementação de camadas de agrupamento
6.3.1. Pooling e Striding
6.3.2. Flattening
6.3.3. Tipos de Pooling
6.4. Arquitetura CNN
6.4.1. Arquitetura VGG
6.4.2. Arquitetura AlexNet
6.4.3. Arquitetura ResNet
6.5. Implementação de uma CNN ResNet -34 utilizando Keras
6.5.1. Inicialização de pesos
6.5.2. Definição da camada de entrada
6.5.3. Definição da saída
6.6. Utilização de modelos pré-treinados do Keras
6.6.1. Caraterísticas dos modelos pré-treinados
6.6.2. Usos dos modelos pré-treinados
6.6.3. Vantagens dos modelos pré-treinados
6.7. Modelos pré-treinados para a aprendizagem por transferência
6.7.1. A Aprendizagem por transferência
6.7.2. Processo de aprendizagem por transferência
6.7.3. Vantagens do aprendizagem por transferência
6.8. Classificação e Localização em Deep Computer Vision
6.8.1. Classificação de imagens
6.8.2. Localização de objetos em imagens
6.8.3. Detenção de objetos
6.9. Deteção e seguimento de objetos
6.9.1. Métodos de deteção de objetos
6.9.2. Algoritmos de seguimento de objetos
6.9.3. Técnicas de seguimento e localização
6.10. Segmentação semântica
6.10.1. Aprendizagem profunda para a segmentação semântica
6.10.2. Deteção de bordas
6.10.3. Métodos de segmentação baseado sem regras
Módulo 7. Sequências de Processamento utilizando RNN (Redes Neuronais Recurrentes) e CNN (Redes Neuronais Convolucionais)
7.1. Neurônios e camadas recorrentes
7.1.1. Tipos de neurônios recorrentes
7.1.2. Arquitetura de uma camada recorrente
7.1.3. Aplicações das camadas recorrentes
7.2. Treinamento de Redes Neuronais Recorrentes (RNN)
7.2.1. Backpropagation através do tempo (BPTT)
7.2.2. Gradiente descendente estocástico
7.2.3. Regularização no treinamento de RNN
7.3. Avaliação de modelos RNN
7.3.1. Métricas de avaliação
7.3.2. Validação cruzada
7.3.3. Ajuste de hiperparâmetros
7.4. RNN pré-treinadas
7.4.1. Redes pré-treinadas
7.4.2. Transferência de aprendizado
7.4.3. Ajuste fino
7.5. Previsão de uma série temporal
7.5.1. Modelos estatísticos para previsões
7.5.2. Modelos de séries temporais
7.5.3. Modelos baseados em redes neuronais
7.6. Interpretação dos resultados da análise de séries temporais
7.6.1. Análises de componentes principais
7.6.2. Análise de clusters
7.6.3. Análise de correlações
7.7. Gerenciamento de sequências longas
7.7.1. Long Short-Term Memory (LSTM)
7.7.2. Gated Recurrent Units (GRU)
7.7.3. Convolucionais 1D
7.8. Aprendizado de sequência parcial
7.8.1. Métodos de aprendizado profundo
7.8.2. Modelos generativos
7.8.3. Aprendizado por reforço
7.9. Aplicação Prática de RNN e CNN
7.9.1. Processamento de linguagem natural
7.9.2. Reconhecimento de padrões
7.9.3. Visão computacional
7.10. Diferenças nos resultados clássicos
7.10.1. Métodos clássicos vs. RNN
7.10.2. Métodos clássicos vs. CNN
7.10.3. Diferença no tempo de treinamento
Módulo 8. Processamento de linguagem natural (PLN) com Redes Neurais Recorrentes (RNN) e Atenção
8.1. Geração de texto utilizando RNN
8.1.1. Treino de uma RNN para geração de texto
8.1.2. Geração de linguagem natural com RNN
8.1.3. Aplicações de geração de texto com RNN
8.2. Criação de conjuntos de dados de treino
8.2.1. Preparação dos dados para o treino de uma RNN
8.2.2. Armazenamento do conjunto de dados de treino
8.2.3. Limpeza e transformação dos dados
8.3. Análise de Sentimento
8.3.1. Classificação da opiniões com RNN
8.3.2. Deteção de temas nos comentários
8.3.3. Análise de sentimento com algoritmos de aprendizagem profunda
8.4. Rede codificadora-descodificadora para a tradução automática neural
8.4.1. Treino de uma RNN para a tradução automática
8.4.2. Utilização de uma rede encoder-decoder para a tradução automática
8.4.3. Melhoria da precisão da tradução automática com RNNs
8.5. Mecanismos de atenção
8.5.1. Implementação de mecanismos de atenção em RNN
8.5.2. Utilização de mecanismos de atenção para melhorar a precisão dos modelos
8.5.3. Vantagens dos mecanismos de atenção nas redes neuronais
8.6. Modelos Transformers
8.6.1. Uso de modelos Transformers no processamento de linguagem natural
8.6.2. Aplicação de modelos Transformers na visão
8.6.3. Vantagens dos modelos Transformers
8.7. Transformers para a visão
8.7.1. Utilização de modelos Transformers para a visão
8.7.2. Pré-processamento de dados de imagem
8.7.3. Treino de um modelo Transformer para a visão
8.8. Biblioteca de Transformers de Hugging Face
8.8.1. Utilização da biblioteca Transformers de Hugging Face
8.8.2. Aplicação da biblioteca de Transformers de Hugging Face
8.8.3. Vantagens da biblioteca Transformers de Hugging Face
8.9. Outras Bibliotecas de Transformers. Comparação
8.9.1. Comparação entre as diferentes bibliotecas de Transformers
8.9.2. Uso das outras bibliotecas de Transformers
8.9.3. Vantagens das outras bibliotecas de Transformers
8.10. Desenvolvimento de uma aplicação de PLN com RNN e Atenção. Aplicação Prática
8.10.1. Desenvolvimento de uma aplicação de processamento de linguagem natural com RNN e atenção
8.10.2. Utilização de RNN, mecanismos de atenção e modelos Transformers na aplicação
8.10.3. Avaliação da aplicação prática
Módulo 9. Autoencoders, GANs e Modelos de Difusão
9.1. Representação de dados eficientes
9.1.1. Redução da dimensionalidade
9.1.2. Aprendizagem profunda
9.1.3. Representações compatas
9.2. Realização da PCA com um codificador automático linear incompleto
9.2.1. Processo de treino
9.2.2. Implementação em Python
9.2.3. Utilização de dados de teste
9.3. Codificadores automáticos empilhados
9.3.1. Redes neuronais profundas
9.3.2. Construção de arquiteturas de codificação
9.3.3. Utilização da regularização
9.4. Autoencodificadores convolucionais
9.4.1. Design do modelo convolucionais
9.4.2. Treino do modelo convolucionais
9.4.3. Avaliação dos resultados
9.5. Redução do ruído dos codificadores automáticos
9.5.1. Aplicação de filtros
9.5.2. Design de modelos de codificação
9.5.3. Utilização de técnicas de regularização
9.6. Codificadores automáticos dispersos
9.6.1. Aumento da eficiência da codificação
9.6.2. Minimizar o número de parâmetros
9.6.3. Utilização de técnicas de regularização
9.7. Codificadores automáticos variacionais
9.7.1. Utilização da otimização variacional
9.7.2. Aprendizagem profunda não supervisionada
9.7.3. Representações latentes profundas
9.8. Geração de imagens MNIST de moda
9.8.1. Reconhecimento de padrões
9.8.2. Geração de imagens
9.8.3. Treino de redes neuronais profundas
9.9. Redes generativas antagónicas e modelos de difusão
9.9.1. Geração de conteúdos a partir de imagens
9.9.2. Modelação de distribuições de dados
9.9.3. Utilização de redes contraditórias
9.10. Implementação dos Modelos. Aplicação Prática
9.10.1. Implementação dos modelos
9.10.2. Utilização de dados reais
9.10.3. Avaliação dos resultados
Módulo 10. Reinforcement Learning
10.1. Otimização das recompensas e a busca de políticas
10.1.1. Algoritmos de otimização de recompensas
10.1.2. Processos de busca de políticas
10.1.3. Aprendizado por reforço para otimizar as recompensas
10.2. OpenAI
10.2.1. Ambiente OpenAI Gym
10.2.2. Criação de ambientes OpenAI
10.2.3. Algoritmos de aprendizado por reforço no OpenAI
10.3. Políticas de redes neuronais
10.3.1. Redes neuronais convolucionais para a busca de políticas
10.3.2. Políticas de aprendizado profundo
10.3.3. Ampliação de políticas de redes neuronais
10.4. Avaliação de ações: o problema da atribuição de créditos
10.4.1. Análise de risco para a atribuição de créditos
10.4.2. Estimativa de rentabilidade de empréstimos
10.4.3. Modelos de avaliação de créditos baseados em redes neuronais
10.5. Gradientes de Política
10.5.1. Aprendizado por reforço com gradientes de política
10.5.2. Otimização de gradientes de política
10.5.3. Algoritmos de gradientes de política
10.6. Processos de decisão de Markov
10.6.1. Otimização de processos de decisão de Markov
10.6.2. Aprendizado por reforço para processos de decisão de Markov
10.6.3. Modelos de processos de decisão de Markov
10.7. Aprendizado de diferenças temporais e Q-Learning
10.7.1. Aplicação de diferenças temporais no aprendizado
10.7.2. Aplicação de Q-Learning no aprendizado
10.7.3. Otimização de parâmetros de Q-Learning
10.8. Implementação de Deep Q-Learning e variantes de Deep Q-Learning
10.8.1. Construção de redes neuronais profundas para Deep Q-Learning
10.8.2. Implementação de Deep Q-Learning
10.8.3. Variações de Deep Q-Learning
10.9. Algoritmos de Reinforment Learning
10.9.1. Algoritmos de aprendizado por reforço
10.9.2. Algoritmos de aprendizado por recompensa
10.9.3. Algoritmos de aprendizado por castigo
10.10. Desenho de um ambiente de aprendizado por Reforço. Aplicação Prática
10.10.1. Desenho de um ambiente de aprendizado por reforço
10.10.2. Implementação de um algoritmo de aprendizado por reforço
10.10.3. Avaliação de um algoritmo de aprendizado por reforço
Especialize-se no treinamento, avaliação e análise dos modelos de redes neuronais graças a esta qualificação”
Mestrado em Deep Learning
O Deep Learning é uma ramificação da aprendizagem automática que se concentra no uso de redes neuronais profundas para analisar grandes conjuntos de dados e fazer previsões de forma autónoma. Esta ferramenta é utilizada numa vasta gama de aplicações, abrangendo o reconhecimento de voz, o processamento da linguagem natural e a visão computacional. Se deseja conhecer as últimas tendências em inteligência artificial e aprendizagem automática, o Mestrado em Deep Learning criado pela TECH Universidade Tecnológica é ideal para si. O programa conta com uma modalidade de estudo 100% online e é composto por recursos didáticos inovadores que irão enriquecer a sua experiência educativa. O conteúdo curricular permitirá explorar aspetos como redes neuronais profundas, processamento da linguagem natural e visão computacional. Paralelamente, irá estudar robótica, reconhecimento de padrões, aprendizagem por reforço e técnicas avançadas de processamento de dados.
Conheça tudo sobre o Deep Learning
O Deep Learning é uma disciplina fundamental para o desenvolvimento de sistemas inteligentes capazes de aprender e adaptar-se a partir de grandes quantidades de dados. Este enfoque baseia-se em redes neuronais profundas, compostas por várias camadas interconectadas que processam a informação de forma não linear. No decorrer do Mestrado, obterá competências em áreas-chave como a visão computacional, o processamento da linguagem natural, a robótica e o reconhecimento de padrões. À medida que avança neste programa altamente completo, desenhado por especialistas do setor, aprofundará a compreensão e aplicação de técnicas avançadas de processamento de dados para a resolução de problemas complexos. Com isto, fortalecerá os seus conhecimentos na área, o que lhe permitirá aspirar a excelentes perspetivas de carreira em campos como a investigação, o desenvolvimento de software, a engenharia de dados e a consultoria, entre outros.