Presentación

Dale un impulso de calidad a tu carrera y currículum incorporando en tu trabajo los últimos conocimientos en Computación Paralela y Distribuida” 

##IMAGE##

Un buen conocimiento avanzado en Computación Paralela y Distribuida puede impulsar la trayectoria profesional de todo informático que busque una buena forma de distinguirse. Dado que se trata de un tema complejo que, además, puede derivar en multitud de usos, TECH ha recurrido a un equipo de referentes en el área para la elaboración de todos los contenidos. 

Así, los informáticos encontrarán temas dedicados a la comunicación y coordinación en sistemas de computación, análisis y programación de algoritmos paralelos o sistemas distribuidos en computación, entre otras cuestiones de gran utilidad. Todo ello redactado con una perspectiva moderna e innovadora, basada en la propia experiencia acumulada del propio personal docente.  

De este modo, los informáticos que finalicen este programa tienen una ventaja decisiva para proyectar sus carrera hacia el desarrollo de aplicaciones o sistemas en el ámbito del clima, la salud, el big data, la computación en la nube o el blockchain. También, dado lo avanzado del temario, se puede incluso proyectar una salida de investigación en el ámbito de la computación o de otras áreas relacionadas con la misma.  

Además, el título se ofrece en un formato completamente online, lo que elimina la necesidad de asistir a clases o las restricciones típicas de un horario predeterminado. Los informáticos tiene la libertad para poder distribuir la carga lectiva según sus propios intereses, pudiendo compaginar el estudio de este Máster de Formación Permanente con otras responsabilidades personales o profesionales. 

Inscríbete ahora y comienza ya a descubrir las novedades más recientes en Computación Paralela en entornos cloud y programación orientada a Computación Distribuida” 

Este Máster de Formación Permanente en Computación Paralela y Distribuida contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:

  • El desarrollo de casos prácticos presentados por expertos en Computación Paralela y Distribuida 
  • Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que está concebido recogen una información práctica sobre aquellas disciplinas indispensables para el ejercicio profesional 
  • Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje 
  • Su especial hincapié en metodologías innovadoras  
  • Las lecciones teóricas, preguntas al experto y trabajos de reflexión individual 
  • La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet 

Estarás asesorado en todo momento por el equipo docente, conformado con profesionales con gran experiencia en la Computación Paralela y Distribuida”

El programa incluye, en su cuadro docente, a profesionales del sector que vierten en esta capacitación la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio.

Su contenido multimedia, elaborado con la última tecnología educativa, permitirá a los profesionales un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará una capacitación inmersiva programada para entrenarse ante situaciones reales.

El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual los profesionales deberán tratar de resolver las distintas situaciones de práctica profesional que se les planteen a lo largo del curso académico. Para ello, contarán con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.

Tendrás todo el apoyo de la mayor institución académica online del mundo, TECH con la última tecnología educativa a tu disposición"

##IMAGE##

No dejes pasar la oportunidad de distinguirte y mostrar tu interés por la informática del presente y el futuro"

Temario

Para facilitar una mejor labor de estudio y adquisición de competencias, TECH ha incorporado en este programa universitario la metodología pedagógica más efectiva. Gracias al relearning, los alumnos ven considerablemente reducido el tiempo que tienen que invertir en adquirir los conocimientos más importantes del programa, lo que además se ve reforzado por la gran cantidad de material audiovisual, lecturas complementarias y ejercicios prácticos que ayudan a afianzar toda la materia. 

##IMAGE##

Ejercicios prácticos basados en casos reales y vídeos en detalle elaborados por los propios profesores serán la clave de tu éxito en este programa universitario” 

Módulo 1. Paralelismo en computación paralela y distribuida

1.1. Procesamiento paralelo

1.1.1. Procesamiento paralelo
1.1.2. Procesamiento paralelo en computación. Finalidad
1.1.3. Procesamiento paralelo. Análisis

1.2. Sistema paralelo

1.2.1. El sistema paralelo
1.2.2. Niveles de paralelismo
1.2.3. Composición del sistema paralelo

1.3. Arquitecturas de procesadores

1.3.1. Complejidad del procesador
1.3.2. Arquitectura de procesadores. Modo de operación
1.3.3. Arquitectura de procesadores. Organización de la memoria

1.4. Redes en el procesamiento paralelo

1.4.1. Modo de operación
1.4.2. Estrategia de control
1.4.3. Técnicas de conmutación
1.4.4. Topología

1.5. Arquitecturas paralelas

1.5.1. Algoritmos
1.5.2. Acoplamiento
1.5.3. Comunicación

1.6. Rendimiento de la computación paralela

1.6.1. Evolución del rendimiento
1.6.2. Medidas de performance
1.6.3. Computación paralela. Casos de estudio

1.7. Taxonomía de Flynn

1.7.1. MIMD: memoria compartida
1.7.2. MIMD: memoria distribuida
1.7.3. MIMD: sistemas híbridos
1.7.4. Flujo de datos

1.8. Formas de paralelismo: TLP (Thread Level Paralelism)

1.8.1. Formas de paralelismo: TLP (Thread Level Paralelism)
1.8.2. Coarse grain
1.8.3. Fine grain
1.8.4. SMT

1.9. Formas de paralelismo: DLP (Data Level Paralelism)

1.9.1. Formas de paralelismo: DLP (Data Level Paralelism)
1.9.2. Short vector processing
1.9.3. Vector processors

1.10. Formas de paralelismo: ILP (Instruction Level Paralelism)

1.10.1. Formas de paralelismo: ILP (Instruction Level Paralelism)
1.10.2. Procesador segmentado
1.10.3. Procesador superescalar
1.10.4. Procesador Very Long Instruction Word (VLIW)

Módulo 2. Descomposición en paralelo en computación paralela y distribuida

2.1. Descomposición en paralelo

2.1.1. Procesamiento paralelo
2.1.2. Arquitecturas
2.1.3. Supercomputadoras

2.2. Hardware paralelo y software paralelo

2.2.1. Sistemas en serie
2.2.2. Hardware paralelo
2.2.3. Software paralelo
2.2.4. Entrada y salida
2.2.5. Rendimiento

2.3. Escalabilidad paralela y problemas de rendimiento recurrentes

2.3.1. Paralelismo
2.3.2. Escalabilidad en paralelo
2.3.3. Problemas recurrentes de rendimiento

2.4. Paralelismo de memoria compartida

2.4.1. Paralelismo de memoria compartida
2.4.2. OpenMP y Pthreads
2.4.3. Paralelismo de memoria compartida. Ejemplos

2.5. Unidad de Procesamiento Gráfico (GPU)

2.5.1. Unidad de Procesamiento Gráfico (GPU)
2.5.2. Arquitectura Unificada de Dispositivos Computacionales (CUDA)
2.5.3. Arquitectura Unificada de Dispositivos Computacionales. Ejemplos

2.6. Sistemas de paso de mensajes

2.6.1. Sistemas de paso de mensajes
2.6.2. MPI. Interfaz de paso de mensajes
2.6.3. Sistemas de paso de mensajes. Ejemplos

2.7. Paralelización híbrida con MPI y OpenMP

2.7.1. La programación híbrida
2.7.2. Modelos de programación MPI/OpenMP
2.7.3. Descomposición y mapeo híbrido

2.8. Computación MapReduce

2.8.1. Hadoop
2.8.2. Otros sistemas de cómputo
2.8.3. Computación paralela. Ejemplos

2.9. Modelo de actores y procesos reactivos

2.9.1. Modelo de actores
2.9.2. Procesos reactivos
2.9.3. Actores y procesos reactivos. Ejemplos

2.10. Escenarios de computación paralela

2.10.1. Procesamiento de audio e imágenes
2.10.2. Estadística/minería de datos
2.10.3. Ordenación paralela
2.10.4. Operaciones matriciales paralelas

Módulo 3. Comunicación y coordinación en sistemas de computación

3.1. Procesos de Computación Paralela y Distribuida

3.1.1. Procesos de Computación Paralela y Distribuida
3.1.2. Procesos e hilos
3.1.3. Virtualización
3.1.4. Clientes y servidores

3.2. Comunicación en Computación Paralela

3.2.1. Computación en computación paralela
3.2.2. Protocolos por capas
3.2.3. Comunicación en computación paralela. Tipología

3.3. Llamada a procedimiento remoto

3.3.1. Funcionamiento de RPC (Remote Procedure Call)
3.3.2. Paso de parámetros
3.3.3. RPC asíncrono
3.3.4. Procedimiento remoto. Ejemplos

3.4. Comunicación orientada a mensajes

3.4.1. Comunicación transitoria orientada a mensajes
3.4.2. Comunicación persistente orientada a mensajes
3.4.3. Comunicación orientada a mensajes. Ejemplos

3.5. Comunicación orientada a flujos

3.5.1. Soporte para medios continuos
3.5.2. Flujos y calidad de servicio
3.5.3. Sincronización de flujos
3.5.4. Comunicación orientada a flujos. Ejemplos

3.6. Comunicación de multidifusión

3.6.1. Multidifusión a nivel de aplicación
3.6.2. Difusión de datos basada en rumores
3.6.3. Comunicación de multidifusión. Ejemplos

3.7. Otros tipos de comunicación

3.7.1. Invocación de métodos remotos
3.7.2. Servicios web / SOA / REST
3.7.3. Notificación de eventos
3.7.4. Agentes móviles

3.8. Servicio de nombres

3.8.1. Servicios de nombres en computación
3.8.2. Servicios de nombres y sistema de dominio de nombres
3.8.3. Servicios de directorio

3.9. Sincronización

3.9.1. Sincronización de relojes
3.9.2. Relojes lógicos, exclusión mutua y posicionamiento global de los nodos
3.9.3. Elección de algoritmos

3.10. Comunicación. Coordinación y acuerdo

3.10.1. Coordinación y acuerdo
3.10.2. Coordinación y acuerdo. Consenso y problemas
3.10.3. Comunicación y coordinación. Actualidad

Módulo 4. Análisis y programación de algoritmos paralelos

4.1. Algoritmos paralelos

4.1.1. Descomposición de problemas
4.1.2. Dependencias de datos
4.1.3. Paralelismo implícito y explícito

4.2. Paradigmas de programación paralela

4.2.1. Programación paralela con memoria compartida
4.2.2. Programación paralela con memoria distribuida
4.2.3. Programación paralela híbrida
4.2.4. Computación heterogénea - CPU + GPU
4.2.5. Computación cuántica. Nuevos modelos de programación con paralelismo implícito

4.3. Programación paralela con memoria compartida

4.3.1. Modelos de programación paralela con memoria compartida
4.3.2. Algoritmos paralelos con memoria compartida
4.3.3. Librerías para programación paralela con memoria compartida

4.4. OpenMP

4.4.1. OpenMP
4.4.2. Ejecución y depuración de programas con OpenMP
4.4.3. Algoritmos paralelos con memoria compartida en OpenMP

4.5. Programación paralela por paso de mensajes

4.5.1. Primitivas de paso de mensajes
4.5.2. Operaciones de comunicación y computación colectiva
4.5.3. Algoritmos paralelos por paso de mensajes
4.5.4. Librerías para programación paralela con paso de mensajes

4.6. Message Passing Interface (MPI)

4.6.1. Message Passing Interface (MPI)
4.6.2. Ejecución y depuración de programas con MPI
4.6.3. Algoritmos paralelos por paso de mensajes con MPI

4.7. Programación paralela híbrida

4.7.1. Programación paralela híbrida
4.7.2. Ejecución y depuración de programas paralelos híbridos
4.7.3. Algoritmos paralelos híbridos MPI-OpenMP

4.8. Programación paralela con computación heterogénea

4.8.1. Programación paralela con computación heterogénea
4.8.2. CPU vs. GPU
4.8.3. Algoritmos paralelos con computación heterogénea

4.9. OpenCL y CUDA

4.9.1. OpenCL vs. CUDA
4.9.2. Ejecución y depuración de programas paralelos con computación heterogénea
4.9.3. Algoritmos paralelos con computación heterogénea

4.10. Diseño de algoritmos paralelos

4.10.1. Diseño de algoritmos paralelos
4.10.2. Problema y contexto
4.10.3. Paralelización automática vs. Paralelización manual
4.10.4. Particionamiento del problema
4.10.5. Comunicaciones en computación

Módulo 5. Arquitecturas paralelas

5.1. Arquitecturas paralelas

5.1.1. Sistemas paralelos. Clasificación
5.1.2. Fuentes de paralelismo
5.1.3. Paralelismo y procesadores

5.2. Rendimiento de los sistemas paralelos

5.2.1. Magnitudes y medidas de rendimiento
5.2.2. Speed-up
5.2.3. Granularidad de los sistemas paralelos

5.3. Procesadores vectoriales

5.3.1. Procesador vectorial básico
5.3.2. Memoria entrelazada o intercalada
5.3.3. Rendimiento de los procesadores vectoriales

5.4. Procesadores matriciales

5.4.1. Organización básica
5.4.2. Programación en procesadores matriciales
5.4.3. Programación en procesadores matriciales. Ejemplo práctico

5.5. Redes de interconexión

5.5.1. Redes de interconexión
5.5.2. Topología, control de flujo y encaminamiento
5.5.3. Redes de interconexión. Clasificación según topología

5.6. Multiprocesadores

5.6.1. Redes de interconexión para multiprocesadores
5.6.2. Consistencia de memoria y cachés
5.6.3. Protocolos de sondeo

5.7. Sincronización

5.7.1. Cerrojos (exclusión mutua)
5.7.2. Eventos de sincronización P2P
5.7.3. Eventos de sincronización globales

5.8. Multicomputadores

5.8.1. Redes de interconexión para multicomputadores
5.8.2. Capa de conmutación
5.8.3. Capa de encaminamiento

5.9. Arquitecturas avanzadas

5.9.1. Máquinas de flujo de datos
5.9.2. Otras arquitecturas

5.10. Programación paralela y distribuida

5.10.1. Lenguajes para programación paralela
5.10.2. Herramientas de programación paralela
5.10.3. Patrones de diseño
5.10.4. Concurrencia de lenguajes de programación paralela y distribuida

Módulo 6. Desempeño en paralelo

6.1. Desempeño de algoritmos paralelos

6.1.1. Ley de Ahmdal
6.1.2. Ley de Gustarfson
6.1.3. Métricas de desempeño y escalabilidad de algoritmos paralelos

6.2. Comparativa de algoritmos paralelos

6.2.1. Benchmarking
6.2.2. Análisis matemático de algoritmos paralelos
6.2.3. Análisis asintótico de algoritmos paralelos

6.3 Restricciones de los recursos hardware

6.3.1. Memoria
6.3.2. Procesamiento
6.3.3. Comunicaciones
6.3.4. Particionamiento dinámico de recursos

6.4 Desempeño de programas paralelos con memoria compartida

6.4.1. División óptima en tareas
6.4.2. Afinidad de Threads
6.4.3. Paralelismo SIMD
6.4.4. Programas paralelos con memoria compartida. Ejemplos

6.5. Desempeño de programas paralelos por paso de mensajes

6.5.1. Desempeño de programas paralelos por paso de mensajes
6.5.2. Optimización de comunicaciones en MPI
6.5.3. Control de afinidad y balanceo de carga
6.5.4. I/O paralela
6.5.5. Programas paralelos por paso de mensajes. Ejemplos

6.6. Desempeño de programas paralelos híbridos

6.6.1. Desempeño de programas paralelos híbridos
6.6.2. Programación híbrida para sistemas de memoria compartida/distribuida
6.6.3. Programas paralelos híbridos. Ejemplos

6.7. Desempeño de programas con computación heterogénea

6.7.1. Desempeño de programas con computación heterogénea
6.7.2. Programación híbrida para sistemas con varios aceleradores hardware
6.7.3. Programas con computación heterogénea. Ejemplos

6.8. Análisis de rendimiento de algoritmos paralelos

6.8.1. Análisis de rendimiento de algoritmos paralelos
6.8.2. Análisis de rendimiento de algoritmos paralelos. Herramientas
6.8.3. Análisis de rendimiento de algoritmos paralelos. Recomendaciones

6.9. Patrones paralelos

6.9.1. Patrones paralelos
6.9.2. Principales patrones paralelos
6.9.3. Patrones paralelos. Comparativa

6.10. Programas paralelos de alto rendimiento

6.10.1. Proceso
6.10.2. Programas paralelos de alto rendimiento
6.10.3. Programas paralelos de alto rendimiento. Usos reales

Módulo 7. Sistemas distribuidos en computación

7.1. Sistemas Distribuidos

7.1.1. Sistemas Distribuidos (SD)
7.1.2. Demostración del teorema de CAP (o Conjetura de Brewer)
7.1.3. Falacias de la programación sobre Sistemas Distribuidos
7.1.4. Computación ubicua

7.2. Sistemas Distribuidos. Características

7.2.1. Heterogeneidad
7.2.2. Extensibilidad
7.2.3. Seguridad
7.2.4. Escalabilidad
7.2.5. Tolerancia a fallos
7.2.6. Concurrencia
7.2.7. Transparencia

7.3. Redes e interconexión de redes distribuidas

7.3.1. Redes y los Sistemas Distribuidos. Prestaciones de las redes.
7.3.2. Redes disponibles para crear un sistema distribuido. Tipología
7.3.3. Protocolos de red distribuidos vs. Centralizados
7.3.4. Interconexión de redes. Internet

7.4. Comunicación entre procesos distribuidos

7.4.1. Comunicación entre nodos de un SD Problemas y fallas
7.4.2. Mecanismos que implementar sobre RPC y RDMA para evitar fallas
7.4.3. Mecanismos que implementar en el software para evitar fallas

7.5. Diseño de Sistemas Distribuidos

7.5.1. Diseño eficiente de Sistemas Distribuidos (SD)
7.5.2. Patrones para la programación en Sistemas Distribuidos (SD)
7.5.3. Arquitectura Orientada a Servicios (Service Oriented Architecture (SOA))
7.5.4. Service Orchestration y Microservices Data Management

7.6. Operación de Sistemas Distribuidos

7.6.1. Monitorización de los sistemas
7.6.2. Implantación de un sistema de trazas (logging) eficiente en un SD
7.6.3. Monitorización en redes distribuidas
7.6.4. Uso de una herramienta de monitorización para un SD: Prometheus y Grafana

7.7. Replicación de sistemas

7.7.1. Replicación de sistemas. Tipologías
7.7.2. Arquitecturas inmutables
7.7.3. Los sistemas contenedores y sistemas virtualizadores como Sistemas Distribuidos
7.7.4. Las redes blockchain como Sistemas Distribuidos

7.8. Sistemas multimedia distribuidos

7.8.1. Intercambio distribuido de imágenes y videos. Problemática
7.8.2. Servidores de objetos multimedia
7.8.3. Topología de red para un sistema multimedia
7.8.4. Análisis de los sistemas multimedia distribuidos: Netflix, Amazon, Spotify, etc.
7.8.5. Los sistemas distribuidos multimedia en educación

7.9. Sistemas de ficheros distribuidos

7.9.1. Intercambio distribuido de ficheros. Problemática
7.9.2. Aplicabilidad del teorema de CAP a las bases de datos
7.9.3. Sistemas de ficheros web distribuidos: Akamai
7.9.4. Sistemas de ficheros documentales distribuidos IPFS
7.9.5. Sistemas de bases de datos distribuidas

7.10. Enfoques de seguridad en sistemas distribuidos

7.10.1. Seguridad en Sistemas Distribuidos
7.10.2. Ataques conocidos a Sistemas Distribuidos
7.10.3. Herramientas para probar la seguridad de un SD

Módulo 8. Computación paralela aplicada a entornos Cloud

8.1. Computación en la nube

8.1.1. Estado del arte del panorama IT
8.1.2. La “nube”
8.1.3. Computación en la nube

8.2. Seguridad y resiliencia en la nube

8.2.1. Regiones, zonas de disponibilidad y fallo
8.2.2. Administración de los tenant o cuentas de Cloud
8.2.3. Identidad y control de acceso en la nube

8.3. Networking en la nube

8.3.1. Redes virtuales definidas por software
8.3.2. Componentes de red de una red definida por software
8.3.3. Conexión con otros sistemas

8.4. Servicios en la nube

8.4.1. Infraestructura como servicio
8.4.2. Plataforma como servicio
8.4.3. Computación serverless
8.4.4. Software como servicio

8.5. Almacenamiento en la nube

8.5.1. Almacenamiento de bloques en la nube
8.5.2. Almacenamiento de ficheros en la nube
8.5.3. Almacenamiento de objetos en la nube

8.6. Interacción y monitorización de la nube

8.6.1. Monitorización y gestión de la nube
8.6.2. Interacción con la nube: consola de administración
8.6.3. Interacción con Command Line Interface
8.6.4. Interacción basada en APIs

8.7. Desarrollo cloud-native

8.7.1. Desarrollo nativo en cloud
8.7.2. Contenedores y plataformas de orquestación de contenedores
8.7.3. Integración continua en la nube
8.7.4. Uso de eventos en la nube

8.8. Infraestructura como código en la nube

8.8.1. Automatización de la gestión y el aprovisionamiento en la nube
8.8.2. Terraform
8.8.3. Integración con scripting

8.9. Creación de una infraestructura híbrida

8.9.1. Interconexión
8.9.2. Interconexión con datacenter
8.9.3. Interconexión con otras nubes

8.10. Computación de alto rendimiento

8.10.1. Computación de alto rendimiento
8.10.2. Creación de un clúster de alto rendimiento
8.10.3. Aplicación de la computación de alto rendimiento

Módulo 9. Modelos y semántica formal. Programación orientada a computación distribuida

9.1. Modelo semántico de datos

9.1.1. Modelos semánticos de datos
9.1.2. Modelos semánticos de datos. Propósitos
9.1.3. Modelos semánticos de datos. Aplicaciones

9.2. Modelo semántico de lenguajes de programación

9.2.1. Procesamiento de lenguajes
9.2.2. Traducción e interpretación
9.2.3. Lenguajes híbridos

9.3. Modelos de computación

9.3.1. Computación monolítica
9.3.2. Computación paralela
9.3.3. Computación distribuida
9.3.4. Computación cooperativa (P2P)

9.4. Computación paralela

9.4.1. Arquitectura paralela
9.4.2. Hardware
9.4.3. Software

9.5. Modelo distribuido. Grid Computing o computación en malla

9.5.1. Arquitectura Grid Computing
9.5.2. Arquitectura Grid Computing. Análisis
9.5.3. Arquitectura Grid Computing. Aplicaciones

9.6. Modelo Distribuido. Cluster Computing o computación en clúster

9.6.1. Arquitectura Cluster Computing
9.6.2. Arquitectura Cluster Computing. Análisis
9.6.3. Arquitectura Cluster Computing. Aplicaciones

9.7. Cluster Computing. Herramientas actuales para implementarlo. Hipervisores

9.7.1. Competidores del mercado
9.7.2. VMware Hipervisor
9.7.3. Hyper-V

9.8. Modelo distribuido. Cloud Computing o computación en cloud

9.8.1. Arquitectura Cloud Computing
9.8.2. Arquitectura Cloud Computing. Análisis
9.8.3. Arquitectura Cloud Computing. Aplicaciones

9.9. Modelo distribuido. Cloud Computing Amazon

9.9.1. Cloud Computing Amazon. Funcionalidades
9.9.2. Cloud Computing Amazon. Licenciamientos
9.9.3. Cloud Computing Amazon. Arquitecturas de referencia

9.10. Modelo distribuido. Cloud Computing Microsoft

9.10.1. Cloud Computing Microsoft. Funcionalidades
9.10.2. Cloud Computing Microsoft. Licenciamientos
9.10.3. Cloud Computing Microsoft. Arquitecturas de referencia

Módulo 10. Aplicaciones de la Computación Paralela y Distribuida

10.1. La Computación Paralela y Distribuida en las aplicaciones actuales

10.1.1. Hardware
10.1.2. Software
10.1.3. Importancia de los tiempos

10.2. Clima. Cambio climático

10.2.1. Aplicaciones de clima. Fuentes de datos
10.2.2. Aplicaciones de clima. Volúmenes de datos
10.2.3. Aplicaciones de clima. Tiempo real

10.3. GPU Computación paralela

10.3.1. GPU computación paralela
10.3.2. GPUs vs. CPU. Uso de GPU
10.3.3. GPU. Ejemplos

10.4. Smart Grid. Computación en las redes eléctricas

10.4.1. Smart Grid
10.4.2. Modelos conceptuales. Ejemplos
10.4.3. Smart Grid. Ejemplo

10.5. Motor distribuido. ElasticSearch

10.5.1. Motor distribuido. ElasticSearch
10.5.2. Arquitectura con ElasticSearch. Ejemplos
10.5.3. Motor distribuido. Casos de uso

10.6. Big Data Framework

10.6.1. Big Data Framework
10.6.2. Arquitectura de herramientas avanzadas
10.6.3. Big Data en Computación Distribuida

10.7. Base de datos en memoria

10.7.1. Base de datos en memoria
10.7.2. Solución de Redis. Caso de éxito
10.7.3. Despliegue de soluciones con base de datos en memoria

10.8. Blockchain

10.8.1. Arquitectura Blockchain. Componentes
10.8.2. Colaboración entre nodos y consensos
10.8.3. Soluciones Blockchain. Implementaciones

10.9. Sistemas Distribuidos en medicina

10.9.1. Componentes de arquitectura
10.9.2. Sistemas Distribuidos en medicina. Funcionamiento
10.9.3. Sistemas Distribuido en medicina. Aplicaciones

10.10. Sistemas Distribuidos en el sector aéreo

10.10.1. Diseño de arquitectura
10.10.2. Sistemas Distribuidos en el sector aéreo. Funcionalidades de los componentes
10.10.3. Sistemas Distribuidos en el sector aéreo. Aplicaciones

##IMAGE##

Este programa es el impulso que necesitas para alcanzar esa mejora profesional que mereces y llevas tiempo trabajando

Máster en Computación Paralela y Distribuida

En la actualidad, la mayoría de los programas y sistemas electrónicos utilizan la computación paralela o distribuida de alguna manera. Los smartphones han mejorado su capacidad de procesamiento mediante la integración de procesadores multinúcleo altamente potentes, mientras que la computación distribuida ha sido crucial en el desarrollo del Big Data o las redes sociales. Estos hechos evidencian que los informáticos especializados en estas dos formas de programación son muy precisados por las empresas tecnológicas, lo que ha llevado a TECH a crear el Máster en Computación Paralela y Distribuida, que incrementará tus capacidades y tus perspectivas profesionales en este campo.

Especialízate en Computación Paralela y Distribuida de modo completamente en línea

El Máster en Computación Paralela y Distribuida se ha posicionado como un excelente aliado para todo aquel informático que quiere gozar de las grandes perspectivas profesionales que ofrecen estos métodos de programación. Gracias a esta titulación, ahondarás en profundidad en la descomposición en paralelo, la comunicación y la coordinación en los sistemas de computación o en la computación paralela aplicada a entornos en la nube. De tal forma, quedarás preparado para enfrentarte con plena solvencia a los novedosos retos que presente tu profesión, disfrutando de una metodología 100% online que te permitirá combinar tu aprendizaje con tus propios proyectos laborales.