Titulación universitaria
La mayor facultad de informática del mundo”
Presentación
Matricúlate ahora en este programa y conviértete en un experto en la Computación Paralela aplicada al entorno de desarrollo y programación en la Nube”
Los fabricantes de GPU, como NVIDIA y AMD, han introducido nuevas arquitecturas que han mejorado significativamente el rendimiento y la eficiencia energética de los sistemas basados en Computación Paralela y Distribuida. Un caso relativamente novedoso es la arquitectura NVIDIA Turing, capaz de acelerar las operaciones de Inteligencia Artificial y aprendizaje profundo. Por otro lado, la arquitectura AMD RDNA presentó un diseño de GPU altamente escalable para aplicaciones de gaming y visualización. En otro sentido, esta disciplina informática ha apostado por la tecnología SDN y simplificado la administración y configuración de redes en la nube. Todo ello, permitiendo una mayor flexibilidad y automatización en la gestión de la infraestructura de red, de un modo escalable y adaptable.
Mantenerse al día sobre estos avances puede resultar retador para los profesionales del sector, principalmente en un contexto donde cada vez más se reclama de soluciones informáticas más potentes y competitivas. Para alcanzar un alto dominio de las nuevas herramientas y tecnologías de trabajo se requiere de una exhaustiva capacitación, enfocada a sobrepasar los desafíos más acuciantes de manera resolutiva y eficiente.
TECH ofrece a su alumnado la capacidad de adquirir esas competencias a través de este programa de estudios. En él se abordan las principales potencialidades de la Computación Paralela y Distribuida para el entrenamiento y la inferencia de modelos de aprendizaje automático y su capacidad para procesar grandes volúmenes de datos de manera simultánea. Igualmente, examina las principales bibliotecas y marcos de trabajo optimizados para esta línea de desarrollo, como TensorFlow, PyTorch y CUDA. También, tendrán la oportunidad de abordar los modelos y semántica formal de programación orientada a este campo. De ese modo, alcanzarán sólidos conocimientos que les permitirán afrontar los desafíos de este exigente y creciente sector.
Al mismo tiempo, para el estudio de los 10 módulos que constituyen la titulación, TECH dispone de la innovadora metodología 100% online. A través del sistema de aprendizaje Relearning y el análisis de casos reales de la escuela de Harvard. Ambas técnicas facilitarán el alumnado la adquisición de competencias teórico-prácticas con rapidez y flexibilidad. Por otro lado, la titulación se apoya en materiales multimedia como vídeos e infografías para reforzar las competencias, implementando también un sistema autonómico y personalizado de acceso a los contenidos.
TECH brinda la oportunidad de obtener la Maestría Oficial en Computación Paralela y Distribuida en un formato 100% en línea, con titulación directa y un programa diseñado para aprovechar cada tarea en la adquisición de competencias para desempeñar un papel relevante en la empresa. Pero, además, con este programa, el estudiante tendrá acceso al estudio de idiomas extranjeros y formación continuada de modo que pueda potenciar su etapa de estudio y logre una ventaja competitiva con los egresados de otras universidades menos orientadas al mercado laboral.
Un camino creado para conseguir un cambio positivo a nivel profesional, relacionándose con los mejores y formando parte de la nueva generación de informáticos capaces de desarrollar su labor en cualquier lugar del mundo.
Con esta Maestría Oficial 100% online estarás al día sobre los principales avances en cuanto a la adaptabilidad y escabilidad de los sistemas distribuidos en computación”
Plan de estudios
Los contenidos de este programa reflejan el progreso que la Computación Paralela y Distribuida ha experimentado en los últimos años. Todas las asignaturas han sido actualizadas en base a la investigación científica más reciente. Los módulos académicos ahondan en temas como el desarrollo de aplicaciones en la nube, basadas en esta tecnología, las principales librerías, entre otras múltiples potencialidades. Además, se examinará cómo diseñar e implementar sistemas inteligentes que aborden problemas y deficiencias en el ámbito profesional de esta disciplina.
Esta Maestría Oficial te brinda una oportunidad única de personalizar el aprendizaje ya que su plan de estudios es accesible desde cualquier dispositivo conectado a Internet”
Plan de estudios
El acceso a estos módulos académicos será posible desde cualquier dispositivo conectado a Internet. Así, los egresados eligirán el tiempo y espacio que dedica a su capacitación. Igualmente, contará con novedosos métodos didácticos como el Relearning, ideados para asimilar todos los contenidos de manera rápida y sencilla, con énfasis en el desarrollo de habilidades prácticas.
La titulación se desarrollará de manera 100% online y acompañará sus contenidos teóricos con materiales multimedia de gran valor didáctico. Entre ellos resaltarán infografías, resúmenes interactivos, vídeos y otros recursos que complementarán la preparación del estudiante. También, en el plan educativo encontrará clases magistrales y simulaciones de casos reales que reforzarán su comprensión de los temas de interés.
Módulo 1. Paralelismo en Computación Paralela y Distribuida
Módulo 2. Descomposición en Paralelo en Computación Paralela y Distribuida
Módulo 3. Comunicación y Coordinación en Sistemas de Computación
Módulo 4. Análisis y Programación de Algoritmos Paralelos
Módulo 5. Arquitecturas Paralelas
Módulo 6. Desempeño en Paralelo
Módulo 7. Sistemas Distribuidos en Computación
Módulo 8. Computación Paralela Aplicada a Entornos de la Nube
Módulo 9. Modelos y Semántica Formal. Programación Orientada a Computación Distribuida
Módulo 10. Aplicaciones de la Computación Paralela y Distribuida
Dónde, cuándo y cómo se imparte
Esta Maestría Oficial se ofrece 100% en línea, por lo que alumno podrá cursarla desde cualquier sitio, haciendo uso de una computadora, una tableta o simplemente mediante su smartphone.
Además, podrá acceder a los contenidos tanto online como offline. Para hacerlo offline bastará con descargarse los contenidos de los temas elegidos, en el dispositivo y abordarlos sin necesidad de estar conectado a internet.
El alumno podrá cursar la Maestría Oficial a través de sus 10 módulos, de forma autodirigida y asincrónica. Adaptamos el formato y la metodología para aprovechar al máximo el tiempo y lograr un aprendizaje a medida de las necesidades del alumno.
Este programa no está restringido por ningún horario ni cronogramas evaluativos continuos para que puedas estudiar con comodidad en cualquier momento de las 24 horas del día”
Módulo 1. Paralelismo en Computación Paralela y Distribuida
1.1. Procesamiento paralelo
1.1.1. Procesamiento Paralelo
1.1.1.1. Procesamiento Paralelo en Computación. Finalidad
1.1.1.2. Procesamiento Paralelo. Análisis
1.2. Sistema paralelo
1.2.1. El Sistema Paralelo
1.2.1.1. Niveles de paralelismo
1.2.1.2. Composición del Sistema Paralelo
1.3. Arquitecturas de Procesadores
1.3.1. Complejidad del Procesador
1.3.1.1. Arquitectura de Procesadores. Modo de Operación
1.3.1.2. Arquitectura de Procesadores. Organización de la Memoria
1.4. Redes en el procesamiento paralelo
1.4.1. Modo de Operación
1.4.1.1. Estrategia de control
1.4.1.2. Técnicas de Conmutación
1.4.1.3. Topología
1.5. Arquitecturas paralelas
1.5.1. Algoritmos
1.5.1.1. Acoplamiento
1.5.1.2. Comunicación
1.6. Rendimiento de la Computación Paralela
1.6.1. Evolución del rendimiento
1.6.1.1. Medidas de Performance
1.6.1.2. Computación Paralela. Casos de Estudio
1.7. Taxonomía de Flynn
1.7.1. MIMD: Memoria compartida
1.7.1.1. MIMD: Memoria distribuida
1.7.1.2. MIMD: Sistemas híbridos
1.7.1.3. Flujo de datos
1.8. Formas de paralelismo: hilo
1.8.1. Paralelismo de hilos
1.8.1.1. Grano Grueso
1.8.1.2. Grano fino
1.8.1.3. Tecnología de montaje superficial o SMT
1.9. Formas de paralelismo: datos
1.9.1. Paralelismo de datos
1.9.1.1. Procesamiento de vectores cortos
1.9.1.2. Procesador Vectorial
1.10. Formas de paralelismo: Instrucción
1.10.1. Paralelismo a nivel de instrucción
1.10.1.1. Procesador segmentado
1.10.1.2. Procesador superescalar
1.10.1.3. Procesador Palabra de instrucción muy larga o “VLIW”
Módulo 2. Descomposición en Paralelo en Computación Paralela y Distribuida
2.1. Descomposición en Paralelo
2.1.1. Procesamiento Paralelo
2.1.2. Arquitecturas
2.1.2.1. Supercomputadoras
2.2. Hardware Paralelo y Software Paralelo
2.2.1. Sistemas en Serie
2.2.2. Hardware paralelo
2.2.3. Software paralelo
2.2.4. Entrada y salida
2.2.5. Rendimiento
2.3. Escalabilidad Paralela y Problemas de Rendimiento Recurrentes
2.3.1. Paralelismo
2.3.2. Escalabilidad en paralelo
2.3.3. Problemas recurrentes de rendimiento
2.4. Paralelismo de Memoria Compartida
2.4.1. Paralelismo de Memoria Compartida
2.4.2. Interfaz OpenMP y librería Pthreads
2.4.3. Paralelismo de Memoria Compartida. Ejemplos
2.5. Unidad de Procesamiento Gráfico
2.5.1. Unidad de Procesamiento Gráfico o “GPU”
2.5.2. Arquitectura Unificada de Dispositivos Computacionales
2.5.3. Arquitectura Unificada de Dispositivos Computacionales. Ejemplos
2.6. Sistemas de paso de mensajes
2.6.1. Sistemas de Paso de Mensajes
2.6.2. Interfaz de Paso de Mensajes
2.6.3. Sistemas de Paso de Mensajes. Ejemplos
2.7. Paralelización híbrida con interfaces MPI y OpenMP
2.7.1. La Programación Híbrida
2.7.2. Modelos de programación MPI y OpenMP
2.7.3. Descomposición y Mapeo Híbrido
2.8. Computación con modelos de programación MapReduce
2.8.1. Modelo de programación Hadoop
2.8.2. Otros sistemas de Cómputo
2.8.3. Computación Paralela. Ejemplos
2.9. Modelo de Actores y Procesos Reactivos
2.9.1. Modelo de Actores
2.9.2. Procesos Reactivos
2.9.3. Actores y Procesos Reactivos. Ejemplos
2.10. Escenarios de Computación Paralela
2.10.1. Procesamiento de audio e imágenes
2.10.2. Estadística/Minería de Datos
2.10.3. Ordenación paralela
2.10.4. Operaciones matriciales paralelas
Módulo 3. Comunicación y Coordinación en Sistemas de Computación
3.1. Procesos de Computación Paralela y Distribuida
3.1.1. Procesos de Computación Paralela y Distribuida
3.1.2. Procesos e hilos
3.1.3. Virtualización
3.1.4. Clientes y servidores
3.2. Comunicación en Computación Paralela
3.2.1. Computación en Computación Paralela
3.2.2. Protocolos por Capas
3.2.3. Comunicación en Computación Paralela. Tipología
3.3. Llamada a Procedimiento Remoto
3.3.1. Funcionamiento de Llamada a Procedimiento Remoto o RPC
3.3.2. Paso de Parámetros
3.3.3. RPC asíncrono
3.3.4. Procedimiento Remoto. Ejemplos
3.4. Comunicación orientada a Mensajes
3.4.1. Comunicación transitoria orientada a Mensajes
3.4.2. Comunicación persistente orientada a Mensajes
3.4.3. Comunicación orientada a Mensajes. Ejemplos
3.5. Comunicación orientada a Flujos
3.5.1. Soporte para medios continuos
3.5.2. Flujos y calidad de servicio
3.5.3. Sincronización de flujos
3.5.4. Comunicación orientada a Flujos. Ejemplos
3.6. Comunicación de multidifusión
3.6.1. Multidifusión a nivel de Aplicación
3.6.2. Difusión de datos basada en rumores
3.6.3. Comunicación de Multidifusión. Ejemplos
3.7. Otros tipos de comunicación
3.7.1. Invocación de métodos remotos
3.7.2. Servicios web: interfaces SOAP y REST
3.7.3. Notificación de eventos
3.7.4. Agentes móviles
3.8. Servicio de nombres
3.8.1. Servicios de Nombres en Computación
3.8.2. Servicios de Nombres y Sistema de Dominio de Nombres
3.8.3. Servicios de Directorio
3.9. Sincronización
3.9.1. Sincronización de Relojes
3.9.2. Relojes lógicos, Exclusión Mutua y Posicionamiento Global de los Nodos
3.9.3. Elección de Algoritmos
3.10. Comunicación, Coordinación y Acuerdo
3.10.1. Coordinación y Acuerdo
3.10.2. Coordinación y Acuerdo. Consenso y Problemas
3.10.3. Comunicación y Coordinación. Actualidad
Módulo 4. Análisis y Programación de Algoritmos Paralelos
4.1. Algoritmos Paralelos
4.1.1. Descomposición de Problemas
4.1.2. Dependencias de datos
4.1.3. Paralelismo implícito y explícito
4.2. Paradigmas de Programación Paralela
4.2.1. Programación Paralela con Memoria Compartida
4.2.2. Programación Paralela con Memoria Distribuida
4.2.3. Programación Paralela Híbrida
4.2.4. Computación Heterogénea
4.2.5. Computación Cuántica. Nuevos modelos de programación con paralelismo implícito
4.3. Programación Paralela con Memoria Compartida
4.3.1. Modelos de Programación Paralela con Memoria Compartida
4.3.2. Algoritmos Paralelos con Memoria Compartida
4.3.3. Librerías para Programación Paralela con Memoria Compartida
4.4. Interfaz de programación OpenMP
4.4.1. OpenMP. Características
4.4.2. Ejecución y Depuración de Programas con OpenMP
4.4.3. Algoritmos paralelos con memoria compartida en OpenMP
4.5. Programación Paralela por Paso de Mensajes
4.5.1. Primitivas de Paso de Mensajes
4.5.2. Operaciones de Comunicación y Computación Colectiva
4.5.3. Algoritmos Paralelos por Paso De Mensajes
4.5.4. Librerías para Programación Paralela con Paso de Mensajes
4.6. Interfaz de Paso de Mensajes
4.6.1. Características
4.6.2. Ejecución y Depuración de Programas con MPI
4.6.3. Algoritmos Paralelos por Paso de Mensajes con MPI
4.7. Programación Paralela Híbrida
4.7.1. Programación Paralela Híbrida
4.7.2. Ejecución y depuración de programas paralelos híbridos
4.7.3. Algoritmos paralelos híbridos
4.8. Programación Paralela con Computación Heterogénea
4.8.1. Programación Paralela con Computación Heterogénea
4.8.2. Unidad central de proceso vs Unidad de Procesamiento de Gráficos
4.8.3. Algoritmos Paralelos con Computación Heterogénea
4.9. Plataformas de proceso OpenCL y CUDA
4.9.1. OpenCL vs CUDA
4.9.2. Ejecución y Depuración de Programas Paralelos con Computación Heterogénea
4.9.3. Algoritmos Paralelos con Computación Heterogénea
4.10. Diseño de Algoritmos Paralelos
4.10.1. Diseño de Algoritmos Paralelos
4.10.2. Problema y Contexto
4.10.3. Paralelización automática Vs Paralelización manual
4.10.4. Comunicaciones en Computación
Módulo 5. Arquitecturas Paralelas
5.1. Arquitecturas Paralelas
5.1.1. Sistemas Paralelos. Clasificación
5.1.2. Fuentes de Paralelismo
5.1.3. Paralelismo y Procesadores
5.2. Rendimiento de los Sistemas Paralelos
5.2.1. Magnitudes y medidas de rendimiento
5.2.2. Aceleración
5.2.3. Granularidad de los Sistemas Paralelos
5.3. Procesadores vectoriales
5.3.1. Procesador vectorial básico
5.3.2. Memoria entrelazada o intercalada
5.3.3. Rendimiento de los procesadores vectoriales
5.4. Procesadores matriciales
5.4.1. Organización básica
5.4.2. Programación en Procesadores Matriciales
5.4.3. Programación en Procesadores Matriciales. Ejemplo práctico
5.5. Redes de interconexión
5.5.1. Redes de Interconexión
5.5.2. Topología, control de flujo y encaminamiento
5.5.3. Redes de Interconexión. Clasificación según Topología
5.6. Multiprocesadores
5.6.1. Redes de interconexión para multiprocesadores
5.6.2. Consistencia de memoria y cachés
5.6.3. Protocolos de sondeo
5.7. Sincronización
5.7.1. Cerrojos (exclusión mutua)
5.7.2. Eventos de sincronización P2P
5.7.3. Eventos de sincronización globales
5.8. Multicomputadoras
5.8.1. Redes de Interconexión para multicomputadoras
5.8.2. Capa de conmutación
5.8.3. Capa de encaminamiento
5.9. Arquitecturas avanzadas
5.9.1. Características
5.9.2. Máquinas de flujo de datos
5.9.3. Otras arquitecturas
5.10. Programación paralela y distribuida
5.10.1. Lenguajes para programación paralela
5.10.2. Herramientas de programación paralela
5.10.3. Patrones de diseño
5.10.4. Concurrencia de Lenguajes de Programación Paralela y Distribuida
Módulo 6. Desempeño en Paralelo
6.1. Desempeño de algoritmos paralelos
6.1.1. Ley De Ahmdal
6.1.2. Ley De Gustarfson
6.1.3. Métricas de Desempeño y Escalabilidad de Algoritmos Paralelos
6.2. Comparativa de Algoritmos Paralelos
6.2.1. Benchmarking
6.2.2. Análisis matemático de Algoritmos Paralelos
6.2.3. Análisis asintótico de Algoritmos Paralelos
6.3. Restricciones de los Recursos hardware
6.3.1. Memoria
6.3.2. Procesamiento
6.3.3. Comunicaciones
6.3.4. Particionamiento Dinámico de Recursos
6.4. Desempeño de Programas Paralelos con Memoria Compartida
6.4.1. División óptima en Tareas
6.4.2. Afinidad de Threads
6.4.3. Paralelismo “una instrucción, múltiples datos” o SIMD
6.4.4. Programas Paralelos con Memoria Compartida. Ejemplos
6.5. Desempeño de Programas Paralelos por Paso de Mensajes
6.5.1. Desempeño de Programas Paralelos por Paso de Mensajes
6.5.2. Optimización de comunicaciones en Interfaz de Paso de Mensajes
6.5.3. Control de afinidad y balanceo de carga
6.5.4. Entrada/salida Paralela
6.5.5. Programas Paralelos por Paso de Mensajes. Ejemplos
6.6. Desempeño de Programas Paralelos Híbridos
6.6.1. Desempeño de Programas Paralelos Híbridos
6.6.2. Programación Híbrida para Sistemas de memoria compartida/distribuida
6.6.3. Programas Paralelos Híbridos. Ejemplos
6.7. Desempeño de Programas con Computación Heterogénea
6.7.1. Desempeño de Programas con Computación Heterogénea
6.7.2. Programación híbrida para sistemas con varios aceleradores hardware
6.7.3. Programas con Computación Heterogénea. Ejemplos
6.8. Análisis de Rendimiento de Algoritmos Paralelos
6.8.1. Análisis de Rendimiento de Algoritmos Paralelos
6.8.2. Análisis de Rendimiento de Algoritmos Paralelos. Herramientas
6.8.3. Análisis de Rendimiento de Algoritmos Paralelos. Recomendaciones
6.9. Patrones Paralelos
6.9.1. Patrones Paralelos
6.9.2. Principales Patrones Paralelos
6.9.3. Patrones Paralelos. Comparativa
6.10. Programas Paralelos de Alto Rendimiento
6.10.1. Proceso
6.10.2. Programas Paralelos de Alto Rendimiento
6.10.3. Programas Paralelos de Alto Rendimiento. Usos reales
Módulo 7. Sistemas Distribuidos en Computación
7.1. Sistemas Distribuidos
7.1.1. Demostración del teorema de CAP o Conjetura de Brewer
7.1.2. Falacias de la programación sobre Sistemas Distribuidos
7.1.3. Computación ubicua
7.2. Sistemas Distribuidos. Características
7.2.1. Heterogeneidad
7.2.2. Extensibilidad
7.2.3. Seguridad
7.2.4. Escalabilidad
7.2.5. Tolerancia a Fallos
7.2.6. Concurrencia
7.2.7. Transparencia
7.3. Redes e Interconexión de Redes Distribuidas
7.3.1. Redes y los Sistemas distribuidos. Prestaciones de las Redes
7.3.2. Redes disponibles para crear un Sistema Distribuido. Tipología
7.3.3. Protocolos de red distribuidos versus centralizados
7.3.4. Interconexión de redes. Internet
7.4. Comunicación entre Procesos Distribuidos
7.4.1. Comunicación entre nodos de un S.D. Problemas y Fallas
7.4.2. Mecanismos que implementar sobre RPC y RDMA para evitar fallas
7.4.3. Mecanismos que implementar en el software para evitar fallas
7.5. Diseño de Sistemas Distribuidos
7.5.1. Diseño eficiente de Sistemas Distribuidos (S.D.)
7.5.2. Patrones para la programación en Sistemas Distribuidos (S.D.)
7.5.3. Arquitectura Orientada a Servicios (Service Oriented Architecture-SOA)
7.5.4. Orquestación de servicios y microservicios
7.6. Operación de Sistemas Distribuidos
7.6.1. Monitorización de los Sistemas
7.6.2. Implantación de un Sistema de Trazas
7.6.3. Monitorización en Redes Distribuidas
7.6.4. Uso de una herramienta de monitorización
7.7. Replicación de sistemas
7.7.1. Replicación de Sistemas. Tipologías
7.7.2. Arquitecturas inmutables
7.7.3. Los sistemas contenedores y sistemas virtualizadores como Sistemas Distribuidos
7.7.4. Las redes en tecnología “blockchain” como Sistemas Distribuidos
7.8. Sistemas Multimedia Distribuidos
7.8.1. Intercambio distribuido de imágenes y videos. Problemática
7.8.2. Servidores de objetos multimedia
7.8.3. Topología de red para un sistema multimedia
7.8.4. Análisis de los Sistemas Multimedia Distribuidos: Netflix, Amazon, Spotify
7.8.5. Los Sistemas Distribuidos Multimedia en Educación
7.9. Sistemas de Ficheros Distribuidos
7.9.1. Intercambio distribuido de ficheros. Problemática
7.9.2. Aplicabilidad del Teorema de CAP a las Bases de Datos
7.9.3. Sistemas de ficheros Web Distribuidos: “Akamai”
7.9.4. Sistemas de ficheros documentales distribuidos
7.9.5. Sistemas de Bases de datos distribuidas
7.10. Enfoques de Seguridad en Sistemas Distribuidos
7.10.1. Seguridad en Sistemas Distribuidos
7.10.2. Ataques conocidos a Sistemas Distribuidos
7.10.3. Herramientas para probar la seguridad de un sistema distribuido
Módulo 8. Computación Paralela Aplicada a Entornos de la Nube
8.1. Computación en la nube
8.1.1. Estado del arte del panorama de las tecnologías de la información
8.1.2. La Nube. Características
8.1.3. Computación en la Nube
8.2. Seguridad y Resiliencia en la Nube
8.2.1. Regiones, zonas de disponibilidad y fallo
8.2.2. Administración de las Cuentas de la nube
8.2.3. Identidad y control de acceso en la nube
8.3. Redes en la nube
8.3.1. Redes virtuales definidas por software
8.3.2. Componentes de red de una red definida por software
8.3.3. Conexión con otros sistemas
8.4. Servicios en la Nube
8.4.1. Infraestructura como Servicio
8.4.2. Plataforma como Servicio
8.4.3. Modelo servicio de Computación
8.4.4. Software como Servicio
8.5. Almacenamiento en la nube
8.5.1. Almacenamiento de bloques en la nube
8.5.2. Almacenamiento de ficheros en la nube
8.5.3. Almacenamiento de objetos en la nube
8.6. Interacción y monitorización de la nube
8.6.1. Monitorización y gestión de la nube
8.6.2. Interacción con la nube: Consola de Administración
8.6.3. Interacción con Interfaces
8.6.4. Interacción basada en protocolos APIs
8.7. Desarrollo “Nativo en la Nube”
8.7.1. Contenedores y plataformas de Orquestación
8.7.2. Integración Continua en la nube
8.7.3. Uso de eventos en la nube
8.8. Infraestructura como código en la nube
8.8.1. Automatización de la Gestión y el Aprovisionamiento en la Nube
8.8.2. Herramienta “Terraform”
8.8.3. Integración con secuencia de comandos o “scripting”
8.8.4. Creación de una infraestructura híbrida
8.8.5. Interconexión
8.8.6. Interconexión con herramienta Datacenter
8.8.7. Interconexión con otras nubes
8.9. Computación de Alto Rendimiento
8.9.1. Computación de Alto Rendimiento
8.9.2. Creación de un clúster de alto rendimiento
8.9.3. Aplicación de la computación de alto rendimiento
Módulo 9. Modelos y Semántica Formal. Programación Orientada a Computación Distribuida
9.1. Modelo semántico de datos
9.1.1. Características
9.1.2. Propósitos
9.1.3. Aplicaciones
9.2. Modelo Semántico de Lenguajes de Programación
9.2.1. Procesamiento de lenguajes
9.2.2. Traducción e interpretación
9.2.3. Lenguajes híbridos
9.3. Modelos de Computación
9.3.1. Computación monolítica
9.3.2. Computación Paralela
9.3.3. Computación Distribuida
9.3.4. Computación cooperativa
9.4. Computación Paralela
9.4.1. Arquitectura paralela
9.4.2. Hardware
9.4.3. Software
9.5. Modelo distribuido o Computación en Malla
9.5.1. Arquitectura de la computación en malla
9.5.2. Arquitectura de Análisis
9.5.3. Arquitectura de Aplicaciones
9.6. Modelo Distribuido. Clúster o cúmulo
9.6.1. Arquitectura de computación de cúmulo
9.6.2. Arquitectura de Análisis
9.6.3. Arquitectura de Aplicaciones
9.7. Herramientas actuales para implementarlo. Hipervisores
9.7.1. Competidores del mercado
9.7.2. Hipervisor Vmware
9.7.3. Herramienta Hyper-V
9.8. Modelo distribuido. Computación en nube
9.8.1. Características
9.8.2. Análisis
9.8.3. Aplicaciones
9.9. Modelo distribuido. Computación en nube Amazon
9.9.1. Funcionalidades
9.9.2. Licenciamientos
9.9.3. Arquitecturas de Referencia
9.10. Modelo distribuido. Computación en nube Microsoft
9.10.1. Funcionalidades
9.10.2. Licenciamientos
9.10.3. Arquitecturas de referencia
Módulo 10. Aplicaciones de la Computación Paralela y Distribuida
10.1. La Computación Paralela y Distribuida en las Aplicaciones actuales
10.1.1. Hardware
10.1.2. Software
10.1.3. Importancia de los tiempos
10.2. Clima. Cambio climático
10.2.1. Aplicaciones de Clima. Fuentes de datos
10.2.2. Aplicaciones de Clima. Volúmenes de datos
10.2.3. Aplicaciones de Clima. Tiempo real
10.3. Computación paralela, Procesamiento de gráficos (GPU)
10.3.1. GPU Computación Paralela
10.3.2. GPUs vs CPU. Uso de GPU
10.3.3. GPU. Ejemplos
10.4. Smart Grid. Computación en las Redes Eléctricas
10.4.1. La red eléctrica inteligente o “Smart Grid”
10.4.2. Modelos Conceptuales. Ejemplos
10.4.3. Smart Grid. Ejemplo
10.5. Motor Distribuido
10.5.1. Motor Distribuido. Servidor de búsqueda
10.5.2. Arquitectura con servidor de búsqueda. Ejemplos
10.5.3. Motor Distribuido. Casos de Uso
10.6. Big Data herramienta framework
10.6.1. Big Data Framework
10.6.2. Arquitectura de Herramientas avanzadas
10.6.3. Big Data en Computación Distribuida
10.7. Base de datos en memoria
10.7.1. Base de Datos en Memoria
10.7.2. Solución de Redis. Caso de éxito
10.7.3. Despliegue de Soluciones con Base de Datos en Memoria
10.8. Blockchain
10.8.1. Arquitectura Blockchain. Componentes
10.8.2. Colaboración entre Nodos y Consensos
10.8.3. Soluciones Blockchain. Implementaciones
10.9. Sistemas Distribuidos en Medicina
10.9.1. Componentes de Arquitectura
10.9.2. Sistemas Distribuidos en Medicina. Funcionamiento
10.9.3. Sistemas Distribuidos en Medicina. Aplicaciones
10.10. Sistemas Distribuidos en el Sector Aéreo
10.10.1. Diseño de arquitectura
10.10.2. Sistemas Distribuidos en el Sector Aéreo. Funcionalidades de los componentes
10.10.3. Sistemas Distribuidos en el Sector Aéreo. Aplicaciones
Una titulación que se apoya en materiales multimedia de gran valor didáctico como vídeos, infografías y resúmenes interactivos”
Máster Universitario en Computación Paralela y Distribuida
El Máster Univeritario en Computación Paralela y Distribuida de TECH, ofrece a los estudiantes la oportunidad de adquirir conocimientos avanzados en las áreas de la informática y tecnología de la información. Este programa académico, avalado por el Reconocimiento de Validez Oficial de Estudios (RVOE), está diseñado para aquellos profesionales que deseen especializarse en la programación paralela y distribuida, dos disciplinas esenciales en el mundo actual donde la computación juega un papel fundamental. Durante este programa, los estudiantes explorarán diferentes aspectos de la computación paralela y distribuida, aprenderán a desarrollar soluciones tecnológicas eficientes o escalables. A través de un plan de estudios completo y actualizado, los participantes obtendrán las habilidades necesarias para diseñar algoritmos paralelos, implementar sistemas distribuidos y utilizar tecnologías emergentes como la computación en la nube.
Estudia con el mejor staff docente del mundo
El posgrado también promueve el trabajo en equipo y el aprendizaje colaborativo. Los participantes tendrán la oportunidad de interactuar con sus compañeros de estudios, compartir ideas o experiencias y construir una red de contactos profesionales valiosa. Al graduarse de este programa, los estudiantes estarán preparados para enfrentar los desafíos tecnológicos actuales y futuros. Tendrán las habilidades necesarias para diseñar, desarrollar soluciones informáticas eficientes, escalables y seguras. Además, podrán aplicar sus conocimientos en diferentes sectores como la industria, el comercio electrónico, la investigación científica y muchos otros. TECH cuenta con el mejor staff docente del mundo, gracias a sus experiencias profesionales pueden transmitir los conocimientos de manera acertada y actualizada. Si estás buscando especializarte en computación paralela y distribuida, el Máster Universitario en Computación Paralela y Distribuida con RVOE es la opción ideal para ti. No pierdas la oportunidad de capacitarte en una disciplina clave en el mundo digital. ¡Inscríbete hoy y toma ventaja en el competitivo campo laboral de la informática!