Presentación

Gracias a este Máster Semipresencial, desarrollarás habilidades técnicas especializadas en aprendizaje automático, minería de datos, redes neuronales y procesamiento del lenguaje natural”

##IMAGE##

La Inteligencia Artificial (IA) ha experimentado avances significativos en los últimos años, transformando diversas industrias gracias a tecnologías emergentes, como los modelos de lenguaje grandes y las redes neuronales profundas. Los ingenieros están implementando estas tecnologías para optimizar procesos.

Así nace este Máster Semipresencial, que abordará la evolución histórica de la IA, los principios de las redes neuronales y los algoritmos genéticos, así como la importancia de la estructuración de datos mediante tesauros y taxonomías. Además, se enfocará en los conceptos fundamentales de la estadística, la clasificación de datos y su ciclo de vida, incluyendo la planificación, recolección y almacenamiento en Datawarehouses.

Asimismo, el temario se centrará en la ciencia de datos y la minería de datos, proporcionando a los ingenieros herramientas y técnicas para la extracción, transformación y visualización de información, así como la preparación y limpieza de datos. También se introducirán las estrategias de diseño de algoritmos, el análisis de su eficiencia y la teoría de agentes, además de la representación del conocimiento y la web semántica.

Finalmente, se abarcará, desde el aprendizaje supervisado y no supervisado, hasta las técnicas avanzadas de Deep Learning. Igualmente, los profesionales podrán personalizar modelos con TensorFlow y aplicar el Deep Learning en el procesamiento del lenguaje natural. La titulación culminará con el estudio de Autoencoders, GANs y modelos de difusión, así como en la computación bioinspirada y las estrategias de implementación de IA en diversos sectores.

En este contexto, TECH ha diseñado un programa universitario que combina la teoría 100% online con una estancia práctica de 3 semanas en las empresas más reconocidas del sector. De este modo, la primera mitad de la capacitación se adaptará al horario laboral y personal del egresado, que solo requerirá de un dispositivo electrónico con conexión a Internet. Adicionalmente, se basará en la revolucionaria metodología Relearning, consistente en la repetición de conceptos clave para una asimilación óptima y orgánica de los contenidos.

Ampliarás tus oportunidades profesionales, posicionándote a la vanguardia de la innovación tecnológica y siendo altamente competitivo en un mercado laboral en constante evolución”

Este Máster Semipresencial en Inteligencia Artificial contiene el programa más completo y actualizado del mercado. Sus características más destacadas son:

  • Desarrollo de más de 100 casos prácticos presentados por expertos en Inteligencia Artificial
  • Sus contenidos gráficos, esquemáticos y eminentemente prácticos con los que están concebidos, recogen una información imprescindible sobre aquellas disciplinas indispensables para el ejercicio profesional
  • Su especial hincapié en metodologías innovadoras
  • Todo esto se complementará con lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual
  • Disponibilidad de los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet
  • Además, podrás realizar una estancia de prácticas en una de las mejores empresas

Realizarás una estancia intensiva de 3 semanas en una prestigiosa institución especializada en IInteligencia Artificial, donde obtendrás las competencias que necesitas para impulsar tu carrera como ingeniero”

En esta propuesta de Máster, de carácter profesionalizante y modalidad semipresencial, el programa está dirigido a la actualización de profesionales de la Informática. Los contenidos están basados en la última evidencia científica, y orientados de manera didáctica para integrar el saber teórico en la práctica.

Gracias a su contenido multimedia elaborado con la última tecnología educativa, permitirán al profesional de la Informática un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará un aprendizaje inmersivo programado para entrenarse ante situaciones reales. El diseño de este programa está basado en el Aprendizaje Basado en Problemas, mediante el cual deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del mismo. Para ello, contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.

Profundizarás en la ciencia de datos, las técnicas de extracción y visualización, y la preparación y limpieza de datos para la minería de datos, gracias a una amplia biblioteca de recursos multimedia”

##IMAGE##

Te sumergirás en técnicas avanzadas de aprendizaje supervisado y no supervisado, así como en la aplicación del Deep Learning, a través de los mejores materiales didácticos, a la vanguardia educativa”

Plan de estudios

Los materiales didácticos que conforman este Máster Semipresencial han sido diseñados por un grupo de expertos altamente especializados en Inteligencia Artificial. De este modo, los egresados accederán a un temario que destaca por su excelsa calidad y por ajustarse a los requerimientos del mercado laboral actual. Compuesto por 15 completos módulos, el itinerario académico pondrá énfasis en los procesos de descubrimiento del conocimiento y el Aprendizaje Automático. De este modo, profundizarán en el desarrollo de algoritmos y modelos que permiten a las máquinas aprender patrones y realizar tareas.

maestria inteligencia artificial ingenieria TECH Universidad

¡Apuesta por TECH! Este programa universitario incluye módulos especializados en áreas emergentes, como los autoencoders, los modelos de difusión y la computación bioinspirada”

Módulo 1. Fundamentos de la Inteligencia Artificial

1.1. Historia de la Inteligencia artificial 

1.1.1. ¿Cuándo se empieza a hablar de inteligencia artificial?
1.1.2. Referentes en el cine 
1.1.3. Importancia de la inteligencia artificial 
1.1.4. Tecnologías que habilitan y dan soporte a la inteligencia artificial 

1.2. La Inteligencia Artificial en juegos 

1.2.1. Teoría de Juegos 
1.2.2. Minimax y poda Alfa-Beta 
1.2.3. Simulación: Monte Carlo 

1.3. Redes de neuronas 

1.3.1. Fundamentos biológicos 
1.3.2. Modelo computacional 
1.3.3. Redes de neuronas supervisadas y no supervisadas 
1.3.4. Perceptrón simple 
1.3.5. Perceptrón multicapa 

1.4. Algoritmos genéticos 

1.4.1. Historia 
1.4.2. Base biológica 
1.4.3. Codificación de problemas 
1.4.4. Generación de la población inicial 
1.4.5. Algoritmo principal y operadores genéticos 
1.4.6. Evaluación de individuos: Fitness 

1.5. Tesauros, vocabularios, taxonomías 

1.5.1. Vocabularios 
1.5.2. Taxonomías 
1.5.3. Tesauros 
1.5.4. Ontologías 
1.5.5. Representación del conocimiento: web semántica 

1.6. Web semántica 

1.6.1. Especificaciones: RDF, RDFS y OWL 
1.6.2. Inferencia/razonamiento 
1.6.3. Linked Data 

1.7. Sistemas expertos y DSS 

1.7.1. Sistemas expertos 
1.7.2. Sistemas de soporte a la decisión 

1.8. Chatbots y Asistentes Virtuales

1.8.1. Tipos de asistentes: asistentes por voz y por texto
1.8.2. Partes fundamentales para el desarrollo de un asistente: Intents, entidades y flujo de diálogo 
1.8.3. Integraciones: web, Slack, Whatsapp, Facebook 
1.8.4. Herramientas de desarrollo de asistentes: Dialog Flow, Watson Assistant

1.9. Estrategia de implantación de IA 
1.10. Futuro de la inteligencia artificial

1.10.1. Entendemos cómo detectar emociones mediante algoritmos
1.10.2. Creación de una personalidad: lenguaje, expresiones y contenido
1.10.3. Tendencias de la inteligencia artificial
1.10.4. Reflexiones

Módulo 2. Tipos y Ciclo de Vida del Dato 

2.1. La Estadística

2.1.1. Estadística: estadística descriptiva, estadística inferencias
2.1.2. Población, muestra, individuo
2.1.3. Variables: definición, escalas de medida

2.2. Tipos de datos estadísticos

2.2.1. Según tipo

2.2.1.1. Cuantitativos: datos continuos y datos discretos
2.2.1.2. Cualitativos: datos binomiales, datos nominales y datos ordinales 

2.2.2. Según su forma 

2.2.2.1. Numérico
2.2.2.2. Texto 
2.2.2.3. Lógico

2.2.3. Según su fuente

2.2.3.1. Primarios
2.2.3.2. Secundarios

2.3. Ciclo de vida de los datos

2.3.1. Etapas del ciclo
2.3.2. Hitos del ciclo
2.3.3. Principios FAIR

2.4. Etapas iniciales del ciclo

2.4.1. Definición de metas
2.4.2. Determinación de recursos necesarios
2.4.3. Diagrama de Gantt
2.4.4. Estructura de los datos

2.5. Recolección de datos

2.5.1. Metodología de recolección
2.5.2. Herramientas de recolección
2.5.3. Canales de recolección

2.6. Limpieza del dato

2.6.1. Fases de la limpieza de datos
2.6.2. Calidad del dato
2.6.3. Manipulación de datos (con R)

2.7. Análisis de datos, interpretación y valoración de resultados

2.7.1. Medidas estadísticas
2.7.2. Índices de relación
2.7.3. Minería de datos

2.8. Almacén del dato (Datawarehouse)

2.8.1. Elementos que lo integran
2.8.2. Diseño
2.8.3. Aspectos a considerar

2.9. Disponibilidad del dato

2.9.1. Acceso
2.9.2. Utilidad
2.9.3. Seguridad

2.10. Aspectos Normativos 

2.10.1. Ley de protección de datos
2.10.2. Buenas prácticas
2.10.3. Otros aspectos normativos

Módulo 3. El dato en la Inteligencia Artificial 

3.1. Ciencia de datos 

3.1.1. La ciencia de datos 
3.1.2. Herramientas avanzadas para el científico de datos 

3.2. Datos, información y conocimiento 

3.2.1. Datos, información y conocimiento
3.2.2. Tipos de datos 
3.2.3. Fuentes de datos 

3.3. De los datos a la información

3.3.1. Análisis de Datos 
3.3.2. Tipos de análisis 
3.3.3. Extracción de Información de un Dataset 

3.4. Extracción de información mediante visualización 

3.4.1. La visualización como herramienta de análisis 
3.4.2. Métodos de visualización
3.4.3. Visualización de un conjunto de datos 

3.5. Calidad de los datos 

3.5.1. Datos de calidad 
3.5.2. Limpieza de datos
3.5.3. Preprocesamiento básico de datos 

3.6. Dataset 

3.6.1. Enriquecimiento del Dataset 
3.6.2. La maldición de la dimensionalidad 
3.6.3. Modificación de nuestro conjunto de datos 

3.7. Desbalanceo

3.7.1. Desbalanceo de clases 
3.7.2. Técnicas de mitigación del desbalanceo 
3.7.3. Balanceo de un Dataset 

3.8. Modelos no supervisados

3.8.1. Modelo no supervisado 
3.8.2. Métodos 
3.8.3. Clasificación con modelos no supervisados 

3.9. Modelos supervisados 

3.9.1. Modelo supervisado 
3.9.2. Métodos 
3.9.3. Clasificación con modelos supervisados 

3.10. Herramientas y buenas prácticas 

3.10.1. Buenas prácticas para un científico de datos 
3.10.2. El mejor modelo
3.10.3. Herramientas útiles 

Módulo 4. Minería de Datos. Selección, preprocesamiento y transformación 

4.1. La inferencia estadística 

4.1.1. Estadística descriptiva vs. Inferencia estadística 
4.1.2. Procedimientos paramétricos 
4.1.3. Procedimientos no paramétricos 

4.2. Análisis exploratorio 

4.2.1. Análisis descriptivo
4.2.2. Visualización 
4.2.3. Preparación de datos 

4.3. Preparación de datos 

4.3.1. Integración y limpieza de datos
4.3.2. Normalización de datos 
4.3.3. Transformando atributos

4.4. Los valores perdidos 

4.4.1. Tratamiento de valores perdidos 
4.4.2. Métodos de imputación de máxima verosimilitud 
4.4.3. Imputación de valores perdidos usando aprendizaje automático 

4.5. El ruido en los datos

4.5.1. Clases de ruido y atributos 
4.5.2. Filtrado de ruido
4.5.3. El efecto del ruido 

4.6. La maldición de la dimensionalidad 

4.6.1. Oversampling 
4.6.2. Undersampling 
4.6.3. Reducción de datos multidimensionales 

4.7. De atributos continuos a discretos 

4.7.1. Datos continuos versus discretos 
4.7.2. Proceso de discretización 

4.8. Los datos

4.8.1. Selección de datos
4.8.2. Perspectivas y criterios de selección 
4.8.3. Métodos de selección

4.9. Selección de instancias 

4.9.1. Métodos para la selección de instancias 
4.9.2. Selección de prototipos 
4.9.3. Métodos avanzados para la selección de instancias 

4.10. Preprocesamiento de datos en entornos Big Data 

Módulo 5. Algoritmia y complejidad en Inteligencia Artificial 

5.1. Introducción a las estrategias de diseño de algoritmos 

5.1.1. Recursividad 
5.1.2. Divide y conquista 
5.1.3. Otras estrategias 

5.2. Eficiencia y análisis de los algoritmos 

5.2.1. Medidas de eficiencia 
5.2.2. Medir el tamaño de la entrada 
5.2.3. Medir el tiempo de ejecución 
5.2.4. Caso peor, mejor y medio 
5.2.5. Notación asintónica 
5.2.6. Criterios de Análisis matemático de algoritmos no recursivos 
5.2.7. Análisis matemático de algoritmos recursivos 
5.2.8. Análisis empírico de algoritmos 

5.3. Algoritmos de ordenación 

5.3.1. Concepto de ordenación 
5.3.2. Ordenación de la burbuja 
5.3.3. Ordenación por selección 
5.3.4. Ordenación por inserción 
5.3.5. Ordenación por mezcla (Merge_Sort
5.3.6. Ordenación rápida (Quick_Sort

5.4. Algoritmos con árboles 

5.4.1. Concepto de árbol 
5.4.2. Árboles binarios 
5.4.3. Recorridos de árbol 
5.4.4. Representar expresiones 
5.4.5. Árboles binarios ordenados 
5.4.6. Árboles binarios balanceados 

5.5. Algoritmos con Heaps 

5.5.1. Los Heaps 
5.5.2. El algoritmo Heapsort 
5.5.3. Las colas de prioridad 

5.6. Algoritmos con grafos 

5.6.1. Representación 
5.6.2. Recorrido en anchura 
5.6.3. Recorrido en profundidad 
5.6.4. Ordenación topológica 

5.7. Algoritmos Greedy 

5.7.1. La estrategia Greedy 
5.7.2. Elementos de la estrategia Greedy 
5.7.3. Cambio de monedas 
5.7.4. Problema del viajante 
5.7.5. Problema de la mochila 

5.8. Búsqueda de caminos mínimos 

5.8.1. El problema del camino mínimo 
5.8.2. Arcos negativos y ciclos 
5.8.3. Algoritmo de Dijkstra 

5.9. Algoritmos Greedy sobre grafos 

5.9.1. El árbol de recubrimiento mínimo 
5.9.2. El algoritmo de Prim 
5.9.3. El algoritmo de Kruskal 
5.9.4. Análisis de complejidad 

5.10. Backtracking 

5.10.1. El Backtracking 
5.10.2. Técnicas alternativas 

Módulo 6. Sistemas inteligentes 

6.1. Teoría de agentes 

6.1.1. Historia del concepto 
6.1.2. Definición de agente 
6.1.3. Agentes en Inteligencia Artificial 
6.1.4. Agentes en ingeniería de Software 

6.2. Arquitecturas de agentes 

6.2.1. El proceso de razonamiento de un agente 
6.2.2. Agentes reactivos 
6.2.3. Agentes deductivos 
6.2.4. Agentes híbridos 
6.2.5. Comparativa 

6.3. Información y conocimiento 

6.3.1. Distinción entre datos, información y conocimiento 
6.3.2. Evaluación de la calidad de los datos 
6.3.3. Métodos de captura de datos 
6.3.4. Métodos de adquisición de información 
6.3.5. Métodos de adquisición de conocimiento 

6.4. Representación del conocimiento 

6.4.1. La importancia de la representación del conocimiento 
6.4.2. Definición de representación del conocimiento a través de sus roles 
6.4.3. Características de una representación del conocimiento 

6.5. Ontologías 

6.5.1. Introducción a los metadatos 
6.5.2. Concepto filosófico de ontología 
6.5.3. Concepto informático de ontología 
6.5.4. Ontologías de dominio y ontologías de nivel superior 
6.5.5. ¿Cómo construir una ontología? 

6.6. Lenguajes para ontologías y Software para la creación de ontologías 

6.6.1. Tripletas RDF, Turtle y N 
6.6.2. RDF Schema 
6.6.3. OWL 
6.6.4. SPARQL 
6.6.5. Introducción a las diferentes herramientas para la creación de ontologías 
6.6.6. Instalación y uso de Protégé 

6.7. La web semántica 

6.7.1. El estado actual y futuro de la web semántica 
6.7.2. Aplicaciones de la web semántica 

6.8. Otros modelos de representación del conocimiento 

6.8.1. Vocabularios 
6.8.2. Visión global 
6.8.3. Taxonomías 
6.8.4. Tesauros 
6.8.5. Folksonomías 
6.8.6. Comparativa 
6.8.7. Mapas mentales 

6.9. Evaluación e integración de representaciones del conocimiento 

6.9.1. Lógica de orden cero 
6.9.2. Lógica de primer orden 
6.9.3. Lógica descriptiva 
6.9.4. Relación entre diferentes tipos de lógica 
6.9.5. Prolog: programación basada en lógica de primer orden 

6.10. Razonadores semánticos, sistemas basados en conocimiento y Sistemas Expertos 

6.10.1. Concepto de razonador 
6.10.2. Aplicaciones de un razonador 
6.10.3. Sistemas basados en el conocimiento 
6.10.4. MYCIN, historia de los Sistemas Expertos 
6.10.5. Elementos y Arquitectura de Sistemas Expertos 
6.10.6. Creación de Sistemas Expertos 

Módulo 7. Aprendizaje automático y minería de datos 

7.1. Introducción a los procesos de descubrimiento del conocimiento y conceptos básicos de aprendizaje automático 

7.1.1. Conceptos clave de los procesos de descubrimiento del conocimiento 
7.1.2. Perspectiva histórica de los procesos de descubrimiento del conocimiento 
7.1.3. Etapas de los procesos de descubrimiento del conocimiento 
7.1.4. Técnicas utilizadas en los procesos de descubrimiento del conocimiento 
7.1.5. Características de los buenos modelos de aprendizaje automático 
7.1.6. Tipos de información de aprendizaje automático 
7.1.7. Conceptos básicos de aprendizaje 
7.1.8. Conceptos básicos de aprendizaje no supervisado 

7.2. Exploración y preprocesamiento de datos 

7.2.1. Tratamiento de datos 
7.2.2. Tratamiento de datos en el flujo de análisis de datos 
7.2.3. Tipos de datos 
7.2.4. Transformaciones de datos 
7.2.5. Visualización y exploración de variables continuas 
7.2.6. Visualización y exploración de variables categóricas 
7.2.7. Medidas de correlación 
7.2.8. Representaciones gráficas más habituales 
7.2.9. Introducción al análisis multivariante y a la reducción de dimensiones 

7.3. Árboles de decisión 

7.3.1. Algoritmo ID 
7.3.2. Algoritmo C 
7.3.3. Sobreentrenamiento y poda 
7.3.4. Análisis de resultados 

7.4. Evaluación de clasificadores 

7.4.1. Matrices de confusión 
7.4.2. Matrices de evaluación numérica 
7.4.3. Estadístico de Kappa 
7.4.4. La curva ROC 

7.5. Reglas de clasificación 

7.5.1. Medidas de evaluación de reglas 
7.5.2. Introducción a la representación gráfica 
7.5.3. Algoritmo de recubrimiento secuencial 

7.6. Redes neuronales 

7.6.1. Conceptos básicos 
7.6.2. Redes de neuronas simples 
7.6.3. Algoritmo de Backpropagation 
7.6.4. Introducción a las redes neuronales recurrentes 

7.7. Métodos bayesianos 

7.7.1. Conceptos básicos de probabilidad 
7.7.2. Teorema de Bayes 
7.7.3. Naive Bayes 
7.7.4. Introducción a las redes bayesianas 

7.8. Modelos de regresión y de respuesta continua 

7.8.1. Regresión lineal simple 
7.8.2. Regresión lineal múltiple 
7.8.3. Regresión logística 
7.8.4. Árboles de regresión 
7.8.5. Introducción a las máquinas de soporte vectorial (SVM) 
7.8.6. Medidas de bondad de ajuste 

7.9. Clustering 

7.9.1. Conceptos básicos 
7.9.2. Clustering jerárquico 
7.9.3. Métodos probabilistas 
7.9.4. Algoritmo EM 
7.9.5. Método B-Cubed 
7.9.6. Métodos implícitos 

7.10. Minería de textos y procesamiento de lenguaje natural (NLP) 

7.10.1. Conceptos básicos 
7.10.2. Creación del corpus 
7.10.3. Análisis descriptivo 
7.10.4. Introducción al análisis de sentimientos 

Módulo 8. Las redes neuronales, base de Deep Learning 

8.1. Aprendizaje Profundo 

8.1.1. Tipos de aprendizaje profundo 
8.1.2. Aplicaciones del aprendizaje profundo 
8.1.3. Ventajas y desventajas del aprendizaje profundo 

8.2. Operaciones 

8.2.1. Suma 
8.2.2. Producto 
8.2.3. Traslado 

8.3. Capas 

8.3.1. Capa de entrada 
8.3.2. Capa oculta 
8.3.3. Capa de salida 

8.4. Unión de Capas y Operaciones 

8.4.1. Diseño de arquitecturas 
8.4.2. Conexión entre capas 
8.4.3. Propagación hacia adelante 

8.5. Construcción de la primera red neuronal 

8.5.1. Diseño de la red 
8.5.2. Establecer los pesos 
8.5.3. Entrenamiento de la red 

8.6. Entrenador y Optimizador 

8.6.1. Selección del optimizador 
8.6.2. Establecimiento de una función de pérdida 
8.6.3. Establecimiento de una métrica 

8.7. Aplicación de los Principios de las Redes Neuronales 

8.7.1. Funciones de activación 
8.7.2. Propagación hacia atrás 
8.7.3. Ajuste de los parámetros 

8.8. De las neuronas biológicas a las artificiales 

8.8.1. Funcionamiento de una neurona biológica 
8.8.2. Transferencia de conocimiento a las neuronas artificiales 
8.8.3. Establecer relaciones entre ambas 

8.9. Implementación de MLP (Perceptrón multicapa) con Keras 

8.9.1. Definición de la estructura de la red 
8.9.2. Compilación del modelo 
8.9.3. Entrenamiento del modelo 

8.10. Hiperparámetros de Fine tuning de Redes Neuronales 

8.10.1. Selección de la función de activación 
8.10.2. Establecer el Learning rate 
8.10.3. Ajuste de los pesos 

Módulo 9. Entrenamiento de redes neuronales profundas 

9.1. Problemas de Gradientes 

9.1.1. Técnicas de optimización de gradiente 
9.1.2. Gradientes Estocásticos 
9.1.3. Técnicas de inicialización de pesos 

9.2. Reutilización de capas preentrenadas 

9.2.1. Entrenamiento de transferencia de aprendizaje 
9.2.2. Extracción de características 
9.2.3. Aprendizaje profundo 

9.3. Optimizadores 

9.3.1. Optimizadores de descenso de gradiente estocástico 
9.3.2. Optimizadores Adam y RMSprop 
9.3.3. Optimizadores de momento 

9.4. Programación de la tasa de aprendizaje 

9.4.1. Control de tasa de aprendizaje automático 
9.4.2. Ciclos de aprendizaje 
9.4.3. Términos de suavizado 

9.5. Sobreajuste 

9.5.1. Validación cruzada 
9.5.2. Regularización 
9.5.3. Métricas de evaluación 

9.6. Directrices Prácticas 

9.6.1. Diseño de modelos 
9.6.2. Selección de métricas y parámetros de evaluación 
9.6.3. Pruebas de hipótesis 

9.7. Transfer Learning 

9.7.1. Entrenamiento de transferencia de aprendizaje 
9.7.2. Extracción de características 
9.7.3. Aprendizaje profundo 

9.8. Data Augmentation 

9.8.1. Transformaciones de imagen 
9.8.2. Generación de datos sintéticos 
9.8.3. Transformación de texto 

9.9. Aplicación Práctica de Transfer Learning 

9.9.1. Entrenamiento de transferencia de aprendizaje 
9.9.2. Extracción de características 
9.9.3. Aprendizaje profundo 

9.10. Regularización 

9.10.1. L y L 
9.10.2. Regularización por máxima entropía 
9.10.3. Dropout 

Módulo 10. Personalización de Modelos y entrenamiento con TensorFlow 

10.1. TensorFlow 

10.1.1. Uso de la biblioteca TensorFlow 
10.1.2. Entrenamiento de modelos con TensorFlow 
10.1.3. Operaciones con gráficos en TensorFlow 

10.2. TensorFlow y NumPy 

10.2.1. Entorno computacional NumPy para TensorFlow 
10.2.2. Utilización de los arrays NumPy con TensorFlow 
10.2.3. Operaciones NumPy para los gráficos de TensorFlow 

10.3. Personalización de modelos y algoritmos de entrenamiento 

10.3.1. Construcción de modelos personalizados con TensorFlow 
10.3.2. Gestión de parámetros de entrenamiento 
10.3.3. Utilización de técnicas de optimización para el entrenamiento 

10.4. Funciones y gráficos de TensorFlow 

10.4.1. Funciones con TensorFlow 
10.4.2. Utilización de gráficos para el entrenamiento de modelos 
10.4.3. Optimización de gráficos con operaciones de TensorFlow 

10.5. Carga y preprocesamiento de datos con TensorFlow 

10.5.1. Carga de conjuntos de datos con TensorFlow 
10.5.2. Preprocesamiento de datos con TensorFlow 
10.5.3. Utilización de herramientas de TensorFlow para la manipulación de datos 

10.6. La API tfdata 

10.6.1. Utilización de la API tfdata para el procesamiento de datos 
10.6.2. Construcción de flujos de datos con tfdata 
10.6.3. Uso de la API tfdata para el entrenamiento de modelos 

10.7. El formato TFRecord 

10.7.1. Utilización de la API TFRecord para la serialización de datos 
10.7.2. Carga de archivos TFRecord con TensorFlow 
10.7.3. Utilización de archivos TFRecord para el entrenamiento de modelos 

10.8. Capas de preprocesamiento de Keras 

10.8.1. Utilización de la API de preprocesamiento de Keras 
10.8.2. Construcción de pipelined de preprocesamiento con Keras 
10.8.3. Uso de la API de preprocesamiento de Keras para el entrenamiento de modelos 

10.9. El proyecto TensorFlow Datasets 

10.9.1. Utilización de TensorFlow Datasets para la carga de datos 
10.9.2. Preprocesamiento de datos con TensorFlow Datasets 
10.9.3. Uso de TensorFlow Datasets para el entrenamiento de modelos 

10.10. Construcción de una Aplicación de Deep Learning con TensorFlow 

10.10.1. Aplicación Práctica 
10.10.2. Construcción de una aplicación de Deep Learning con TensorFlow 
10.10.3. Entrenamiento de un modelo con TensorFlow 
10.10.4. Utilización de la aplicación para la predicción de resultados 

Módulo 11. Deep Computer Vision con Redes Neuronales Convolucionales 

11.1. La Arquitectura Visual Cortex 

11.1.1. Funciones de la corteza visual 
11.1.2. Teorías de la visión computacional 
11.1.3. Modelos de procesamiento de imágenes 

11.2. Capas convolucionales 

11.2.1. Reutilización de pesos en la convolución 
11.2.2. Convolución D 
11.2.3. Funciones de activación 

11.3. Capas de agrupación e implementación de capas de agrupación con Keras 

11.3.1. Pooling y Striding 
11.3.2. Flattening 
11.3.3. Tipos de Pooling 

11.4. Arquitecturas CNN 

11.4.1. Arquitectura VGG 
11.4.2. Arquitectura AlexNet 
11.4.3. Arquitectura ResNet 

11.5. Implementación de una CNN ResNet- usando Keras 

11.5.1. Inicialización de pesos 
11.5.2. Definición de la capa de entrada 
11.5.3. Definición de la salida 

11.6. Uso de modelos preentrenados de Keras 

11.6.1. Características de los modelos preentrenados 
11.6.2. Usos de los modelos preentrenados 
11.6.3. Ventajas de los modelos preentrenados 

11.7. Modelos preentrenados para el aprendizaje por transferencia 

11.7.1. El Aprendizaje por transferencia 
11.7.2. Proceso de aprendizaje por transferencia 
11.7.3. Ventajas del aprendizaje por transferencia 

11.8. Clasificación y Localización en Deep Computer Vision 

11.8.1. Clasificación de imágenes 
11.8.2. Localización de objetos en imágenes 
11.8.3. Detección de objetos 

11.9. Detección de objetos y seguimiento de objetos 

11.9.1. Métodos de detección de objetos 
11.9.2. Algoritmos de seguimiento de objetos 
11.9.3. Técnicas de rastreo y localización 

11.10. Segmentación semántica 

11.10.1. Aprendizaje profundo para segmentación semántica 
11.10.2. Detección de bordes 
11.10.3. Métodos de segmentación basados en reglas 

Módulo 12. Procesamiento del lenguaje natural (NLP) con Redes Naturales Recurrentes (RNN) y Atención 

12.1. Generación de texto utilizando RNN 

12.1.1. Entrenamiento de una RNN para generación de texto 
12.1.2. Generación de lenguaje natural con RNN 
12.1.3. Aplicaciones de generación de texto con RNN 

12.2. Creación del conjunto de datos de entrenamiento 

12.2.1. Preparación de los datos para el entrenamiento de una RNN 
12.2.2. Almacenamiento del conjunto de datos de entrenamiento 
12.2.3. Limpieza y transformación de los datos 
12.2.4. Análisis de Sentimiento 

12.3. Clasificación de opiniones con RNN 

12.3.1. Detección de temas en los comentarios 
12.3.2. Análisis de sentimiento con algoritmos de aprendizaje profundo 

12.4. Red de codificador-decodificador para la traducción automática neuronal 

12.4.1. Entrenamiento de una RNN para la traducción automática 
12.4.2. Uso de una red encoder-decoder para la traducción automática 
12.4.3. Mejora de la precisión de la traducción automática con RNN 

12.5. Mecanismos de atención 

12.5.1. Aplicación de mecanismos de atención en RNN 
12.5.2. Uso de mecanismos de atención para mejorar la precisión de los modelos 
12.5.3. Ventajas de los mecanismos de atención en las redes neuronales 

12.6. Modelos Transformers 

12.6.1. Uso de los modelos Transformers para procesamiento de lenguaje natural 
12.6.2. Aplicación de los modelos Transformers para visión 
12.6.3. Ventajas de los modelos Transformers 

12.7. Transformers para visión 

12.7.1. Uso de los modelos Transformers para visión 
12.7.2. Preprocesamiento de los datos de imagen 
12.7.3. Entrenamiento de un modelo Transformers para visión 

12.8. Librería de Transformers de Hugging Face 

12.8.1. Uso de la librería de Transformers de Hugging Face 
12.8.2. Aplicación de la librería de Transformers de Hugging Face 
12.8.3. Ventajas de la librería de Transformers de Hugging Face 

12.9. Otras Librerías de Transformers. Comparativa 

12.9.1. Comparación entre las distintas librerías de Transformers 
12.9.2. Uso de las demás librerías de Transformers 
12.9.3. Ventajas de las demás librerías de Transformers 

12.10. Desarrollo de una Aplicación de NLP con RNN y Atención. Aplicación Práctica 

12.10.1. Desarrollo de una aplicación de procesamiento de lenguaje natural con RNN y atención 
12.10.2. Uso de RNN, mecanismos de atención y modelos Transformers en la aplicación 
12.10.3. Evaluación de la aplicación práctica 

Módulo 13. Autoencoders, GANs, y Modelos de Difusión 

13.1. Representaciones de datos eficientes 

13.1.1. Reducción de dimensionalidad 
13.1.2. Aprendizaje profundo 
13.1.3. Representaciones compactas 

13.2. Realización de PCA con un codificador automático lineal incompleto 

13.2.1. Proceso de entrenamiento 
13.2.2. Implementación en Python 
13.2.3. Utilización de datos de prueba 

13.3. Codificadores automáticos apilados 

13.3.1. Redes neuronales profundas 
13.3.2. Construcción de arquitecturas de codificación 
13.3.3. Uso de la regularización 

13.4. Autocodificadores convolucionales 

13.4.1. Diseño de modelos convolucionales 
13.4.2. Entrenamiento de modelos convolucionales 
13.4.3. Evaluación de los resultados 

13.5. Eliminación de ruido de codificadores automáticos 

13.5.1. Aplicación de filtros 
13.5.2. Diseño de modelos de codificación 
13.5.3. Uso de técnicas de regularización 

13.6. Codificadores automáticos dispersos 

13.6.1. Incrementar la eficiencia de la codificación 
13.6.2. Minimizando el número de parámetros 
13.6.3. Utilización de técnicas de regularización 

13.7. Codificadores automáticos variacionales 

13.7.1. Utilización de optimización variacional 
13.7.2. Aprendizaje profundo no supervisado 
13.7.3. Representaciones latentes profundas 

13.8. Generación de imágenes MNIST de moda 

13.8.1. Reconocimiento de patrones 
13.8.2. Generación de imágenes 
13.8.3. Entrenamiento de redes neuronales profundas 

13.9. Redes adversarias generativas y modelos de difusión 

13.9.1. Generación de contenido a partir de imágenes 
13.9.2. Modelado de distribuciones de datos 
13.9.3. Uso de redes adversarias 

13.10. Implementación de los Modelos 

13.10.1. Aplicación Práctica 
13.10.2. Implementación de los modelos 
13.10.3. Uso de datos reales 
13.10.4. Evaluación de los resultados 

Módulo 14. Computación bioinspirada

14.1. Introducción a la computación bioinspirada 

14.1.1. Introducción a la computación bioinspirada 

14.2. Algoritmos de adaptación social 

14.2.1. Computación bioinspirada basada en colonia de hormigas 
14.2.2. Variantes de los algoritmos de colonias de hormigas 
14.2.3. Computación basada en nubes de partículas 

14.3. Algoritmos genéticos 

14.3.1. Estructura general 
14.3.2. Implementaciones de los principales operadores 

14.4. Estrategias de exploración-explotación del espacio para algoritmos genéticos 

14.4.1. Algoritmo CHC 
14.4.2. Problemas multimodales 

14.5. Modelos de computación evolutiva (I) 

14.5.1. Estrategias evolutivas 
14.5.2. Programación evolutiva 
14.5.3. Algoritmos basados en evolución diferencial 

14.6. Modelos de computación evolutiva (II) 

14.6.1. Modelos de evolución basados en estimación de distribuciones (EDA) 
14.6.2. Programación genética 

14.7. Programación evolutiva aplicada a problemas de aprendizaje 

14.7.1. Aprendizaje basado en reglas 
14.7.2. Métodos evolutivos en problemas de selección de instancias 

14.8. Problemas multiobjetivo 

14.8.1. Concepto de dominancia 
14.8.2. Aplicación de algoritmos evolutivos a problemas multiobjetivo 

14.9. Redes neuronales (I) 

14.9.1. Introducción a las redes neuronales 
14.9.2. Ejemplo práctico con redes neuronales 

14.10. Redes neuronales (II) 

14.10.1. Casos de uso de las redes neuronales en la investigación médica 
14.10.2. Casos de uso de las redes neuronales en la economía 
14.10.3. Casos de uso de las redes neuronales en la visión artificial 

Módulo 15. Inteligencia Artificial: estrategias y aplicaciones

15.1. Servicios financieros 

15.1.1. Las implicaciones de la Inteligencia Artificial (IA) en los servicios financieros.Oportunidades y desafíos
15.1.2. Casos de uso
15.1.3. Riesgos potenciales relacionados con el uso de IA 
15.1.4. Potenciales desarrollos / usos futuros de la IA 

15.2. Implicaciones de la Inteligencia Artificial en el servicio sanitario

15.2.1. Implicaciones de la IA en el sector sanitario. Oportunidades y desafíos
15.2.2. Casos de uso 

15.3. Riesgos Relacionados con el uso de la IA en el servicio sanitario 

15.3.1. Riesgos potenciales relacionados con el uso de IA 
15.3.2. Potenciales desarrollos / usos futuros de la IA

15.4. Retail

15.4.1. Implicaciones de la IA en Retail. Oportunidades y desafíos
15.4.2. Casos de uso
15.4.3. Riesgos potenciales relacionados con el uso de IA
15.4.4. Potenciales desarrollos / usos futuros de la IA 

15.5. Industria 

15.5.1. Implicaciones de la IA en la Industria. Oportunidades y desafíos 
15.5.2. Casos de uso 

15.6. Riesgos potenciales relacionados con el uso de IA en la Industria 

15.6.1. Casos de uso 
15.6.2. Riesgos potenciales relacionados con el uso de IA 
15.6.3. Potenciales desarrollos / usos futuros de la IA

15.7. Administración Pública

15.7.1. Implicaciones de la IA en la Administración Pública. Oportunidades y desafíos 
15.7.2. Casos de uso
15.7.3. Riesgos potenciales relacionados con el uso de IA
15.7.4. Potenciales desarrollos / usos futuros de la IA

15.8. Educación

15.8.1. Implicaciones de la IA en la educación. Oportunidades y desafíos 
15.8.2. Casos de uso
15.8.3. Riesgos potenciales relacionados con el uso de IA
15.8.4. Potenciales desarrollos / usos futuros de la IA 

15.9. Silvicultura y agricultura

15.9.1. Implicaciones de la IA en la silvicultura y la agricultura. Oportunidades y desafíos
15.9.2. Casos de uso 
15.9.3. Riesgos potenciales relacionados con el uso de IA 
15.9.4. Potenciales desarrollos / usos futuros de la IA

15.10. Recursos Humanos

15.10.1. Implicaciones de la IA en los Recursos Humanos. Oportunidades y desafíos 
15.10.2. Casos de uso
15.10.3. Riesgos potenciales relacionados con el uso de IA
15.10.4. Potenciales desarrollos / usos futuros de la IA

estudiar inteligencia artificial ingenieria TECH Universidad

Indagarás en temas como los modelos de IA generativos, la computación cuántica aplicada y las estrategias de ética y gobernanza, de la mano de la mejor universidad digital del mundo, según Forbes”

Máster Semipresencial en Inteligencia Artificial

Bienvenido al Máster Semipresencial en Inteligencia Artificial de TECH Universidad, donde se fusiona la innovación educativa con la flexibilidad del aprendizaje online y la experiencia práctica en nuestras instalaciones especializadas. Este programa está diseñado para prepararte como un profesional versátil en el campo de la Inteligencia Artificial, ofreciéndote un enfoque integral que combina la teoría avanzada con aplicaciones prácticas. Durante las clases semipresenciales, tendrás acceso a contenido teórico de vanguardia a través de nuestra plataforma digital, facilitándote el estudio a tu propio ritmo y desde cualquier lugar. Además, las prácticas presenciales en nuestro centro te permitirán aplicar tus conocimientos en entornos controlados, bajo la guía de expertos en la materia. A lo largo del programa, explorarás temas fundamentales como el aprendizaje automático, el procesamiento de grandes datos, la visión por computadora y la robótica inteligente. Aprenderás a desarrollar algoritmos avanzados que están transformando industrias enteras, desde la salud hasta la automoción y la banca.

Capacítate en IA con teoría online y prácticas presenciales

¿Sabes por qué TECH está considerada una de las mejores universidades del mundo? Porque contamos con un catálogo de más de diez mil programas académicos, presencia en múltiples países, metodologías innovadoras, tecnología académica única y un equipo docente altamente cualificado; por eso, no puedes perder la oportunidad de estudiar con este posgrado de teoría online y prácticas presenciales. Nuestro claustro está formado por profesionales con experiencia real en proyectos de IA a nivel global, asegurando que adquieras habilidades prácticas y conocimientos actualizados que demanda el mercado laboral actual. Además, tendrás la oportunidad de colaborar en proyectos reales, fomentando el desarrollo de habilidades de trabajo en equipo y liderazgo que son cruciales en el mundo laboral. Al completar el Máster, estarás preparado para enfrentar los desafíos más exigentes de la Inteligencia Artificial, contribuyendo a la innovación y al progreso tecnológico en cualquier industria que elijas. Obtén tu título de TECH Universidad y conviértete en un líder de la transformación digital con nuestras herramientas, conocimientos y contenido de alta calidad.