Presentación

Gracias a este programa 100% online, analizarás de forma exhaustiva los principios esenciales del aprendizaje automático y su implementación en el análisis de datos biomédicos” 

##IMAGE##

Durante los tratamientos terapéuticos, los usuarios necesitan recibir un monitoreo constante por parte de los profesionales médicos para verificar la eficacia de los mimos. En este sentido, la Inteligencia Artificial son útiles para recopilar datos en tiempo real sobre el estado clínico de las personas. Asimismo, sus herramientas detectan incluso cambios sutiles acerca de la salud para alertar a los especialistas cuando sea necesario. Así pues, los facultativos pueden aplicar modificaciones en base a las reacciones de los individuos y prevenir futuros problemas que peligren sus vidas. 

Consciente de su importancia, TECH implementa un Máster de Formación Permanente que abordará en detalle las aplicaciones específicas de la Inteligencia Artificial en el ámbito de la Investigación Clínica. Diseñado por expertos en esta materia, el plan de estudios profundizará en la simulación computacional en biomedicina y el análisis avanzado de datos clínicos. De esta forma, los expertos obtendrán habilidades avanzadas para implementar el Aprendizaje Automático en tesituras biomédicas complejas. Por otra parte, el temario enfatizará en las consideraciones éticas y legales del uso de la Inteligencia Artificial para que los egresados desarrollen sus procedimientos bajo una perspectiva altamente deontológica. 

Cabe destacar que la metodología de este programa refuerza su carácter innovador. TECH ofrece un entorno educativo 100% online, adaptado a las necesidades de los profesionales ocupados que buscan avanzar en sus trayectorias profesionales. Por ello, podrán planificar individualmente tanto sus horarios como cronogramas evaluativos. Igualmente, la capacitación emplea el novedoso sistema del Relearning, basado en la repetición de conceptos clave para fijar conocimientos y facilitar el aprendizaje. De esta manera, la combinación de flexibilidad y un enfoque pedagógico robusto, lo hace altamente accesible. También los profesionales accederán a una biblioteca atestada de recursos audiovisuales, entre los que figuran infografías o resúmenes interactivos.  Además, la titulación universitaria incluirá casos clínicos reales que acercarán al máximo el desarrollo del programa a la realidad de la atención médica. 

La habilidad de la Inteligencia Artificial tanto para integrar datos de diversas fuentes como predecir resultados contribuirán a que tu praxis médica sea más precisa y personalizada” 

Este Máster de Formación Permanente en Inteligencia Artificial en Investigación Clínica contiene el programa educativo más completo y actualizado del mercado. Sus características más destacadas son:  

  • El desarrollo de casos prácticos presentados por expertos en Inteligencia Artificial en Investigación Clínica 
  • Los contenidos gráficos, esquemáticos y eminentemente prácticos con los que está concebido recogen una información científica y práctica sobre aquellas disciplinas indispensables para el ejercicio profesional 
  • Los ejercicios prácticos donde realizar el proceso de autoevaluación para mejorar el aprendizaje 
  • Su especial hincapié en metodologías innovadoras  
  • Las lecciones teóricas, preguntas al experto, foros de discusión de temas controvertidos y trabajos de reflexión individual 
  • La disponibilidad de acceso a los contenidos desde cualquier dispositivo fijo o portátil con conexión a internet 

Para que consigas tus metas académicas de modo flexible, TECH te ofrece una metodología 100% online de aprendizaje, basada en el acceso libre a los contenidos y la personalización de la enseñanza” 

El programa incluye en su cuadro docente a profesionales del sector que vierten en esta capacitación la experiencia de su trabajo, además de reconocidos especialistas de sociedades de referencia y universidades de prestigio.  

Su contenido multimedia, elaborado con la última tecnología educativa, permitirá al profesional un aprendizaje situado y contextual, es decir, un entorno simulado que proporcionará una capacitación inmersiva programada para entrenarse ante situaciones reales.  

El diseño de este programa se centra en el Aprendizaje Basado en Problemas, mediante el cual el profesional deberá tratar de resolver las distintas situaciones de práctica profesional que se le planteen a lo largo del curso académico. Para ello, contará con la ayuda de un novedoso sistema de vídeo interactivo realizado por reconocidos expertos.   

¿Buscas profundizar en la implementación del Big Data? Maneja las técnicas de Aprendizaje Automático más efectivas gracias a este Máster de Formación Permanente"

##IMAGE##

La capacitación incluye el análisis de aspectos éticos, legales y regulatorios, comprometiéndose con la responsabilidad y la conciencia de los desafíos contemporáneos"

Temario

Este Máster de Formación Permanente englobará el rigor científico de la Investigación Clínica con las innovaciones disruptivas de la Inteligencia Artificial. Compuesto por 20 módulos, el plan de estudios profundizará tanto en la interpretación de datos médicos como en el desarrollo de algoritmos predictivos. Asimismo, el temario destacará la relevancia de implementar soluciones tecnológicas en contextos clínicos. Con un enfoque teórico-práctico, los alumnos dominarán las bases del Aprendizaje Automático y su correcta aplicación en el campo médico. Así los egresados estarán capacitados para liderar avances en la individualización de tratamientos y la optimización de la asistencia sanitaria. 

##IMAGE##

Accede a la biblioteca de recursos multimedia y a todo el temario desde el primer día. ¡Sin horarios fijos ni presencialidad!” 

Módulo 1. Fundamentos de la Inteligencia Artificial 

1.1. Historia de la Inteligencia artificial 

1.1.1. ¿Cuándo se empieza a hablar de Inteligencia Artificial?  
1.1.2. Referentes en el cine 
1.1.3. Importancia de la inteligencia artificial 
1.1.4. Tecnologías que habilitan y dan soporte a la Inteligencia Artificial 

1.2. La Inteligencia Artificial en juegos 

1.2.1. Teoría de Juegos 
1.2.2. Minimax y poda Alfa-Beta 
1.2.3. Simulación: Monte Carlo 

1.3. Redes de neuronas 

1.3.1. Fundamentos biológicos 
1.3.2. Modelo computacional 
1.3.3. Redes de neuronas supervisadas y no supervisadas 
1.3.4. Perceptrón simple 
1.3.5. Perceptrón multicapa 

1.4. Algoritmos genéticos 

1.4.1. Historia 
1.4.2. Base biológica 
1.4.3. Codificación de problemas 
1.4.4. Generación de la población inicial 
1.4.5. Algoritmo principal y operadores genéticos 
1.4.6. Evaluación de individuos: Fitness 

1.5. Tesauros, vocabularios, taxonomías 

1.5.1. Vocabularios 
1.5.2. Taxonomías 
1.5.3. Tesauros 
1.5.4. Ontologías 
1.5.5. Representación del conocimiento: Web semántica 

1.6. Web semántica 

1.6.1. Especificaciones: RDF, RDFS y OWL 
1.6.2. Inferencia/razonamiento 
1.6.3. Linked Data 

1.7. Sistemas expertos y DSS 

1.7.1. Sistemas expertos 
1.7.2. Sistemas de soporte a la decisión 

1.8. Chatbots y asistentes virtuales  

1.8.1. Tipos de asistentes: Asistentes por voz y por texto  
1.8.2. Partes fundamentales para el desarrollo de un asistente: Intents, entidades y flujo de diálogo 
1.8.3. Integraciones: Web, Slack, Whatsapp, Facebook 
1.8.4. Herramientas de desarrollo de asistentes: Dialog Flow, Watson Assistant  

1.9. Estrategia de implantación de IA 
1.10. Futuro de la inteligencia artificial  

1.10.1. Entendemos cómo detectar emociones mediante algoritmos  
1.10.2. Creación de una personalidad: Lenguaje, expresiones y contenido  
1.10.3. Tendencias de la inteligencia artificial  
1.10.4. Reflexiones 

Módulo 2. Tipos y ciclo de vida del dato 

2.1. La estadística  

2.1.1. Estadística: Estadística descriptiva, estadística inferencias  
2.1.2. Población, muestra, individuo  
2.1.3. Variables: Definición, escalas de medida  

2.2. Tipos de datos estadísticos  

2.2.1. Según tipo  

2.2.1.1. Cuantitativos: Datos continuos y datos discretos  
2.2.1.2. Cualitativos: Datos binomiales, datos nominales y datos ordinales 

2.2.2. Según su forma   

2.2.2.1. Numérico  
2.2.2.2. Texto   
2.2.2.3. Lógico  

2.2.3. Según su fuente  

2.2.3.1. Primarios  
2.2.3.2. Secundarios  

2.3. Ciclo de vida de los datos  

2.3.1. Etapas del ciclo  
2.3.2. Hitos del ciclo  
2.3.3. Principios FAIR  

2.4. Etapas iniciales del ciclo  

2.4.1. Definición de metas  
2.4.2. Determinación de recursos necesarios  
2.4.3. Diagrama de Gantt  
2.4.4. Estructura de los datos  

2.5. Recolección de datos  

2.5.1. Metodología de recolección  
2.5.2. Herramientas de recolección  
2.5.3. Canales de recolección  

2.6. Limpieza del dato  

2.6.1. Fases de la limpieza de datos  
2.6.2. Calidad del dato  
2.6.3. Manipulación de datos (con R)  

2.7. Análisis de datos, interpretación y valoración de resultados  

2.7.1. Medidas estadísticas  
2.7.2. Índices de relación  
2.7.3. Minería de datos  

2.8. Almacén del dato (Datawarehouse)  

2.8.1. Elementos que lo integran  
2.8.2. Diseño  
2.8.3. Aspectos a considerar  

2.9. Disponibilidad del dato  

2.9.1. Acceso  
2.9.2. Utilidad  
2.9.3. Seguridad  

2.10. Aspectos Normativos 

2.10.1. Ley de protección de datos  
2.10.2. Buenas prácticas  
2.10.3. Otros aspectos normativos 

Módulo 3. El dato en la Inteligencia Artificial 

3.1. Ciencia de datos 

3.1.1. La ciencia de datos 
3.1.2. Herramientas avanzadas para el científico de datos 

3.2. Datos, información y conocimiento 

3.2.1. Datos, información y conocimiento  
3.2.2. Tipos de datos 
3.2.3. Fuentes de datos 

3.3. De los datos a la información  

3.3.1. Análisis de Datos 
3.3.2. Tipos de análisis 
3.3.3. Extracción de información de un Dataset 

3.4. Extracción de información mediante visualización 

3.4.1. La visualización como herramienta de análisis 
3.4.2. Métodos de visualización  
3.4.3. Visualización de un conjunto de datos 

3.5. Calidad de los datos 

3.5.1. Datos de calidad 
3.5.2. Limpieza de datos  
3.5.3. Preprocesamiento básico de datos 

3.6. Dataset 

3.6.1. Enriquecimiento del Dataset 
3.6.2. La maldición de la dimensionalidad 
3.6.3. Modificación de nuestro conjunto de datos 

3.7. Desbalanceo  

3.7.1. Desbalanceo de clases 
3.7.2. Técnicas de mitigación del desbalanceo 
3.7.3. Balanceo de un Dataset 

3.8. Modelos no supervisados  

3.8.1. Modelo no supervisado 
3.8.2. Métodos 
3.8.3. Clasificación con modelos no supervisados 

3.9. Modelos supervisados 

3.9.1. Modelo supervisado 
3.9.2. Métodos 
3.9.3. Clasificación con modelos supervisados 

3.10. Herramientas y buenas prácticas 

3.10.1. Buenas prácticas para un científico de datos 
3.10.2. El mejor modelo  
3.10.3. Herramientas útiles 

Módulo 4. Minería de datos. Selección, preprocesamiento y transformación 

4.1. La inferencia estadística 

4.1.1. Estadística descriptiva vs Inferencia estadística 
4.1.2. Procedimientos paramétricos 
4.1.3. Procedimientos no paramétricos 

4.2. Análisis exploratorio 

4.2.1. Análisis descriptivo  
4.2.2. Visualización 
4.2.3. Preparación de datos 

4.3. Preparación de datos 

4.3.1. Integración y limpieza de datos  
4.3.2. Normalización de datos 
4.3.3. Transformando atributos  

4.4. Los valores perdidos 

4.4.1. Tratamiento de valores perdidos 
4.4.2. Métodos de imputación de máxima verosimilitud 
4.4.3. Imputación de valores perdidos usando aprendizaje automático 

4.5. El ruido en los datos  

4.5.1. Clases de ruido y atributos 
4.5.2. Filtrado de ruido  
4.5.3. El efecto del ruido 

4.6. La maldición de la dimensionalidad 

4.6.1. Oversampling 
4.6.2. Undersampling 
4.6.3. Reducción de datos multidimensionales 

4.7. De atributos continuos a discretos 

4.7.1. Datos continuos versus discretos 
4.7.2. Proceso de discretización 

4.8. Los datos  

4.8.1. Selección de datos  
4.8.2. Perspectivas y criterios de selección 
4.8.3. Métodos de selección  

4.9. Selección de instancias 

4.9.1. Métodos para la selección de instancias 
4.9.2. Selección de prototipos 
4.9.3. Métodos avanzados para la selección de instancias 

4.10. Preprocesamiento de datos en entornos Big Data 

Módulo 5. Algoritmia y complejidad en Inteligencia Artificial 

5.1. Introducción a las estrategias de diseño de algoritmos 

5.1.1. Recursividad 
5.1.2. Divide y conquista 
5.1.3. Otras estrategias 

5.2. Eficiencia y análisis de los algoritmos 

5.2.1. Medidas de eficiencia 
5.2.2. Medir el tamaño de la entrada 
5.2.3. Medir el tiempo de ejecución 
5.2.4. Caso peor, mejor y medio 
5.2.5. Notación asintónica 
5.2.6. Criterios de análisis matemático de algoritmos no recursivos 
5.2.7. Análisis matemático de algoritmos recursivos 
5.2.8. Análisis empírico de algoritmos 

5.3. Algoritmos de ordenación 

5.3.1. Concepto de ordenación 
5.3.2. Ordenación de la burbuja 
5.3.3. Ordenación por selección 
5.3.4. Ordenación por inserción 
5.3.5. Ordenación por mezcla (Merge_Sort
5.3.6. Ordenación rápida (Quick_Sort

5.4. Algoritmos con árboles 

5.4.1. Concepto de árbol 
5.4.2. Árboles binarios 
5.4.3. Recorridos de árbol 
5.4.4. Representar expresiones 
5.4.5. Árboles binarios ordenados 
5.4.6. Árboles binarios balanceados 

5.5. Algoritmos con Heaps 

5.5.1. Los Heaps 
5.5.2. El algoritmo Heapsort 
5.5.3. Las colas de prioridad 

5.6. Algoritmos con grafos 

5.6.1. Representación 
5.6.2. Recorrido en anchura 
5.6.3. Recorrido en profundidad 
5.6.4. Ordenación topológica 

5.7. Algoritmos Greedy 

5.7.1. La estrategia Greedy 
5.7.2. Elementos de la estrategia Greedy 
5.7.3. Cambio de monedas 
5.7.4. Problema del viajante 
5.7.5. Problema de la mochila 

5.8. Búsqueda de caminos mínimos 

5.8.1. El problema del camino mínimo 
5.8.2. Arcos negativos y ciclos 
5.8.3. Algoritmo de Dijkstra 

5.9. Algoritmos Greedy sobre grafos 

5.9.1. El árbol de recubrimiento mínimo 
5.9.2. El algoritmo de Prim 
5.9.3. El algoritmo de Kruskal 
5.9.4. Análisis de complejidad 

5.10. Backtracking 

5.10.1. El Backtracking 
5.10.2. Técnicas alternativas 

Módulo 6. Sistemas inteligentes 

6.1. Teoría de agentes 

6.1.1. Historia del concepto 
6.1.2. Definición de agente 
6.1.3. Agentes en Inteligencia Artificial 
6.1.4. Agentes en ingeniería de software 

6.2. Arquitecturas de agentes 

6.2.1. El proceso de razonamiento de un agente 
6.2.2. Agentes reactivos 
6.2.3. Agentes deductivos 
6.2.4. Agentes híbridos 
6.2.5. Comparativa 

6.3. Información y conocimiento 

6.3.1. Distinción entre datos, información y conocimiento 
6.3.2. Evaluación de la calidad de los datos 
6.3.3. Métodos de captura de datos 
6.3.4. Métodos de adquisición de información 
6.3.5. Métodos de adquisición de conocimiento 

6.4. Representación del conocimiento 

6.4.1. La importancia de la representación del conocimiento 
6.4.2. Definición de representación del conocimiento a través de sus roles 
6.4.3. Características de una representación del conocimiento 

6.5. Ontologías 

6.5.1. Introducción a los metadatos 
6.5.2. Concepto filosófico de ontología 
6.5.3. Concepto informático de ontología 
6.5.4. Ontologías de dominio y ontologías de nivel superior 
6.5.5. ¿Cómo construir una ontología? 

6.6. Lenguajes para ontologías y software para la creación de ontologías 

6.6.1. Tripletas RDF, Turtle y N 
6.6.2. RDF Schema 
6.6.3. OWL 
6.6.4. SPARQL 
6.6.5. Introducción a las diferentes herramientas para la creación de ontologías 
6.6.6. Instalación y uso de Protégé 

6.7. La web semántica 

6.7.1. El estado actual y futuro de la web semántica 
6.7.2. Aplicaciones de la web semántica 

6.8. Otros modelos de representación del conocimiento 

6.8.1. Vocabularios 
6.8.2. Visión global 
6.8.3. Taxonomías 
6.8.4. Tesauros 
6.8.5. Folksonomías 
6.8.6. Comparativa 
6.8.7. Mapas mentales 

6.9. Evaluación e integración de representaciones del conocimiento 

6.9.1. Lógica de orden cero 
6.9.2. Lógica de primer orden 
6.9.3. Lógica descriptiva 
6.9.4. Relación entre diferentes tipos de lógica 
6.9.5. Prolog: Programación basada en lógica de primer orden 

6.10. Razonadores semánticos, sistemas basados en conocimiento y Sistemas Expertos 

6.10.1. Concepto de razonador 
6.10.2. Aplicaciones de un razonador 
6.10.3. Sistemas basados en el conocimiento 
6.10.4. MYCIN, historia de los Sistemas Expertos 
6.10.5. Elementos y Arquitectura de Sistemas Expertos 
6.10.6. Creación de Sistemas Expertos 

Módulo 7. Aprendizaje automático y minería de datos 

7.1. Introducción a los procesos de descubrimiento del conocimiento y conceptos básicos de aprendizaje automático 

7.1.1. Conceptos clave de los procesos de descubrimiento del conocimiento 
7.1.2. Perspectiva histórica de los procesos de descubrimiento del conocimiento 
7.1.3. Etapas de los procesos de descubrimiento del conocimiento 
7.1.4. Técnicas utilizadas en los procesos de descubrimiento del conocimiento 
7.1.5. Características de los buenos modelos de aprendizaje automático 
7.1.6. Tipos de información de aprendizaje automático 
7.1.7. Conceptos básicos de aprendizaje 
7.1.8. Conceptos básicos de aprendizaje no supervisado 

7.2. Exploración y preprocesamiento de datos 

7.2.1. Tratamiento de datos 
7.2.2. Tratamiento de datos en el flujo de análisis de datos 
7.2.3. Tipos de datos 
7.2.4. Transformaciones de datos 
7.2.5. Visualización y exploración de variables continuas 
7.2.6. Visualización y exploración de variables categóricas 
7.2.7. Medidas de correlación 
7.2.8. Representaciones gráficas más habituales 
7.2.9. Introducción al análisis multivariante y a la reducción de dimensiones 

7.3. Árboles de decisión 

7.3.1. Algoritmo ID 
7.3.2. Algoritmo C 
7.3.3. Sobreentrenamiento y poda 
7.3.4. Análisis de resultados 

7.4. Evaluación de clasificadores 

7.4.1. Matrices de confusión 
7.4.2. Matrices de evaluación numérica 
7.4.3. Estadístico de Kappa 
7.4.4. La curva ROC 

7.5. Reglas de clasificación 

7.5.1. Medidas de evaluación de reglas 
7.5.2. Introducción a la representación gráfica 
7.5.3. Algoritmo de recubrimiento secuencial 

7.6. Redes neuronales 

7.6.1. Conceptos básicos 
7.6.2. Redes de neuronas simples 
7.6.3. Algoritmo de Backpropagation 
7.6.4. Introducción a las redes neuronales recurrentes 

7.7. Métodos bayesianos 

7.7.1. Conceptos básicos de probabilidad 
7.7.2. Teorema de Bayes 
7.7.3. Naive Bayes 
7.7.4. Introducción a las redes bayesianas 

7.8. Modelos de regresión y de respuesta continua 

7.8.1. Regresión lineal simple 
7.8.2. Regresión lineal múltiple 
7.8.3. Regresión logística 
7.8.4. Árboles de regresión 
7.8.5. Introducción a las máquinas de soporte vectorial (SVM) 
7.8.6. Medidas de bondad de ajuste 

7.9. Clustering 

7.9.1. Conceptos básicos 
7.9.2. Clustering jerárquico 
7.9.3. Métodos probabilistas 
7.9.4. Algoritmo EM 
7.9.5. Método B-Cubed 
7.9.6. Métodos implícitos 

7.10. Minería de textos y procesamiento de lenguaje natural (NLP) 

7.10.1. Conceptos básicos 
7.10.2. Creación del corpus 
7.10.3. Análisis descriptivo 
7.10.4. Introducción al análisis de sentimientos 

Módulo 8. Las redes neuronales, base de Deep Learning 

8.1. Aprendizaje profundo 

8.1.1. Tipos de aprendizaje profundo 
8.1.2. Aplicaciones del aprendizaje profundo 
8.1.3. Ventajas y desventajas del aprendizaje profundo 

8.2. Operaciones 

8.2.1. Suma 
8.2.2. Producto 
8.2.3. Traslado 

8.3. Capas 

8.3.1. Capa de entrada 
8.3.2. Capa oculta 
8.3.3. Capa de salida 

8.4. Unión de capas y operaciones 

8.4.1. Diseño de arquitecturas 
8.4.2. Conexión entre capas 
8.4.3. Propagación hacia adelante 

8.5. Construcción de la primera red neuronal 

8.5.1. Diseño de la red 
8.5.2. Establecer los pesos 
8.5.3. Entrenamiento de la red 

8.6. Entrenador y optimizador 

8.6.1. Selección del optimizador 
8.6.2. Establecimiento de una función de pérdida 
8.6.3. Establecimiento de una métrica 

8.7. Aplicación de los Principios de las Redes Neuronales 

8.7.1. Funciones de activación 
8.7.2. Propagación hacia atrás 
8.7.3. Ajuste de los parámetros 

8.8. De las neuronas biológicas a las artificiales 

8.8.1. Funcionamiento de una neurona biológica 
8.8.2. Transferencia de conocimiento a las neuronas artificiales 
8.8.3. Establecer relaciones entre ambas 

8.9. Implementación de MLP (Perceptrón Multicapa) con Keras 

8.9.1. Definición de la estructura de la red 
8.9.2. Compilación del modelo 
8.9.3. Entrenamiento del modelo 

8.10. Hiperparámetros de Fine tuning de Redes Neuronales 

8.10.1. Selección de la función de activación 
8.10.2. Establecer el Learning rate 
8.10.3. Ajuste de los pesos 

Módulo 9. Entrenamiento de redes neuronales profundas 

9.1. Problemas de Gradientes 

9.1.1. Técnicas de optimización de gradiente 
9.1.2. Gradientes Estocásticos 
9.1.3. Técnicas de inicialización de pesos 

9.2. Reutilización de capas preentrenadas 

9.2.1. Entrenamiento de transferencia de aprendizaje 
9.2.2. Extracción de características 
9.2.3. Aprendizaje profundo 

9.3. Optimizadores 

9.3.1. Optimizadores de descenso de gradiente estocástico 
9.3.2. Optimizadores Adam y RMSprop 
9.3.3. Optimizadores de momento 

9.4. Programación de la tasa de aprendizaje 

9.4.1. Control de tasa de aprendizaje automático 
9.4.2. Ciclos de aprendizaje 
9.4.3. Términos de suavizado 

9.5. Sobreajuste 

9.5.1. Validación cruzada 
9.5.2. Regularización 
9.5.3. Métricas de evaluación 

9.6. Directrices prácticas 

9.6.1. Diseño de modelos 
9.6.2. Selección de métricas y parámetros de evaluación 
9.6.3. Pruebas de hipótesis 

9.7. Transfer Learning 

9.7.1. Entrenamiento de transferencia de aprendizaje 
9.7.2. Extracción de características 
9.7.3. Aprendizaje profundo 

9.8. Data Augmentation 

9.8.1. Transformaciones de imagen 
9.8.2. Generación de datos sintéticos 
9.8.3. Transformación de texto 

9.9. Aplicación Práctica de Transfer Learning 

9.9.1. Entrenamiento de transferencia de aprendizaje 
9.9.2. Extracción de características 
9.9.3. Aprendizaje profundo 

9.10. Regularización 

9.10.1. L y L 
9.10.2. Regularización por máxima entropía 
9.10.3. Dropout 

Módulo 10. Personalización de Modelos y entrenamiento con TensorFlow 

10.1. TensorFlow 

10.1.1. Uso de la biblioteca TensorFlow 
10.1.2. Entrenamiento de modelos con TensorFlow 
10.1.3. Operaciones con gráficos en TensorFlow 

10.2. TensorFlow y NumPy 

10.2.1. Entorno computacional NumPy para TensorFlow 
10.2.2. Utilización de los arrays NumPy con TensorFlow 
10.2.3. Operaciones NumPy para los gráficos de TensorFlow 

10.3. Personalización de modelos y algoritmos de entrenamiento 

10.3.1. Construcción de modelos personalizados con TensorFlow 
10.3.2. Gestión de parámetros de entrenamiento 
10.3.3. Utilización de técnicas de optimización para el entrenamiento 

10.4. Funciones y gráficos de TensorFlow 

10.4.1. Funciones con TensorFlow 
10.4.2. Utilización de gráficos para el entrenamiento de modelos 
10.4.3. Optimización de gráficos con operaciones de TensorFlow 

10.5. Carga y preprocesamiento de datos con TensorFlow 

10.5.1. Carga de conjuntos de datos con TensorFlow 
10.5.2. Preprocesamiento de datos con TensorFlow 
10.5.3. Utilización de herramientas de TensorFlow para la manipulación de datos 

10.6. La API tfdata 

10.6.1. Utilización de la API tfdata para el procesamiento de datos 
10.6.2. Construcción de flujos de datos con tfdata 
10.6.3. Uso de la API tfdata para el entrenamiento de modelos 

10.7. El formato TFRecord 

10.7.1. Utilización de la API TFRecord para la serialización de datos 
10.7.2. Carga de archivos TFRecord con TensorFlow 
10.7.3. Utilización de archivos TFRecord para el entrenamiento de modelos 

10.8. Capas de preprocesamiento de Keras 

10.8.1. Utilización de la API de preprocesamiento de Keras 
10.8.2. Construcción de pipelined de preprocesamiento con Keras 
10.8.3. Uso de la API de preprocesamiento de Keras para el entrenamiento de modelos 

10.9. El proyecto TensorFlow Datasets 

10.9.1. Utilización de TensorFlow Datasets para la carga de datos 
10.9.2. Preprocesamiento de datos con TensorFlow Datasets 
10.9.3. Uso de TensorFlow Datasets para el entrenamiento de modelos 

10.10. Construcción de una Aplicación de Deep Learning con TensorFlow 

10.10.1. Aplicación práctica 
10.10.2. Construcción de una aplicación de Deep Learning con TensorFlow 
10.10.3. Entrenamiento de un modelo con TensorFlow 
10.10.4. Utilización de la aplicación para la predicción de resultados 

Módulo 11. Deep Computer Vision con Redes Neuronales Convolucionales 

11.1. La Arquitectura Visual Cortex 

11.1.1. Funciones de la corteza visual 
11.1.2. Teorías de la visión computacional 
11.1.3. Modelos de procesamiento de imágenes 

11.2. Capas convolucionales 

11.2.1. Reutilización de pesos en la convolución 
11.2.2. Convolución D 
11.2.3. Funciones de activación 

11.3. Capas de agrupación e implementación de capas de agrupación con Keras 

11.3.1. Pooling y Striding 
11.3.2. Flattening 
11.3.3. Tipos de Pooling 

11.4. Arquitecturas CNN 

11.4.1. Arquitectura VGG 
11.4.2. Arquitectura AlexNet 
11.4.3. Arquitectura ResNet 

11.5. Implementación de una CNN ResNet usando Keras 

11.5.1. Inicialización de pesos 
11.5.2. Definición de la capa de entrada 
11.5.3. Definición de la salida 

11.6. Uso de modelos preentrenados de Keras 

11.6.1. Características de los modelos preentrenados 
11.6.2. Usos de los modelos preentrenados 
11.6.3. Ventajas de los modelos preentrenados 

11.7. Modelos preentrenados para el aprendizaje por transferencia 

11.7.1. El aprendizaje por transferencia 
11.7.2. Proceso de aprendizaje por transferencia 
11.7.3. Ventajas del aprendizaje por transferencia 

11.8. Clasificación y localización en Deep Computer Vision 

11.8.1. Clasificación de imágenes 
11.8.2. Localización de objetos en imágenes 
11.8.3. Detección de objetos 

11.9. Detección de objetos y seguimiento de objetos 

11.9.1. Métodos de detección de objetos 
11.9.2. Algoritmos de seguimiento de objetos 
11.9.3. Técnicas de rastreo y localización 

11.10. Segmentación semántica 

11.10.1. Aprendizaje profundo para segmentación semántica 
11.10.1. Detección de bordes 
11.10.1. Métodos de segmentación basados en reglas 

Módulo 12. Procesamiento del lenguaje natural (NLP) con Redes Naturales Recurrentes (RNN) y atención 

12.1. Generación de texto utilizando RNN 

12.1.1. Entrenamiento de una RNN para generación de texto 
12.1.2. Generación de lenguaje natural con RNN 
12.1.3. Aplicaciones de generación de texto con RNN 

12.2. Creación del conjunto de datos de entrenamiento 

12.2.1. Preparación de los datos para el entrenamiento de una RNN 
12.2.2. Almacenamiento del conjunto de datos de entrenamiento 
12.2.3. Limpieza y transformación de los datos 
12.2.4. Análisis de Sentimiento 

12.3. Clasificación de opiniones con RNN 

12.3.1. Detección de temas en los comentarios 
12.3.2. Análisis de sentimiento con algoritmos de aprendizaje profundo 

12.4. Red de codificador-decodificador para la traducción automática neuronal 

12.4.1. Entrenamiento de una RNN para la traducción automática 
12.4.2. Uso de una red encoder-decoder para la traducción automática 
12.4.3. Mejora de la precisión de la traducción automática con RNN 

12.5. Mecanismos de atención 

12.5.1. Aplicación de mecanismos de atención en RNN 
12.5.2. Uso de mecanismos de atención para mejorar la precisión de los modelos 
12.5.3. Ventajas de los mecanismos de atención en las redes neuronales 

12.6. Modelos Transformers 

12.6.1. Uso de los modelos Transformers para procesamiento de lenguaje natural 
12.6.2. Aplicación de los modelos Transformers para visión 
12.6.3. Ventajas de los modelos Transformers 

12.7. Transformers para visión 

12.7.1. Uso de los modelos Transformers para visión 
12.7.2. Preprocesamiento de los datos de imagen 
12.7.3. Entrenamiento de un modelo Transformers para visión 

12.8. Librería de Transformers de Hugging Face 

12.8.1. Uso de la librería de Transformers de Hugging Face 
12.8.2. Aplicación de la librería de Transformers de Hugging Face 
12.8.3. Ventajas de la librería de Transformers de Hugging Face 

12.9. Otras Librerías de Transformers. Comparativa 

12.9.1. Comparación entre las distintas librerías de Transformers 
12.9.2. Uso de las demás librerías de Transformers 
12.9.3. Ventajas de las demás librerías de Transformers 

12.10. Desarrollo de una Aplicación de NLP con RNN y Atención. Aplicación práctica 

12.10.1. Desarrollo de una aplicación de procesamiento de lenguaje natural con RNN y atención 
12.10.2. Uso de RNN, mecanismos de atención y modelos Transformers en la aplicación 
12.10.3. Evaluación de la aplicación práctica 

Módulo 13. Autoencoders, GANs y modelos de difusión 

13.1. Representaciones de datos eficientes 

13.1.1. Reducción de dimensionalidad 
13.1.2. Aprendizaje profundo 
13.1.3. Representaciones compactas 

13.2. Realización de PCA con un codificador automático lineal incompleto 

13.2.1. Proceso de entrenamiento 
13.2.2. Implementación en Python 
13.2.3. Utilización de datos de prueba 

13.3. Codificadores automáticos apilados 

13.3.1. Redes neuronales profundas 
13.3.2. Construcción de arquitecturas de codificación 
13.3.3. Uso de la regularización 

13.4. Autocodificadores convolucionales 

13.4.1. Diseño de modelos convolucionales 
13.4.2. Entrenamiento de modelos convolucionales 
13.4.3. Evaluación de los resultados 

13.5. Eliminación de ruido de codificadores automáticos 

13.5.1. Aplicación de filtros 
13.5.2. Diseño de modelos de codificación 
13.5.3. Uso de técnicas de regularización 

13.6. Codificadores automáticos dispersos 

13.6.1. Incrementar la eficiencia de la codificación 
13.6.2. Minimizando el número de parámetros 
13.6.3. Utilización de técnicas de regularización 

13.7. Codificadores automáticos variacionales 

13.7.1. Utilización de optimización variacional 
13.7.2. Aprendizaje profundo no supervisado 
13.7.3. Representaciones latentes profundas 

13.8. Generación de imágenes MNIST de moda 

13.8.1. Reconocimiento de patrones 
13.8.2. Generación de imágenes 
13.8.3. Entrenamiento de redes neuronales profundas 

13.9. Redes adversarias generativas y modelos de difusión 

13.9.1. Generación de contenido a partir de imágenes 
13.9.2. Modelado de distribuciones de datos 
13.9.3. Uso de redes adversarias 

13.10 Implementación de los Modelos 

13.10.1. Aplicación Práctica 
13.10.2. Implementación de los modelos 
13.10.3. Uso de datos reales 
13.10.4. Evaluación de los resultados 

Módulo 14. Computación bioinspirada  

14.1. Introducción a la computación bioinspirada 

14.1.1. Introducción a la computación bioinspirada 

14.2. Algoritmos de adaptación social 

14.2.1. Computación bioinspirada basada en colonia de hormigas 
14.2.2. Variantes de los algoritmos de colonias de hormigas 
14.2.3. Computación basada en nubes de partículas 

14.3. Algoritmos genéticos 

14.3.1. Estructura general 
14.3.2. Implementaciones de los principales operadores 

14.4. Estrategias de exploración-explotación del espacio para algoritmos genéticos 

14.4.1. Algoritmo CHC 
14.4.2. Problemas multimodales 

14.5. Modelos de computación evolutiva (I) 

14.5.1. Estrategias evolutivas 
14.5.2. Programación evolutiva 
14.5.3. Algoritmos basados en evolución diferencial 

14.6. Modelos de computación evolutiva (II) 

14.6.1. Modelos de evolución basados en estimación de distribuciones (EDA) 
14.6.2. Programación genética 

14.7. Programación evolutiva aplicada a problemas de aprendizaje 

14.7.1. Aprendizaje basado en reglas 
14.7.2. Métodos evolutivos en problemas de selección de instancias 

14.8. Problemas multiobjetivo 

14.8.1. Concepto de dominancia 
14.8.2. Aplicación de algoritmos evolutivos a problemas multiobjetivo 

14.9. Redes neuronales (I) 

14.9.1. Introducción a las redes neuronales 
14.9.2. Ejemplo práctico con redes neuronales 

14.10. Redes neuronales (II) 

14.10.1. Casos de uso de las redes neuronales en la investigación médica 
14.10.2. Casos de uso de las redes neuronales en la economía 
14.10.3. Casos de uso de las redes neuronales en la visión artificial 

Módulo 15. Inteligencia Artificial: Estrategias y aplicaciones  

15.1. Servicios financieros 

15.1.1. Las implicaciones de la Inteligencia Artificial (IA) en los servicios financieros.  Oportunidades y desafíos  
15.1.2. Casos de uso  
15.1.3. Riesgos potenciales relacionados con el uso de IA 
15.1.4. Potenciales desarrollos/usos futuros de la IA 

15.2. Implicaciones de la Inteligencia Artificial en el servicio sanitario  

15.2.1. Implicaciones de la IA en el sector sanitario. Oportunidades y desafíos  
15.2.2. Casos de uso 

15.3. Riesgos Relacionados con el uso de la IA en el servicio sanitario 

15.3.1. Riesgos potenciales relacionados con el uso de IA 
15.3.2. Potenciales desarrollos/usos futuros de la IA  

15.4. Retail  

15.4.1. Implicaciones de la IA en Retail. Oportunidades y desafíos  
15.4.2. Casos de uso  
15.4.3. Riesgos potenciales relacionados con el uso de IA  
15.4.4. Potenciales desarrollos/usos futuros de la IA 

15.5. Industria   

15.5.1. Implicaciones de la IA en la Industria. Oportunidades y desafíos 
15.5.2. Casos de uso 

15.6. Riesgos potenciales relacionados con el uso de IA en la Industria   

15.6.1. Casos de uso 
15.6.2. Riesgos potenciales relacionados con el uso de IA 
15.6.3. Potenciales desarrollos/usos futuros de la IA  

15.7. Administración Pública  

15.7.1. Implicaciones de la IA en la Administración Pública. Oportunidades y desafíos 
15.7.2. Casos de uso  
15.7.3. Riesgos potenciales relacionados con el uso de IA  
15.7.4. Potenciales desarrollos/usos futuros de la IA  

15.8. Educación  

15.8.1. Implicaciones de la IA en la educación. Oportunidades y desafíos 
15.8.2. Casos de uso  
15.8.3. Riesgos potenciales relacionados con el uso de IA  
15.8.4. Potenciales desarrollos/usos futuros de la IA 

15.9. Silvicultura y agricultura  

15.9.1. Implicaciones de la IA en la silvicultura y la agricultura. Oportunidades y desafíos  
15.9.2. Casos de uso 
15.9.3. Riesgos potenciales relacionados con el uso de IA 
15.9.4. Potenciales desarrollos/usos futuros de la IA  

15.10. Recursos Humanos  

15.10.1. Implicaciones de la IA en los Recursos Humanos. Oportunidades y desafíos 
15.10.2. Casos de uso  
15.10.3. Riesgos potenciales relacionados con el uso de IA  
15.10.4. Potenciales desarrollos/usos futuros de la IA 

Módulo 16. Métodos y Herramientas de IA para la Investigación Clínica 

16.1. Tecnologías y herramientas de IA en la investigación clínica 

16.1.1. Uso de aprendizaje automático para identificar patrones en datos clínicos 
16.1.2. Desarrollo de algoritmos predictivos para ensayos clínicos 
16.1.3. Implementación de sistemas de IA para la mejora en el reclutamiento de pacientes 
16.1.4. Herramientas de IA para el análisis en tiempo real de datos de investigación con Tableau

16.2. Métodos estadísticos y algoritmos en estudios clínicos 

16.2.1. Aplicación de técnicas estadísticas avanzadas para el análisis de datos clínicos 
16.2.2. Uso de algoritmos para la validación y verificación de resultados de ensayos 
16.2.3. Implementación de modelos de regresión y clasificación en estudios clínicos 
16.2.4. Análisis de grandes conjuntos de datos mediante métodos estadísticos computacionales 

16.3. Diseño de experimentos y análisis de resultados 

16.3.1. Estrategias para el diseño eficiente de ensayos clínicos utilizando IA con IBM Watson Health
16.3.2. Técnicas de IA para el análisis y la interpretación de datos experimentales 
16.3.3. Optimización de protocolos de investigación mediante simulaciones de IA 
16.3.4. Evaluación de la eficacia y seguridad de tratamientos utilizando modelos de IA 

16.4. Interpretación de imágenes médicas mediante IA en investigación mediante Aidoc

16.4.1. Desarrollo de sistemas de IA para la detección automática de patologías en imágenes 
16.4.2. Uso de aprendizaje profundo para la clasificación y segmentación en imágenes médicas 
16.4.3. Herramientas de IA para mejorar la precisión en diagnósticos por imagen 
16.4.4. Análisis de imágenes radiológicas y de resonancia magnética mediante IA 

16.5. Análisis de datos clínicos y biomédicos 

16.5.1. IA en el procesamiento y análisis de datos genómicos y proteómicos DeepGenomics
16.5.2. Herramientas para el análisis integrado de datos clínicos y biomédicos 
16.5.3. Uso de IA para identificar biomarcadores en investigación clínica 
16.5.4. Análisis predictivo de resultados clínicos basado en datos biomédicos 

16.6. Visualización avanzada de datos en Investigación Clínica 

16.6.1. Desarrollo de herramientas de visualización interactiva para datos clínicos 
16.6.2. Uso de IA en la creación de representaciones gráficas de datos complejos Microsoft Power BI
16.6.3. Técnicas de visualización para la interpretación fácil de resultados de investigación 
16.6.4. Herramientas de realidad aumentada y virtual para la visualización de datos biomédicos 

16.7. Procesamiento de lenguaje natural en documentación científica y clínica 

16.7.1. Aplicación de PNL para el análisis de literatura científica y registros clínicos con Linguamatics
16.7.2. Herramientas de IA para la extracción de información relevante de textos médicos 
16.7.3. Sistemas de IA para resumir y categorizar publicaciones científicas 
16.7.4. Uso de PNL en la identificación de tendencias y patrones en documentación clínica 

16.8. Procesamiento de datos heterogéneos en Investigación Clínica con Google Cloud Healthcare API e IBM Watson Health

16.8.1. Técnicas de IA para integrar y analizar datos de diversas fuentes clínicas 
16.8.2. Herramientas para el manejo de datos clínicos no estructurados 
16.8.3. Sistemas de IA para la correlación de datos clínicos y demográficos 
16.8.4. Análisis de datos multidimensionales para obtener insights clínicos 

16.9. Aplicaciones de redes neuronales en investigaciones biomédicas 

16.9.1. Uso de redes neuronales para el modelado de enfermedades y predicción de tratamientos 
16.9.2. Implementación de redes neuronales en la clasificación de enfermedades genéticas 
16.9.3. Desarrollo de sistemas de diagnóstico basados en redes neuronales 
16.9.4. Aplicación de redes neuronales en la personalización de tratamientos médicos 

16.10. Modelado predictivo y su impacto en la investigación clínica 

16.10.1. Desarrollo de modelos predictivos para la anticipación de resultados clínicos 
16.10.2. Uso de IA en la predicción de efectos secundarios y reacciones adversas 
16.10.3. Implementación de modelos predictivos en la optimización de ensayos clínicos 
16.10.4. Análisis de riesgos en tratamientos médicos utilizando modelado predictivo 

Módulo 17. Investigación Biomédica con IA 

17.1. Diseño y ejecución de estudios observacionales con IA 

17.1.1. Implementación de IA para la selección y segmentación de poblaciones en estudios 
17.1.2. Uso de algoritmos para la monitorización en tiempo real de datos de estudios observacionales 
17.1.3. Herramientas de IA para la identificación de patrones y correlaciones en estudios observacionales con Flatiron Health
17.1.4. Automatización del proceso de recopilación y análisis de datos en estudios observacionales 

17.2. Validación y calibración de modelos en investigación clínica 

17.2.1. Técnicas de IA para asegurar la precisión y fiabilidad de modelos clínicos 
17.2.2. Uso de IA en la calibración de modelos predictivos en investigación clínica 
17.2.3. Métodos de validación cruzada aplicados a modelos clínicos mediante IA con KNIME Analytics Platform
17.2.4. Herramientas de IA para la evaluación de la generalización de modelos clínicos 

17.3. Métodos de integración de datos heterogéneos en investigación clínica 

17.3.1. Técnicas de IA para combinar datos clínicos, genómicos y ambientales con DeepGenomics
17.3.2. Uso de algoritmos para manejar y analizar datos clínicos no estructurados 
17.3.3. Herramientas de IA para la normalización y estandarización de datos clínicos con Informatica's Healthcare Data Management
17.3.4. Sistemas de IA para la correlación de diferentes tipos de datos en investigación 

17.4. Integración de datos biomédicos multidisciplinarios mediante Flatiron Health's OncologyCloud y AutoML

17.4.1. Sistemas de IA para combinar datos de diferentes disciplinas biomédicas 
17.4.2. Algoritmos para el análisis integrado de datos clínicos y de laboratorio 
17.4.3. Herramientas de IA para la visualización de datos biomédicos complejos 
17.4.4. Uso de IA en la creación de modelos holísticos de salud a partir de datos multidisciplinarios 

17.5. Algoritmos de aprendizaje profundo en análisis de datos biomédicos 

17.5.1. Implementación de redes neuronales en el análisis de datos genéticos y proteómicos 
17.5.2. Uso de aprendizaje profundo para la identificación de patrones en datos biomédicos 
17.5.3. Desarrollo de modelos predictivos en medicina de precisión con aprendizaje profundo 
17.5.4. Aplicación de IA en el análisis avanzado de imágenes biomédicas mediante Aidoc

17.6. Optimización de procesos de investigación con automatización 

17.6.1. Automatización de rutinas de laboratorio mediante sistemas de IA con Beckman Coulter
17.6.2. Uso de IA para la gestión eficiente de recursos y tiempo en investigación 
17.6.3. Herramientas de IA para la optimización de flujos de trabajo en investigación clínica 
17.6.4. Sistemas automatizados para el seguimiento y reporte de avances en investigación 

17.7. Simulación y modelado computacional en medicina con IA 

17.7.1. Desarrollo de modelos computacionales para simular escenarios clínicos 
17.7.2. Uso de IA para la simulación de interacciones moleculares y celulares con Schrödinger 
17.7.3. Herramientas de IA en la creación de modelos predictivos de enfermedades con GNS Healthcare
17.7.4. Aplicación de IA en la simulación de efectos de fármacos y tratamientos 

17.8. Uso de la realidad virtual y aumentada en estudios clínicos con Surgical Theater

17.8.1. Implementación de realidad virtual para la formación y simulación en medicina 
17.8.2. Uso de realidad aumentada en procedimientos quirúrgicos y diagnósticos 
17.8.3. Herramientas de realidad virtual para estudios de comportamiento y psicología 
17.8.4. Aplicación de tecnologías inmersivas en la rehabilitación y terapia 

17.9. Herramientas de minería de datos aplicadas a la investigación biomédica 

17.9.1. Uso de técnicas de minería de datos para extraer conocimientos de bases de datos biomédicas 
17.9.2. Implementación de algoritmos de IA para descubrir patrones en datos clínicos 
17.9.3. Herramientas de IA para la identificación de tendencias en grandes conjuntos de datos con Tableau
17.9.4. Aplicación de minería de datos en la generación de hipótesis de investigación  

17.10. Desarrollo y validación de biomarcadores con inteligencia artificial 

17.10.1. Uso de IA para la identificación y caracterización de nuevos biomarcadores 
17.10.2. Implementación de modelos de IA para la validación de biomarcadores en estudios clínicos 
17.10.3. Herramientas de IA en la correlación de biomarcadores con resultados clínicos con Oncimmune
17.10.4. Aplicación de IA en el análisis de biomarcadores para la medicina personalizada 

Módulo 18. Aplicación Práctica de IA en Investigación Clínica 

18.1. Tecnologías de secuenciación genómica y análisis de datos con IA con DeepGenomics

18.1.1. Uso de IA para el análisis rápido y preciso de secuencias genéticas 
18.1.2. Implementación de algoritmos de aprendizaje automático en la interpretación de datos genómicos 
18.1.3. Herramientas de IA para identificar variantes genéticas y mutaciones 
18.1.4. Aplicación de IA en la correlación genómica con enfermedades y rasgos 

18.2. IA en el análisis de imágenes biomédicas con Aidoc

18.2.1. Desarrollo de sistemas de IA para la detección de anomalías en imágenes médicas 
18.2.2. Uso de aprendizaje profundo en la interpretación de radiografías, resonancias y tomografías 
18.2.3. Herramientas de IA para mejorar la precisión en el diagnóstico por imágenes 
18.2.4. Implementación de IA en la clasificación y segmentación de imágenes biomédicas 

18.3. Robótica y automatización en laboratorios clínicos 

18.3.1. Uso de robots para la automatización de pruebas y procesos en laboratorios 
18.3.2. Implementación de sistemas automáticos para la gestión de muestras biológicas 
18.3.3. Desarrollo de tecnologías robóticas para mejorar la eficiencia y precisión en análisis clínicos 
18.3.4. Aplicación de IA en la optimización de flujos de trabajo en laboratorios con Optum

18.4. IA en la personalización de terapias y medicina de precisión 

18.4.1. Desarrollo de modelos de IA para la personalización de tratamientos médicos 
18.4.2. Uso de algoritmos predictivos en la selección de terapias basadas en perfiles genéticos 
18.4.3. Herramientas de IA en la adaptación de dosis y combinaciones de medicamentos con PharmGKB
18.4.4. Aplicación de IA en la identificación de tratamientos efectivos para grupos específicos  

18.5. Innovaciones en diagnóstico asistido por IA mediante ChatGPT y Amazon Comprehend Medical

18.5.1. Implementación de sistemas de IA para diagnósticos rápidos y precisos 
18.5.2. Uso de IA en la identificación temprana de enfermedades a través de análisis de datos 
18.5.3. Desarrollo de herramientas de IA para la interpretación de pruebas clínicas 
18.5.4. Aplicación de IA en la combinación de datos clínicos y biomédicos para diagnósticos integrales 

18.6. Aplicaciones de IA en microbioma y estudios de microbiología con Metabiomics

18.6.1. Uso de IA en el análisis y mapeo del microbioma humano 
18.6.2. Implementación de algoritmos para estudiar la relación entre microbioma y enfermedades 
18.6.3. Herramientas de IA en la identificación de patrones en estudios microbiológicos 
18.6.4. Aplicación de IA en la investigación de terapias basadas en microbioma 

18.7. Wearables y monitoreo remoto en estudios clínicos 

18.7.1. Desarrollo de dispositivos wearables con IA para el monitoreo continuo de salud con FitBit
18.7.2. Uso de IA en la interpretación de datos recopilados por wearables 
18.7.3. Implementación de sistemas de monitoreo remoto en ensayos clínicos 
18.7.4. Aplicación de IA en la predicción de eventos clínicos a través de datos de wearables 

18.8. IA en la gestión de ensayos clínicos con Oracle Health Sciences

18.8.1. Uso de sistemas de IA para la optimización de la gestión de ensayos clínicos 
18.8.2. Implementación de IA en la selección y seguimiento de participantes 
18.8.3. Herramientas de IA para el análisis de datos y resultados de ensayos clínicos 
18.8.4. Aplicación de IA en la mejora de la eficiencia y reducción de costos en ensayos 

18.9. Desarrollo de vacunas y tratamientos asistidos por IA con Benevolent AI

18.9.1. Uso de IA en la aceleración del desarrollo de vacunas 
18.9.2. Implementación de modelos predictivos en la identificación de potenciales tratamientos 
18.9.3. Herramientas de IA para simular respuestas a vacunas y medicamentos 
18.9.4. Aplicación de IA en la personalización de vacunas y terapias 

18.10. Aplicaciones de IA en inmunología y estudios de respuesta inmune 

18.10.1. Desarrollo de modelos de IA para entender mecanismos inmunológicos con Immuneering
18.10.2. Uso de IA en la identificación de patrones en respuestas inmunes 
18.10.3. Implementación de IA en la investigación de trastornos autoinmunes 
18.10.4. Aplicación de IA en el diseño de inmunoterapias personalizadas 

Módulo 19. Análisis de Big Data y aprendizaje automático en Investigación Clínica 

19.1. Big Data en Investigación Clínica: Conceptos y Herramientas 

19.1.1. La explosión del dato en el ámbito de la Investigación Clínica 
19.1.2. Concepto de Big Data y principales herramientas 
19.1.3. Aplicaciones de Big Data en Investigación Clínica 

19.2. Minería de datos en registros clínicos y biomédicos con KNIME y Python 

19.2.1. Principales metodologías para la minería de datos 
19.2.2. Integración de datos de registros clínicos y biomédicos 
19.2.3. Detección de patrones y anomalías en los registros clínicos y biomédicos 

19.3. Algoritmos de aprendizaje automático en investigación biomédica con KNIME y Python

19.3.1. Técnicas de clasificación en investigación biomédica 
19.3.2. Técnicas de regresión en investigación biomédica 
19.3.4. Técnicas no supervisadas en investigación biomédica 

19.4. Técnicas de análisis predictivo en investigación clínica con KNIME y Python

19.4.1. Técnicas de clasificación en investigación clínica 
19.4.2. Técnicas de regresión en investigación clínica 
19.4.3. Deep Learning en investigación clínica 

19.5. Modelos de IA en epidemiología y salud pública con KNIME y Python 

19.5.1. Técnicas de clasificación para epidemiología y salud pública 
19.5.2. Técnicas de regresión para epidemiología y salud pública 
19.5.3. Técnicas no supervisadas para epidemiología y salud pública 

19.6. Análisis de redes biológicas y patrones de enfermedad con KNIME y Python

19.6.1. Exploración de interacciones en redes biológicas para la identificación de patrones de enfermedad 
19.6.2. Integración de datos omics en el análisis de redes para caracterizar complejidades biológicas 
19.6.3. Aplicación de algoritmos de machine learning para el descubrimiento de patrones de enfermedad 

19.7. Desarrollo de herramientas para pronóstico clínico con plataformas tipo workflow y Python

19.7.1. Creación de herramientas innovadoras para el pronóstico clínico basadas en datos multidimensionales 
19.7.2. Integración de variables clínicas y moleculares en el desarrollo de herramientas de pronóstico 
19.7.3. Evaluación de la efectividad de las herramientas de pronóstico en diversos contextos clínicos 

19.8. Visualización avanzada y comunicación de datos complejos con herramientas tipo PowerBI y Python

19.8.1. Utilización de técnicas de visualización avanzada para representar datos biomédicos complejos 
19.8.2. Desarrollo de estrategias de comunicación efectiva para presentar resultados de análisis complejos 
19.8.3. Implementación de herramientas de interactividad en visualizaciones para mejorar la comprensión 

19.9. Seguridad de datos y desafíos en la gestión de Big Data 

19.9.1. Abordaje de desafíos en la seguridad de datos en el contexto de Big Data biomédico 
19.9.1. Estrategias para la protección de la privacidad en la gestión de grandes conjuntos de datos biomédicos 
19.9.3. Implementación de medidas de seguridad para mitigar riesgos en el manejo de datos sensibles 

19.10. Aplicaciones prácticas y casos de estudio en Big Data biomédico 

19.10.1. Exploración de casos de éxito en la implementación de Big Data biomédico en investigación clínica 
19.10.2. Desarrollo de estrategias prácticas para la aplicación de Big Data en la toma de decisiones clínicas 
19.10.3. Evaluación de impacto y lecciones aprendidas a través de casos de estudio en el ámbito biomédico 

Módulo 20. Aspectos éticos, legales y futuro de la IA en Investigación Clínica 

20.1. Ética en la aplicación de IA en Investigación Clínica 

20.1.1. Análisis ético de la toma de decisiones asistida por IA en entornos de investigación clínica 
20.1.2. Ética en la utilización de algoritmos de IA para la selección de participantes en estudios clínicos 
20.1.3. Consideraciones éticas en la interpretación de resultados generados por sistemas de IA en investigación clínica 

20.2. Consideraciones legales y regulatorias en IA biomédica 

20.2.1. Análisis de la normativa legal en el desarrollo y aplicación de tecnologías de IA en el ámbito biomédico 
20.2.2. Evaluación de la conformidad con regulaciones específicas para garantizar la seguridad y eficacia de las soluciones basadas en IA 
20.2.3. Abordaje de desafíos regulatorios emergentes asociados con el uso de IA en investigación biomédica 

20.3. Consentimiento informado y aspectos éticos en el uso de datos clínicos

20.3.1. Desarrollo de estrategias para garantizar un consentimiento informado efectivo en proyectos que involucran IA 
20.3.2. Ética en la recopilación y uso de datos clínicos sensibles en el contexto de investigaciones impulsadas por IA 
20.3.3. Abordaje de cuestiones éticas relacionadas con la propiedad y el acceso a datos clínicos en proyectos de investigación 

20.4. IA y responsabilidad en la Investigación Clínica 

20.4.1. Evaluación de la responsabilidad ética y legal en la implementación de sistemas de IA en protocolos de investigación clínica 
20.4.2. Desarrollo de estrategias para abordar posibles consecuencias adversas de la aplicación de IA en el ámbito de la investigación biomédica 
20.4.3. Consideraciones éticas en la participación activa de la IA en la toma de decisiones en investigación clínica 

20.5. Impacto de la IA en la equidad y acceso a la atención de salud 

20.5.1. Evaluación del impacto de soluciones de IA en la equidad en la participación en ensayos clínicos 
20.5.2. Desarrollo de estrategias para mejorar el acceso a tecnologías de IA en entornos clínicos diversos 
20.5.3. Ética en la distribución de beneficios y riesgos asociados con la aplicación de IA en el cuidado de la salud 

20.6. Privacidad y protección de datos en proyectos de investigación 

20.6.1. Garantía de la privacidad de los participantes en proyectos de investigación que involucran el uso de IA 
20.6.2. Desarrollo de políticas y prácticas para la protección de datos en investigaciones biomédicas 
20.6.3. Abordaje de desafíos específicos de privacidad y seguridad en el manejo de datos sensibles en el ámbito clínico 

20.7. IA y sostenibilidad en investigaciones biomédicas 

20.7.1. Evaluación del impacto ambiental y recursos asociados con la implementación de IA en investigaciones biomédicas 
20.7.2. Desarrollo de prácticas sostenibles en la integración de tecnologías de IA en proyectos de investigación clínica 
20.7.3. Ética en la gestión de recursos y sostenibilidad en la adopción de IA en investigaciones biomédicas 

20.8. Auditoría y explicabilidad de modelos de IA en el ámbito clínico

20.8.1. Desarrollo de protocolos de auditoría para evaluar la confiabilidad y precisión de modelos de IA en investigación clínica 
20.8.2. Ética en la explicabilidad de algoritmos para garantizar la comprensión de decisiones tomadas por sistemas de IA en contextos clínicos 
20.8.3. Abordaje de desafíos éticos en la interpretación de resultados de modelos de IA en investigaciones biomédicas 

20.9. Innovación y emprendimiento en el ámbito de la IA clínica 

20.9.1. Ética en la innovación responsable al desarrollar soluciones de IA para aplicaciones clínicas 
20.9.2. Desarrollo de estrategias empresariales éticas en el ámbito de la IA clínica 
20.9.3. Consideraciones éticas en la comercialización y adopción de soluciones de IA en el sector clínico 

20.10. Consideraciones éticas en la colaboración internacional en investigación clínica 

20.10.1. Desarrollo de acuerdos éticos y legales para la colaboración internacional en proyectos de investigación impulsados por IA 
20.10.2. Ética en la participación de múltiples instituciones y países en la investigación clínica con tecnologías de IA 
20.10.3. Abordaje de desafíos éticos emergentes asociados con la colaboración global en investigaciones biomédicas

##IMAGE##

Accede a la biblioteca de recursos multimedia y a todo el temario desde el primer día. ¡Sin horarios fijos ni presencialidad!” 

Máster en Inteligencia Artificial en Investigación Clínica

Sumérgete en la intersección de la ciencia y la tecnología con el Máster en Inteligencia Artificial en Investigación Clínica creado por TECH Universidad Tecnológica. Este programa avanzado, impartido en modalidad online, está diseñado para profesionales de la salud y científicos que buscan dominar las innovadoras aplicaciones de la inteligencia artificial (IA) en la investigación clínica, abriendo nuevas fronteras en la búsqueda de soluciones médicas. Aquí, descubrirás cómo la IA optimiza el diseño de estudios clínicos. Aprenderás a utilizar algoritmos avanzados para analizar datos previos, identificar patrones y mejorar la planificación de investigaciones, acelerando el desarrollo de nuevos tratamientos. Además, explorarás cómo la IA transforma el análisis de datos clínicos. Desde la interpretación de imágenes médicas, hasta la evaluación de resultados, aprenderás a emplear herramientas de aprendizaje automático para obtener información precisa y relevante en entornos clínicos.

Titúlate en la mayor Facultad de Inteligencia Artificial online

Solo en TECH encontrarás los métodos más actualizados del sector, complementados con material multimedia y clases dinámicas totalmente novedosas. Prepárate para liderar la revolución en la investigación clínica con nuestro Máster. Adquiere habilidades de vanguardia y contribuye a acelerar el avance de la medicina con la potencia de la inteligencia artificial. Al avanzar en el programa, aprenderás a personalizar tratamientos con la IA. Descubrirás cómo los algoritmos pueden analizar datos individuales de pacientes para adaptar terapias, mejorando la eficacia de los tratamientos y reduciendo los efectos secundarios. Además, te sumergirás en la integración de tecnologías biomédicas con la IA. Explorarás cómo dispositivos médicos conectados y sensores de salud alimentan datos en tiempo real, mejorando la precisión y la eficiencia de los estudios clínicos. Si quieres conocer más, toma la decisión e inscríbete ya. ¡Inicia tu trayectoria hacia la excelencia en investigación clínica hoy mismo!