Präsentation

Dieser 100%ige Online-Masterstudiengang ermöglicht es Ihnen, Entwurfs- und Bauprozesse mit Hilfe von Werkzeugen wie generativer Modellierung, prädiktiver Simulation und Energieeffizienz auf der Grundlage von KI zu optimieren“

##IMAGE##

Künstliche Intelligenz (KI) verändert die Architektur rapide und bietet neue Werkzeuge, um Gebäude effizienter und nachhaltiger zu entwerfen, zu planen und zu bauen. Der Einsatz von KI in der Architektur hat sich ausgeweitet und ermöglicht es Architekten, ihre Entwürfe durch fortschrittliche Simulationen zu optimieren, die Variablen wie natürliches Licht, Belüftung und Energieverbrauch berücksichtigen.

So entstand dieser private Masterstudiengang, der Architekten in der Nutzung fortschrittlicher Technologien zur Revolutionierung des Entwurfs- und Bauprozesses fortbilden soll. In diesem Sinne wird er analysieren, wie künstliche Intelligenz die traditionelle Architekturpraxis optimieren und verändern kann. Durch den Einsatz von Werkzeugen wie AutoCAD und Fusion 360 sowie eine Einführung in die generative Modellierung und das parametrische Design werden die Fachleute in die Lage versetzt, diese Innovationen in ihre Projekte zu integrieren.

Sie werden sich auch mit dem Einsatz von KI zur Raumoptimierung und Energieeffizienz befassen, Schlüsselelemente der modernen Architektur. Mit Hilfe von Tools wie Autodesk Revit und Google DeepMind wird es möglich sein, durch Datenanalyse und fortschrittliche Energiesimulationen nachhaltigere Umgebungen zu entwerfen. Ergänzt wird dieser Ansatz durch die Einführung einer intelligenten Stadtplanung, die den Anforderungen an nachhaltiges Design in immer komplexeren und urbanen Umgebungen gerecht wird.

Schließlich werden die Experten modernste Technologien wie Grasshopper, MATLAB und Laserscanning-Tools vorstellen, um innovative und nachhaltige Projekte zu entwickeln. Darüber hinaus werden sie durch Simulation und vorausschauende Modellierung in der Lage sein, strukturelle und ökologische Probleme zu antizipieren und zu lösen, bevor sie auftreten.

Auf diese Weise hat TECH ein detailliertes, vollständig online verfügbares Hochschulprogramm geschaffen, das es den Studenten ermöglicht, über jedes elektronische Gerät mit Internetanschluss auf die Lehrmaterialien zuzugreifen. Damit entfällt die Notwendigkeit, an einen physischen Ort zu reisen und sich an einen bestimmten Zeitplan anzupassen. Darüber hinaus ist die revolutionäre Relearning-Methode integriert, die auf der Wiederholung wesentlicher Konzepte basiert, um das Verständnis der Inhalte zu verbessern.

Sie werden sich an der Spitze der Branche positionieren und innovative und nachhaltige Projekte leiten, die die neuesten Technologien integrieren, was Ihre Wettbewerbsfähigkeit und Ihre Chancen auf dem globalen Arbeitsmarkt erhöhen wird“

Dieser Privater Masterstudiengang in Künstliche Intelligenz in der Architektur enthält das vollständigste und aktuellste Programm auf dem Markt. Die hervorstechendsten Merkmale sind:

  • Die Entwicklung von Fallstudien, die von Experten in künstlicher Intelligenz präsentiert werden
  • Der anschauliche, schematische und äußerst praxisnahe Inhalt vermittelt alle für die berufliche Praxis unverzichtbaren Informationen
  • Die praktischen Übungen, bei denen der Selbstbewertungsprozess zur Verbesserung des Lernens durchgeführt werden kann
  • Sein besonderer Schwerpunkt liegt auf innovativen Methoden
  • Theoretische Lektionen, Fragen an den Experten, Diskussionsforen zu kontroversen Themen und individuelle Reflexionsarbeit
  • Die Verfügbarkeit des Zugangs zu Inhalten von jedem festen oder tragbaren Gerät mit Internetanschluss

Sie werden die Bedeutung der Erhaltung des kulturellen Erbes erforschen, indem Sie künstliche Intelligenz zur Erhaltung und Wiederbelebung historischer Strukturen einsetzen, dank einer umfangreichen Bibliothek mit Multimedia-Ressourcen“

Das Dozententeam des Programms besteht aus Fachleuten des Sektors, die ihre Berufserfahrung in diese Fortbildung einbringen, sowie aus renommierten Fachleuten von führenden Unternehmen und angesehenen Universitäten.

Die multimedialen Inhalte, die mit der neuesten Bildungstechnologie entwickelt wurden, werden der Fachkraft ein situiertes und kontextbezogenes Lernen ermöglichen, d. h. eine simulierte Umgebung, die eine immersive Fortbildung bietet, die auf die Ausführung von realen Situationen ausgerichtet ist.

Das Konzept dieses Programms konzentriert sich auf problemorientiertes Lernen, bei dem die Fachkraft versuchen muss, die verschiedenen Situationen aus der beruflichen Praxis zu lösen, die während des gesamten Studiengangs gestellt werden. Zu diesem Zweck wird sie von einem innovativen interaktiven Videosystem unterstützt, das von renommierten Experten entwickelt wurde.

Sie werden an der laut Forbes besten digitalen Universität der Welt Plattformen wie Autodesk Revit, SketchUp und Google DeepMind beherrschen und Fähigkeiten entwickeln, um nachhaltigere und effizientere Umgebungen zu entwerfen"

##IMAGE##

Sie werden mit Werkzeugen wie Grasshopper und Autodesk Fusion 360 arbeiten, um anpassungsfähige und nachhaltige Entwürfe zu erstellen, und Sie werden die Integration von Robotik in die Konstruktion und die Individualisierung in der digitalen Fertigung erforschen"

Lehrplan

Das Programm deckt alles ab, von den Grundlagen der künstlichen Intelligenz und des Machine Learnings bis hin zu fortgeschrittenen prädiktiven Modellierungs- und Big-Data-Analysetechniken, die auf die Architekturplanung angewendet werden. So beherrschen die Ingenieure Simulations- und Automatisierungswerkzeuge zur Optimierung von Bauprozessen und zur Verbesserung der Energieeffizienz und Nachhaltigkeit. Darüber hinaus werden Module zum Einsatz von Algorithmen für intelligentes Projektmanagement, zur Schaffung virtueller Umgebungen und zur Entwicklung adaptiver und innovativer architektonischer Lösungen angeboten.

##IMAGE##

Der Privater Masterstudiengang in Künstliche Intelligenz in der Architektur bietet umfassende und spezialisierte Inhalte für Ingenieure, die an der Anwendung von Spitzentechnologien im Bereich der Architektur interessiert sind“

Modul 1. Grundlagen der künstlichen Intelligenz

1.1. Geschichte der künstlichen Intelligenz

1.1.1. Ab wann spricht man von künstlicher Intelligenz?
1.1.2. Referenzen im Kino
1.1.3. Bedeutung der künstlichen Intelligenz
1.1.4. Technologien, die künstliche Intelligenz ermöglichen und unterstützen

1.2. Künstliche Intelligenz in Spielen

1.2.1. Spieltheorie
1.2.2. Minimax und Alpha-Beta-Beschneidung
1.2.3. Simulation: Monte Carlo

1.3. Neuronale Netzwerke

1.3.1. Biologische Grundlagen
1.3.2. Berechnungsmodell
1.3.3. Überwachte und nicht überwachte neuronale Netzwerke
1.3.4. Einfaches Perzeptron
1.3.5. Mehrschichtiges Perzeptron

1.4. Genetische Algorithmen

1.4.1. Geschichte
1.4.2. Biologische Grundlage
1.4.3. Problem-Kodierung
1.4.4. Erzeugung der Ausgangspopulation
1.4.5. Hauptalgorithmus und genetische Operatoren
1.4.6. Bewertung von Personen: Fitness

1.5. Thesauri, Vokabularien, Taxonomien

1.5.1. Wortschatz
1.5.2. Taxonomie
1.5.3. Thesauri
1.5.4. Ontologien
1.5.5. Wissensrepräsentation: Semantisches Web

1.6. Semantisches Web

1.6.1. Spezifizierungen: RDF, RDFS und OWL
1.6.2. Schlussfolgerung/Begründung
1.6.3. Linked Data

1.7. Expertensysteme und DSS

1.7.1. Expertensysteme
1.7.2. Systeme zur Entscheidungshilfe

1.8. Chatbots und virtuelle Assistenten

1.8.1. Arten von Assistenten: sprach- und textbasierte Assistenten
1.8.2. Grundlegende Bestandteile für die Entwicklung eines Assistenten: Intents, Entitäten und Dialogablauf
1.8.3. Integrationen: Web, Slack, Whatsapp, Facebook
1.8.4. Tools für die Entwicklung von Assistenten: Dialog Flow, Watson Assistant

1.9. KI-Implementierungsstrategie
1.10. Die Zukunft der künstlichen Intelligenz

1.10.1. Wir wissen, wie man mit Algorithmen Emotionen erkennt
1.10.2. Eine Persönlichkeit schaffen: Sprache, Ausdrücke und Inhalt
1.10.3. Tendenzen der künstlichen Intelligenz
1.10.4. Reflexionen

Modul 2. Datentypen und Datenlebenszyklus

2.1. Die Statistik

2.1.1. Statistik: Deskriptive Statistik, statistische Schlussfolgerungen
2.1.2. Population, Stichprobe, Individuum
2.1.3. Variablen: Definition und Mess-Skalen

2.2. Arten von statistischen Daten

2.2.1. Je nach Typ

2.2.1.1. Quantitativ: kontinuierliche Daten und diskrete Daten
2.2.1.2. Qualitativ: Binomialdaten, nominale Daten und ordinale Daten

2.2.2. Je nach Form

2.2.2.1. Numerisch
2.2.2.2. Text
2.2.2.3. Logisch

2.2.3. Je nach Quelle

2.2.3.1. Primär
2.2.3.2. Sekundär

2.3. Lebenszyklus der Daten

2.3.1. Etappen des Zyklus
2.3.2. Meilensteine des Zyklus
2.3.3. FAIR-Prinzipien

2.4. Die ersten Phasen des Zyklus

2.4.1. Definition von Zielen
2.4.2. Ermittlung des Ressourcenbedarfs
2.4.3. Gantt-Diagramm
2.4.4. Struktur der Daten

2.5. Datenerhebung

2.5.1. Methodik der Erhebung
2.5.2. Erhebungsinstrumente
2.5.3. Kanäle für die Erhebung

2.6. Datenbereinigung

2.6.1. Phasen der Datenbereinigung
2.6.2. Qualität der Daten
2.6.3. Datenmanipulation (mit R)

2.7. Datenanalyse, Interpretation und Bewertung der Ergebnisse

2.7.1. Statistische Maßnahmen
2.7.2. Beziehungsindizes
2.7.3. Data Mining

2.8. Datenlager (Datawarehouse)

2.8.1. Elemente, aus denen sie bestehen
2.8.2. Design
2.8.3. Zu berücksichtigende Aspekte

2.9. Verfügbarkeit von Daten

2.9.1. Zugang
2.9.2. Nützlichkeit
2.9.3. Sicherheit

2.10. Regulatorische Aspekte

2.10.1. Datenschutzgesetz
2.10.2. Bewährte Verfahren
2.10.3. Andere regulatorische Aspekte

Modul 3. Daten in der künstlichen Intelligenz

3.1. Datenwissenschaft

3.1.1. Datenwissenschaft
3.1.2. Fortgeschrittene Tools für den Datenwissenschaftler

3.2. Daten, Informationen und Wissen

3.2.1. Daten, Informationen und Wissen
3.2.2. Datentypen
3.2.3. Datenquellen

3.3. Von Daten zu Informationen

3.3.1. Datenanalyse
3.3.2. Arten der Analyse
3.3.3. Extraktion von Informationen aus einem Dataset

3.4. Extraktion von Informationen durch Visualisierung

3.4.1. Visualisierung als Analyseinstrument
3.4.2. Visualisierungsmethoden
3.4.3. Visualisierung eines Datensatzes

3.5. Qualität der Daten

3.5.1. Datenqualität
3.5.2. Datenbereinigung
3.5.3. Grundlegende Datenvorverarbeitung

3.6. Dataset

3.6.1. Dataset-Anreicherung
3.6.2. Der Fluch der Dimensionalität
3.6.3. Ändern unseres Datensatzes

3.7. Ungleichgewicht

3.7.1. Ungleichgewicht der Klassen
3.7.2. Techniken zur Begrenzung von Ungleichgewichten
3.7.3. Dataset-Abgleich

3.8. Unüberwachte Modelle

3.8.1. Unüberwachtes Modell
3.8.2. Methoden
3.8.3. Klassifizierung mit unüberwachten Modellen

3.9. Überwachte Modelle

3.9.1. Überwachtes Modell
3.9.2. Methoden
3.9.3. Klassifizierung mit überwachten Modellen

3.10. Tools und bewährte Verfahren

3.10.1. Bewährte Praktiken für einen Datenwissenschaftler
3.10.2. Das beste Modell
3.10.3. Nützliche Tools

Modul 4. Data Mining. Auswahl, Vorverarbeitung und Transformation

4.1. Statistische Inferenz

4.1.1. Deskriptive Statistik vs. statistische Inferenz
4.1.2. Parametrische Verfahren
4.1.3. Nichtparametrische Verfahren

4.2. Explorative Analyse

4.2.1. Deskriptive Analyse
4.2.2. Visualisierung
4.2.3. Vorbereitung der Daten

4.3. Vorbereitung der Daten

4.3.1. Datenintegration und -bereinigung
4.3.2. Normalisierung der Daten
4.3.3. Attribute umwandeln

4.4. Verlorene Werte

4.4.1. Umgang mit verlorenen Werten
4.4.2. Maximum-Likelihood-Imputationsmethoden
4.4.3. Imputation verlorener Werte durch maschinelles Lernen

4.5.  Datenrauschen

4.5.1. Lärmklassen und Attribute
4.5.2. Rauschfilterung
4.5.3. Rauscheffekt

4.6. Der Fluch der Dimensionalität

4.6.1. Oversampling
4.6.2. Undersampling
4.6.3. Multidimensionale Datenreduktion

4.7. Kontinuierliche zu diskreten Attributen

4.7.1. Kontinuierliche versus diskrete Daten
4.7.2. Prozess der Diskretisierung

4.8. Daten

4.8.1. Datenauswahl
4.8.2. Perspektiven und Auswahlkriterien
4.8.3. Methoden der Auswahl

4.9. Auswahl der Instanzen

4.9.1. Methoden für die Instanzauswahl
4.9.2. Auswahl der Prototypen
4.9.3. Erweiterte Methoden für die Instanzauswahl

4.10. Vorverarbeitung von Daten in Big Data-Umgebungen

Modul 5. Algorithmik und Komplexität in der künstlichen Intelligenz

5.1. Einführung in Algorithmus-Design-Strategien

5.1.1. Rekursion
5.1.2. Aufteilen und erobern
5.1.3. Andere Strategien

5.2. Effizienz und Analyse von Algorithmen

5.2.1. Maßnahmen zur Steigerung der Effizienz
5.2.2. Messung der Eingabegröße
5.2.3. Messung der Ausführungszeit
5.2.4. Schlimmster, bester und durchschnittlicher Fall
5.2.5. Asymptotische Notation
5.2.6. Kriterien für die mathematische Analyse von nicht-rekursiven Algorithmen
5.2.7. Mathematische Analyse von rekursiven Algorithmen
5.2.8. Empirische Analyse von Algorithmen

5.3. Sortieralgorithmen

5.3.1. Konzept der Sortierung
5.3.2. Blase sortieren
5.3.3. Sortieren nach Auswahl
5.3.4. Reihenfolge der Insertion
5.3.5. Sortierung zusammenführen (Merge_Sort)
5.3.6. Schnelle Sortierung (Quick_Sort)

5.4. Algorithmen mit Bäumen

5.4.1. Konzept des Baumes
5.4.2. Binäre Bäume
5.4.3. Baumpfade
5.4.4. Ausdrücke darstellen
5.4.5. Geordnete binäre Bäume
5.4.6. Ausgeglichene binäre Bäume

5.5. Algorithmen mit Heaps

5.5.1. Heaps
5.5.2. Der Heapsort-Algorithmus
5.5.3. Prioritätswarteschlangen

5.6. Graph-Algorithmen

5.6.1. Vertretung
5.6.2. Lauf in Breite
5.6.3. Lauf in Tiefe
5.6.4. Topologische Anordnung

5.7. Greedy-Algorithmen

5.7.1.   Die Greedy-Strategie
5.7.2. Elemente der Greedy-Strategie
5.7.3. Währungsumtausch
5.7.4. Das Problem des Reisenden
5.7.5. Problem mit dem Rucksack

5.8. Minimale Pfadsuche

5.8.1. Das Problem des minimalen Pfades
5.8.2. Negative Bögen und Zyklen
5.8.3. Dijkstra-Algorithmus

5.9. Greedy-Algorithmen auf Graphen

5.9.1. Der minimal aufspannende Baum
5.9.2. Algorithmus von Prim
5.9.3. Algorithmus von Kruskal
5.9.4. Komplexitätsanalyse

5.10. Backtracking

5.10.1. Das Backtracking
5.10.2. Alternative Techniken

Modul 6. Intelligente Systeme

6.1. Agententheorie

6.1.1. Geschichte des Konzepts
6.1.2. Definition von Agent
6.1.3. Agenten in der künstlichen Intelligenz
6.1.4. Agenten in der Softwareentwicklung

6.2. Agent-Architekturen

6.2.1. Der Denkprozess eines Agenten
6.2.2. Reaktive Agenten
6.2.3. Deduktive Agenten
6.2.4. Hybride Agenten
6.2.5. Vergleich

6.3. Informationen und Wissen

6.3.1. Unterscheidung zwischen Daten, Informationen und Wissen
6.3.2. Bewertung der Datenqualität
6.3.3. Methoden der Datenerfassung
6.3.4. Methoden der Informationsbeschaffung
6.3.5. Methoden zum Wissenserwerb

6.4. Wissensrepräsentation

6.4.1. Die Bedeutung der Wissensrepräsentation
6.4.2. Definition der Wissensrepräsentation durch ihre Rollen
6.4.3. Merkmale einer Wissensrepräsentation

6.5. Ontologien

6.5.1. Einführung in Metadaten
6.5.2. Philosophisches Konzept der Ontologie
6.5.3. Computergestütztes Konzept der Ontologie
6.5.4. Bereichsontologien und Ontologien auf höherer Ebene
6.5.5. Wie erstellt man eine Ontologie?

6.6. Ontologiesprachen und Software für die Erstellung von Ontologien

6.6.1. RDF-Tripel, Turtle und N
6.6.2. RDF-Schema
6.6.3. OWL
6.6.4. SPARQL
6.6.5. Einführung in die verschiedenen Tools für die Erstellung von Ontologien
6.6.6. Installation und Verwendung von Protégé

6.7. Das semantische Web

6.7.1. Der aktuelle Stand und die Zukunft des semantischen Webs
6.7.2. Anwendungen des semantischen Webs

6.8. Andere Modelle der Wissensdarstellung

6.8.1. Wortschatz
6.8.2. Globale Sicht
6.8.3. Taxonomie
6.8.4. Thesauri
6.8.5. Folksonomien
6.8.6. Vergleich
6.8.7. Mind Map

6.9. Bewertung und Integration von Wissensrepräsentationen

6.9.1. Logik nullter Ordnung
6.9.2. Logik erster Ordnung
6.9.3. Beschreibende Logik
6.9.4. Beziehung zwischen verschiedenen Arten von Logik
6.9.5. Prolog: Programmierung auf Basis der Logik erster Ordnung

6.10. Semantische Reasoner, wissensbasierte Systeme und Expertensysteme

6.10.1. Konzept des Reasoners
6.10.2. Anwendungen eines Reasoners
6.10.3. Wissensbasierte Systeme
6.10.4. MYCIN, Geschichte der Expertensysteme
6.10.5. Elemente und Architektur von Expertensystemen
6.10.6. Erstellung von Expertensystemen

Modul 7. Maschinelles Lernen und Data Mining

7.1. Einführung in die Prozesse der Wissensentdeckung und in die grundlegenden Konzepte des maschinellen Lernens

7.1.1. Schlüsselkonzepte von Prozessen der Wissensentdeckung
7.1.2. Historische Perspektive der Wissensentdeckungsprozesse
7.1.3. Phasen des Wissensentdeckungsprozesses
7.1.4. Techniken, die bei der Wissensentdeckung eingesetzt werden
7.1.5. Merkmale guter Modelle für maschinelles Lernen
7.1.6. Arten von Informationen zum maschinellen Lernen
7.1.7. Grundlegende Lernkonzepte
7.1.8. Grundlegende Konzepte des unüberwachten Lernens

7.2. Datenexploration und Vorverarbeitung

7.2.1. Datenverarbeitung
7.2.2. Datenverarbeitung im Datenanalysefluss
7.2.3. Datentypen
7.2.4. Datenumwandlung
7.2.5. Anzeige und Untersuchung von kontinuierlichen Variablen
7.2.6. Anzeige und Erkundung kategorialer Variablen
7.2.7. Korrelationsmaßnahmen
7.2.8. Die häufigsten grafischen Darstellungen
7.2.9. Einführung in die multivariate Analyse und Dimensionsreduktion

7.3. Entscheidungsbaum

7.3.1. ID-Algorithmus
7.3.2. Algorithmus C
7.3.3. Übertraining und Beschneidung
7.3.4. Analyse der Ergebnisse

7.4. Bewertung von Klassifikatoren

7.4.1. Konfusionsmatrizen
7.4.2. Numerische Bewertungsmatrizen
7.4.3. Kappa-Statistik
7.4.4. Die ROC-Kurve

7.5. Klassifizierungsregeln

7.5.1. Maßnahmen zur Bewertung von Regeln
7.5.2. Einführung in die grafische Darstellung
7.5.3. Sequentieller Überlagerungsalgorithmus

7.6. Neuronale Netze

7.6.1. Grundlegende Konzepte
7.6.2. Einfache neuronale Netze
7.6.3. Backpropagation-Algorithmus
7.6.4. Einführung in rekurrente neuronale Netze

7.7. Bayessche Methoden

7.7.1. Grundlegende Konzepte der Wahrscheinlichkeit
7.7.2. Bayes-Theorem
7.7.3. Naive Bayes
7.7.4. Einführung in Bayessche Netzwerke

7.8. Regressions- und kontinuierliche Antwortmodelle

7.8.1. Einfache lineare Regression
7.8.2. Multiple lineare Regression
7.8.3. Logistische Regression
7.8.4. Regressionsbäume
7.8.5. Einführung in Support Vector Machines (SVM)
7.8.6. Maße für die Anpassungsgüte

7.9. Clustering

7.9.1. Grundlegende Konzepte
7.9.2. Hierarchisches Clustering
7.9.3. Probabilistische Methoden
7.9.4. EM-Algorithmus
7.9.5. B-Cubed-Methode
7.9.6. Implizite Methoden

7.10. Text Mining und natürliche Sprachverarbeitung (NLP)

7.10.1. Grundlegende Konzepte
7.10.2. Erstellung eines Korpus
7.10.3. Deskriptive Analyse
7.10.4. Einführung in die Stimmungsanalyse

Modul 8. Neuronale Netze, die Grundlage von Deep Learning

8.1. Tiefes Lernen

8.1.1. Arten von tiefem Lernen
8.1.2. Anwendungen von tiefem Lernen
8.1.3. Vor- und Nachteile von tiefem Lernen

8.2. Operationen

8.2.1. Addition
8.2.2. Produkt
8.2.3. Transfer

8.3. Ebenen

8.3.1. Eingangsebene
8.3.2. Ausgeblendete Ebene
8.3.3. Ausgangsebene

8.4. Schichtenverbund und Operationen

8.4.1. Design-Architekturen
8.4.2. Verbindung zwischen Ebenen
8.4.3. Vorwärtsausbreitung

8.5. Aufbau des ersten neuronalen Netzes

8.5.1. Entwurf des Netzes
8.5.2. Festlegen der Gewichte
8.5.3. Training des Netzes

8.6. Trainer und Optimierer

8.6.1. Auswahl des Optimierers
8.6.2. Festlegen einer Verlustfunktion
8.6.3. Festlegung einer Metrik

8.7. Anwendung der Prinzipien des neuronalen Netzes

8.7.1. Aktivierungsfunktionen
8.7.2. Rückwärtsausbreitung
8.7.3. Einstellung der Parameter

8.8. Von biologischen zu künstlichen Neuronen

8.8.1. Funktionsweise eines biologischen Neurons
8.8.2. Wissensübertragung auf künstliche Neuronen
8.8.3. Herstellung von Beziehungen zwischen den beiden

8.9. Implementierung von MLP (Multilayer Perceptron) mit Keras

8.9.1. Definition der Netzstruktur
8.9.2. Modell-Kompilierung
8.9.3. Modell-Training

8.10. Fine Tuning der Hyperparameter von neuronalen Netzen

8.10.1. Auswahl der Aktivierungsfunktion
8.10.2. Einstellung der Learning Rate
8.10. 3. Einstellung der Gewichte

Modul 9. Training Tiefer Neuronaler Netze

9.1. Gradienten-Probleme

9.1.1. Techniken der Gradientenoptimierung
9.1.2. Stochastische Gradienten
9.1.3. Techniken zur Initialisierung der Gewichte

9.2. Wiederverwendung von vortrainierten Schichten

9.2.1. Transfer Learning Training
9.2.2. Merkmalsextraktion
9.2.3. Tiefes Lernen

9.3. Optimierer

9.3.1. Stochastische Gradientenabstiegs-Optimierer
9.3.2. Adam- und RMSprop-Optimierer
9.3.3. Moment-Optimierer

9.4. Planen der Lernrate

9.4.1. Automatische Steuerung der Lernrate
9.4.2. Lernzyklen
9.4.3. Bedingungen für die Glättung

9.5. Überanpassung

9.5.1. Kreuzvalidierung
9.5.2. Regulierung
9.5.3. Bewertungsmetriken

9.6. Praktische Leitlinien

9.6.1. Entwurf des Modells
9.6.2. Auswahl der Metriken und Bewertungsparameter
9.6.3. Testen von Hypothesen

9.7. Transfer Learning

9.7.1. Transfer Learning Training
9.7.2. Merkmalsextraktion
9.7.3. Tiefes Lernen

9.8. Data Augmentation

9.8.1. Bildtransformationen
9.8.2. Generierung synthetischer Daten
9.8.3. Textumwandlung

9.9. Praktische Anwendung von Transfer Learning

9.9.1. Transfer Learning Training
9.9.2. Merkmalsextraktion
9.9.3. Tiefes Lernen

9.10. Regulierung

9.10.1. L und L
9.10.2. Maximale Entropie-Regularisierung
9.10.3. Dropout

Modul 10. Anpassung von Modellen und Training mit TensorFlow

10.1. TensorFlow

10.1.1. Verwendung der TensorFlow-Bibliothek
10.1.2. Training von Modellen mit TensorFlow
10.1.3. Operationen mit Graphen in TensorFlow

10.2. TensorFlow und NumPy

10.2.1. NumPy-Berechnungsumgebung für TensorFlow
10.2.2. Verwendung von NumPy-Arrays mit TensorFlow
10.2.3. NumPy-Operationen für TensorFlow-Graphen

10.3. Anpassung von Modellen und Trainingsalgorithmen

10.3.1. Erstellen von benutzerdefinierten Modellen mit TensorFlow
10.3.2. Verwaltung von Trainingsparametern
10.3.3. Verwendung von Optimierungstechniken für das Training

10.4. TensorFlow-Funktionen und -Graphen

10.4.1. Funktionen mit TensorFlow
10.4.2. Verwendung von Graphen für das Modelltraining
10.4.3. Optimieren von Graphen mit TensorFlow-Operationen

10.5. Laden und Vorverarbeiten von Daten mit TensorFlow

10.5.1. Laden von Datensätzen mit TensorFlow
10.5.2. Vorverarbeiten von Daten mit TensorFlow
10.5.3. Verwendung von TensorFlow-Werkzeugen zur Datenmanipulation

10.6. Die tfdata-API

10.6.1. Verwendung der tfdata-API für die Datenverarbeitung
10.6.2. Konstruktion von Datenströmen mit tfdata
10.6.3. Verwendung der tfdata-API für das Modelltraining

10.7. Das TFRecord-Format

10.7.1. Verwendung der TFRecord-API zur Serialisierung von Daten
10.7.2. Laden von TFRecord-Dateien mit TensorFlow
10.7.3. Verwendung von TFRecord-Dateien für das Modelltraining

10.8. Keras Vorverarbeitungsschichten

10.8.1. Verwendung der Keras-API für die Vorverarbeitung
10.8.2. Aufbau von Keras-Vorverarbeitungs-Pipelines
10.8.3. Verwendung der Keras Vorverarbeitungs-API für das Modelltraining

10.9. Das Projekt TensorFlow Datasets

10.9.1. Verwendung von TensorFlow Datasets zum Laden von Daten
10.9.2. Vorverarbeitung von Daten mit TensorFlow Datasets
10.9.3. Verwendung von TensorFlow Datasets für das Modelltraining

10.10. Erstellen einer Deep-Learning-Anwendung mit TensorFlow

10.10.1. Praktische Anwendung
10.10.2. Erstellen einer Deep-Learning-Anwendung mit TensorFlow
10.10.3. Trainieren eines Modells mit TensorFlow
10.10.4. Verwendung der Anwendung für die Vorhersage von Ergebnissen

Modul 11. Deep Computer Vision mit Convolutional Neural Networks

11.1. Die Visual-Cortex-Architektur

11.1.1. Funktionen des visuellen Kortex
11.1.2. Theorien des rechnergestützten Sehens
11.1.3. Modelle der Bildverarbeitung

11.2. Faltungsschichten

11.2.1. Wiederverwendung von Gewichten bei der Faltung
11.2.2. Faltung D
11.2.3. Aktivierungsfunktionen

11.3. Gruppierungsschichten und Implementierung von Gruppierungsschichten mit Keras

11.3.1. Pooling und Striding
11.3.2. Flattening
11.3.3. Arten des Pooling

11.4. CNN-Architektur

11.4.1. VGG-Architektur
11.4.2. AlexNet-Architektur
11.4.3. ResNet-Architektur

11.5. Implementierung eines ResNet CNN mit Keras

11.5.1. Initialisierung der Gewichte
11.5.2. Definition der Eingabeschicht
11.5.3. Definition der Ausgabe

11.6. Verwendung von vortrainierten Keras-Modellen

11.6.1. Merkmale der vortrainierten Modelle
11.6.2. Verwendung von vortrainierten Modellen
11.6.3. Vorteile von vortrainierten Modellen

11.7. Vortrainierte Modelle für das Transferlernen

11.7.1. Transferlernen
11.7.2. Prozess des Transferlernens
11.7.3. Vorteile des Transferlernens

11.8. Klassifizierung und Lokalisierung in Deep Computer Vision

11.8.1. Klassifizierung von Bildern
11.8.2. Objekte in Bildern lokalisieren
11.8.3. Objekterkennung

11.9. Objekterkennung und Objektverfolgung

11.9.1. Methoden zur Objekterkennung
11.9.2. Algorithmen zur Objektverfolgung
11.9.3. Verfolgungs- und Lokalisierungstechniken

11.10. Semantische Segmentierung

11.10.1. Deep Learning für semantische Segmentierung
11.10.1. Kantenerkennung
11.10.1. Regelbasierte Segmentierungsmethoden

Modul 12. Natürliche Sprachverarbeitung (NLP) mit rekurrenten neuronalen Netzen (RNN) und Aufmerksamkeit

12.1. Textgenerierung mit RNN

12.1.1. Training eines RNN für die Texterzeugung
12.1.2. Generierung natürlicher Sprache mit RNN
12.1.3. Anwendungen zur Texterzeugung mit RNN

12.2. Erstellung von Trainingsdatensätzen

12.2.1. Vorbereitung der Daten für das RNN-Training
12.2.2. Speicherung des Trainingsdatensatzes
12.2.3. Bereinigung und Transformation der Daten
12.2.4. Sentiment-Analyse

12.3. Ranking von Meinungen mit RNN

12.3.1. Erkennung von Themen in Kommentaren
12.3.2. Stimmungsanalyse mit Deep-Learning-Algorithmen

12.4. Encoder-Decoder-Netz für neuronale maschinelle Übersetzung

12.4.1. Training eines RNN für maschinelle Übersetzung
12.4.2. Verwendung eines Encoder-Decoder-Netzwerks für die maschinelle Übersetzung
12.4.3. Verbesserung der Genauigkeit der maschinellen Übersetzung mit RNNs

12.5. Aufmerksamkeitsmechanismen

12.5.1. Implementierung von Aufmerksamkeitsmechanismen in RNN
12.5.2. Verwendung von Betreuungsmechanismen zur Verbesserung der Modellgenauigkeit
12.5.3. Vorteile von Betreuungsmechanismen in neuronalen Netzen

12.6. Transformer-Modelle

12.6.1. Verwendung von Transformer-Modellen für die Verarbeitung natürlicher Sprache
12.6.2. Anwendung von Transformer-Modellen für die Sicht
12.6.3. Vorteile von Transformer-Modellen

12.7. Transformers für die Sicht

12.7.1. Verwendung von Transformer für die Sicht
12.7.2. Vorverarbeitung von Bilddaten
12.7.3. Training eines Transformer-Modells für die Sicht

12.8. Hugging Face Transformers-Bibliothek

12.8.1. Verwendung der Hugging Face Transformers-Bibliothek
12.8.2. Anwendung der Hugging Face Transformers-Bibliothek
12.8.3. Vorteile der Hugging Face Transformers-Bibliothek

12.9. Andere Transformer-Bibliotheken. Vergleich

12.9.1. Vergleich zwischen den verschiedenen Transformer-Bibliotheken
12.9.2. Verwendung der anderen Transformer-Bibliotheken
12.9.3. Vorteile der anderen Transformer-Bibliotheken

12.10. Entwicklung einer NLP-Anwendung mit RNN und Aufmerksamkeit. Praktische Anwendung

12.10.1. Entwicklung einer Anwendung zur Verarbeitung natürlicher Sprache mit RNN und Aufmerksamkeit
12.10.2. Verwendung von RNN, Aufmerksamkeitsmechanismen und Transformers-Modellen in der Anwendung
12.10.3. Bewertung der praktischen Umsetzung

Modul 13. Autoencoder, GANs und Diffusionsmodelle

13.1. Effiziente Datendarstellungen

13.1.1. Reduzierung der Dimensionalität
13.1.2. Tiefes Lernen
13.1.3. Kompakte Repräsentationen

13.2. Realisierung von PCA mit einem unvollständigen linearen automatischen Kodierer

13.2.1. Trainingsprozess
13.2.2. Python-Implementierung
13.2.3. Verwendung von Testdaten

13.3. Gestapelte automatische Kodierer

13.3.1. Tiefe neuronale Netze
13.3.2. Konstruktion von Kodierungsarchitekturen
13.3.3. Verwendung der Regularisierung

13.4. Faltungs-Autokodierer

13.4.1. Entwurf eines Faltungsmodells
13.4.2. Training von Faltungsmodellen
13.4.3. Auswertung der Ergebnisse

13.5. Automatische Entrauschung des Encoders

13.5.1. Anwendung von Filtern
13.5.2. Entwurf von Kodierungsmodellen
13.5.3. Anwendung von Regularisierungstechniken

13.6. Automatische Verteilkodierer

13.6.1. Steigerung der Kodierungseffizienz
13.6.2. Minimierung der Anzahl von Parametern
13.6.3. Verwendung von Regularisierungstechniken

13.7. Automatische Variationskodierer

13.7.1. Verwendung der Variationsoptimierung
13.7.2. Unüberwachtes tiefes Lernen
13.7.3. Tiefe latente Repräsentationen

13.8. Modische MNIST-Bilderzeugung

13.8.1. Mustererkennung
13.8.2. Bilderzeugung
13.8.3. Training Tiefer Neuronaler Netze

13.9. Generative Adversarial Networks und Diffusionsmodelle

13.9.1. Bildbasierte Inhaltsgenerierung
13.9.2. Modellierung von Datenverteilungen
13.9.3. Verwendung von Adversarial Networks

13.10. Implementierung der Modelle

13.10.1. Praktische Anwendung
13.10.2. Implementierung der Modelle
13.10.3. Verwendung von realen Daten
13.10.4. Auswertung der Ergebnisse

Modul 14. Bio-inspiriertes Computing

14.1. Einführung in das bio-inspirierte Computing

14.1.1. Einführung in das bio-inspirierte Computing

14.2. Algorithmen zur sozialen Anpassung

14.2.1. Bioinspiriertes Computing auf der Grundlage von Ameisenkolonien
14.2.2. Varianten von Ameisenkolonie-Algorithmen
14.2.3. Cloud-basiertes Computing auf Partikelebene

14.3. Genetische Algorithmen

14.3.1. Allgemeine Struktur
14.3.2. Implementierungen der wichtigsten Operatoren

14.4. Explorations-Ausbeutungsraum-Strategien für genetische Algorithmen

14.4.1. CHC-Algorithmus
14.4.2. Multimodale Probleme

14.5. Evolutionäre Berechnungsmodelle (I)

14.5.1. Evolutionäre Strategien
14.5.2. Evolutionäre Programmierung
14.5.3. Algorithmen auf der Grundlage der differentiellen Evolution

14.6. Evolutionäre Berechnungsmodelle (II)

14.6.1. Evolutionäre Modelle auf der Grundlage der Schätzung von Verteilungen (EDA)
14.6.2. Genetische Programmierung

14.7. Evolutionäre Programmierung angewandt auf Lernprobleme

14.7.1. Regelbasiertes Lernen
14.7.2. Evolutionäre Methoden bei Instanzauswahlproblemen

14.8. Multi-Objektive Probleme

14.8.1. Konzept der Dominanz
14.8.2. Anwendung evolutionärer Algorithmen auf multikriterielle Probleme

14.9. Neuronale Netze (I)

14.9.1. Einführung in neuronale Netzwerke
14.9.2. Praktisches Beispiel mit neuronalen Netzwerken

14.10. Neuronale Netze

14.10.1. Anwendungsbeispiele für neuronale Netze in der medizinischen Forschung
14.10.2. Anwendungsbeispiele für neuronale Netze in der Wirtschaft
14.10.3. Anwendungsfälle für neuronale Netze in der industriellen Bildverarbeitung

Modul 15. Künstliche Intelligenz: Strategien und Anwendungen

15.1. Finanzdienstleistungen

15.1.1. Die Auswirkungen von künstlicher Intelligenz (KI) auf Finanzdienstleistungen.  Chancen und Herausforderungen
15.1.2. Anwendungsbeispiele
15.1.3. Potenzielle Risiken im Zusammenhang mit dem Einsatz von KI
15.1.4. Mögliche zukünftige Entwicklungen/Nutzungen von KI

15.2. Auswirkungen von künstlicher Intelligenz im Gesundheitswesen

15.2.1. Auswirkungen von KI im Gesundheitswesen. Chancen und Herausforderungen
15.2.2. Anwendungsbeispiele

15.3. Risiken im Zusammenhang mit dem Einsatz von KI im Gesundheitswesen

15.3.1. Potenzielle Risiken im Zusammenhang mit dem Einsatz von KI
15.3.2. Mögliche zukünftige Entwicklungen/Nutzungen von KI

15.4. Retail

15.4.1. Auswirkungen von KI im Retail. Chancen und Herausforderungen
15.4.2. Anwendungsbeispiele
15.4.3. Potenzielle Risiken im Zusammenhang mit dem Einsatz von KI
15.4.4. Mögliche zukünftige Entwicklungen/Nutzungen von KI

15.5. Industrie

15.5.1. Auswirkungen von KI in der Industrie. Chancen und Herausforderungen
15.5.2. Anwendungsbeispiele

15.6. Potenzielle Risiken im Zusammenhang mit dem Einsatz von KI in der Industrie

15.6.1. Anwendungsbeispiele
15.6.2. Potenzielle Risiken im Zusammenhang mit dem Einsatz von KI
15.6.3. Mögliche zukünftige Entwicklungen/Nutzungen von KI

15.7. Öffentliche Verwaltung

15.7.1. Auswirkungen von KI in der Öffentlichen Verwaltung. Chancen und Herausforderungen
15.7.2. Anwendungsbeispiele
15.7.3. Potenzielle Risiken im Zusammenhang mit dem Einsatz von KI
15.7.4. Mögliche zukünftige Entwicklungen/Nutzungen von KI

15.8. Bildung

15.8.1. Auswirkungen von KI in der Bildung. Chancen und Herausforderungen
15.8.2. Anwendungsbeispiele
15.8.3. Potenzielle Risiken im Zusammenhang mit dem Einsatz von KI
15.8.4. Mögliche zukünftige Entwicklungen/Nutzungen von KI

15.9. Forst- und Landwirtschaft

15.9.1. Auswirkungen von KI in der Forst- und Landwirtschaft. Chancen und Herausforderungen
15.9.2. Anwendungsbeispiele
15.9.3. Potenzielle Risiken im Zusammenhang mit dem Einsatz von KI
15.9.4. Mögliche zukünftige Entwicklungen/Nutzungen von KI

15.10. Personalwesen

15.10.1. Auswirkungen von KI im Personalwesen. Chancen und Herausforderungen
15.10.2. Anwendungsbeispiele
15.10.3. Potenzielle Risiken im Zusammenhang mit dem Einsatz von KI
15.10.4. Mögliche zukünftige Entwicklungen/Nutzungen von KI

Modul 16. Design mit künstlicher Intelligenz in der Architektur

16.1. Fortgeschrittene AutoCAD-Anwendungen mit KI

16.1.1. Integration von AutoCAD mit KI-Tools für fortgeschrittenes Design
16.1.2. Automatisierung sich wiederholender Aufgaben im architektonischen Design mit KI
16.1.3. Fallstudien, in denen AutoCAD mit KI-Unterstützung Architekturprojekte optimiert hat

16.2. Erweiterte generative Modellierung mit Fusion 360

16.2.1. Fortgeschrittene generative Modellierungstechniken, angewandt auf komplexe Projekte
16.2.2. Die Verwendung von Fusion 360 zur Erstellung innovativer architektonischer Entwürfe
16.2.3. Beispiele für die Anwendung der generativen Modellierung in der nachhaltigen und anpassungsfähigen Architektur

16.3. Optimierung von Entwürfen mit KI in Optimus

16.3.1. Optimierungsstrategien für architektonische Entwürfe mit KI-Algorithmen in Optimus
16.3.2. Sensitivitätsanalyse und Erkundung optimaler Lösungen in realen Projekten
16.3.3. Überprüfung von Erfolgsgeschichten in der Industrie, die Optimus für KI-basierte Optimierung nutzen

16.4. Parametrisches Design und digitale Fertigung mit Geomagic Wrap

16.4.1. Fortschritte im parametrischen Design mit KI-Integration mit Geomagic Wrap
16.4.2. Praktische Anwendungen der digitalen Fertigung in der Architektur
16.4.3. Herausragende Architekturprojekte mit KI-gestütztem parametrischem Design für strukturelle Innovationen

16.5. Adaptives und kontextabhängiges Design mit KI-Sensoren

16.5.1. Implementierung von adaptivem Design mit KI und Echtzeitdaten
16.5.2. Beispiele für ephemere Architektur und urbane Umgebungen, die mit KI entworfen wurden
16.5.3. Analyse, wie adaptives Design die Nachhaltigkeit und Effizienz von Architekturprojekten beeinflusst

16.6. Simulation und prädiktive Analyse in CATIA für Architekten

16.6.1. Fortgeschrittene Nutzung von CATIA für die Simulation in der Architektur
16.6.2. Modellierung des Strukturverhaltens und Optimierung der Energieleistung mithilfe von KI
16.6.3. Implementierung von prädiktiver Analytik in bedeutenden Architekturprojekten

16.7. Personalisierung und UX im Design mit IBM Watson Studio

16.7.1. KI-Tools in IBM Watson Studio für die Personalisierung in der Architektur
16.7.2. Benutzerzentriertes Design mit KI-Analysen
16.7.3. Fallstudien von KI-Anwendungsfällen für die Personalisierung von architektonischen Räumen und Produkten

16.8. KI-gestützte Zusammenarbeit und kollektives Design

16.8.1. KI-gestützte kollaborative Plattformen für Designprojekte
16.8.2. KI-Methoden zur Förderung von Kreativität und kollektiver Innovation
16.8.3. Erfolgsgeschichten und Herausforderungen bei KI-gestütztem kollaborativem Design

16.9. Ethik und Verantwortung im KI-gestützten Design

16.9.1. Ethische Debatten über den Einsatz von KI im Architekturdesign
16.9.2. Studie über Voreingenommenheit und Fairness in KI-Algorithmen, die auf Design angewendet werden
16.9.3. Aktuelle Vorschriften und Standards für verantwortungsvolles KI-Design

16.10. Herausforderungen und Zukunft des KI-gestützten Designs

16.10.1. Aufkommende Trends und Spitzentechnologien in der KI für die Architektur
16.10.2. Analyse der zukünftigen Auswirkungen von KI auf den Beruf des Architekten
16.10.3. Vorausschau auf zukünftige Innovationen und Entwicklungen im Bereich des KI-gestützten Designs

Modul 17. Raumoptimierung und Energieeffizienz mit künstlicher Intelligenz

17.1. Raumoptimierung mit Autodesk Revit und KI

17.1.1. Verwendung von Autodesk Revit und KI für Raumoptimierung und Energieeffizienz
17.1.2. Fortgeschrittene Techniken zur Verbesserung der Energieeffizienz in der Architekturplanung
17.1.3. Fallstudien erfolgreicher Projekte, die Autodesk Revit mit KI kombinieren

17.2. Analyse von Energieeffizienzdaten und Metriken mit SketchUp und Trimble

17.2.1. Anwendung von SketchUp und Trimble Tools für detaillierte Energieanalysen
17.2.2. Entwicklung von Energieleistungsmetriken mit KI
17.2.3. Strategien zur Festlegung von Energieeffizienzzielen in Architekturprojekten

17.3. Bioklimatisches Design und KI-optimierte Sonnenausrichtung

17.3.1. KI-unterstützte bioklimatische Designstrategien zur Maximierung der Energieeffizienz
17.3.2. Beispiele von Gebäuden mit KI-gestütztem Design zur Optimierung des thermischen Komforts
17.3.3. Praktische Anwendungen von KI bei Sonnenausrichtung und passivem Design

17.4. KI-gestützte nachhaltige Technologien und Materialien mit Cityzenit

17.4.1. Innovationen bei nachhaltigen Materialien unterstützt durch KI-Analyse
17.4.2. Einsatz von KI für die Entwicklung und Anwendung von recycelten und umweltfreundlichen Materialien
17.4.3. Untersuchung von Projekten, die KI-integrierte erneuerbare Energiesysteme nutzen

17.5. Stadtplanung und Energieeffizienz mit WattPredictor und KI

17.5.1. KI-Strategien für Energieeffizienz in der Stadtplanung
17.5.2. Implementierung von WattPredictor zur Optimierung der Energienutzung im öffentlichen Raum
17.5.3. Erfolgsgeschichten von Städten, die KI zur Verbesserung der städtischen Nachhaltigkeit einsetzen

17.6. Intelligentes Energiemanagement mit Google DeepMind's Energy

17.6.1. Anwendungen von DeepMind-Technologien für das Energiemanagement
17.6.2. Implementierung von KI zur Optimierung des Energieverbrauchs in großen Gebäuden
17.6.3. Bewertung von Fällen, in denen KI das Energiemanagement in Gemeinden und Gebäuden verändert hat

17.7. KI-unterstützte Energieeffizienz-Zertifizierungen und Standards

17.7.1. Einsatz von KI zur Sicherstellung der Einhaltung von Energieeffizienzstandards (LEED, BREEAM)
17.7.2. KI-Tools für die Energieauditierung und Zertifizierung von Projekten
17.7.3. Auswirkungen von Vorschriften auf KI-gestützte nachhaltige Architektur

17.8. Lebenszyklusanalyse und ökologischer Fußabdruck mit Enernoc

17.8.1. Integration von KI für die Ökobilanz von Baumaterialien
17.8.2. Verwendung von Enernoc zur Bewertung des CO2-Fußabdrucks und der Nachhaltigkeit
17.8.3. Modellprojekte mit KI für fortgeschrittene Umweltbewertungen

17.9. Ausbildung und Bewusstsein für Energieeffizienz mit Verdigris

17.9.1. Die Rolle der KI bei der Ausbildung und Bewusstseinsbildung in Sachen Energieeffizienz
17.9.2. Verwendung von Verdigris zur Vermittlung nachhaltiger Praktiken an Architekten und Designer
17.9.3. Initiativen und Bildungsprogramme, die KI nutzen, um einen kulturellen Wandel in Richtung Nachhaltigkeit zu fördern

17.10. Die Zukunft der Raumoptimierung und Energieeffizienz mit ENBALA

17.10.1. Erforschung zukünftiger Herausforderungen und der Entwicklung von Energieeffizienztechnologien
17.10.2. Aufkommende Trends in der KI für Raum- und Energieoptimierung
17.10.3. Perspektiven, wie KI Architektur und Stadtplanung weiter verändern wird

Modul 18. Parametrisches Design und digitale Fertigung

18.1. Fortschritte im parametrischen Design und in der digitalen Fertigung mit Grasshopper

18.1.1. Verwendung von Grasshopper zur Erstellung komplexer parametrischer Designs
18.1.2. Integration von KI in Grasshopper, um das Design zu automatisieren und zu optimieren
18.1.3. Vorzeigeprojekte mit parametrischem Design für innovative Lösungen

18.2. Algorithmische Optimierung im Design mit Generative Design

18.2.1. Anwendung von Generative Design für algorithmische Optimierung in der Architektur
18.2.2. Einsatz von KI zur Generierung effizienter und neuartiger Designlösungen
18.2.3. Beispiele dafür, wie Generative Design die Funktionalität und Ästhetik von Architekturprojekten verbessert hat

18.3. Digitale Fertigung und Robotik im Bauwesen mit KUKA PRC

18.3.1. Einsatz von Robotik-Technologien wie dem KUKA PRC in der digitalen Fertigung
18.3.2. Vorteile der digitalen Fertigung in Bezug auf Präzision, Geschwindigkeit und Kostenreduzierung
18.3.3. Fallstudien zur digitalen Fertigung, die die erfolgreiche Integration von Robotik in der Architektur zeigen

18.4. Adaptives Design und Fertigung mit Autodesk Fusion 360

18.4.1. Verwendung von Fusion 360 für den Entwurf adaptiver architektonischer Systeme
18.4.2. Implementierung von KI in Fusion 360 für die Massenanpassung
18.4.3. Innovative Projekte, die das Potenzial für Anpassungsfähigkeit und individuelle Gestaltung aufzeigen

18.5. Nachhaltigkeit im parametrischen Design mit Topology Optimization

18.5.1. Anwendung von Techniken der Topologieoptimierung zur Verbesserung der Nachhaltigkeit
18.5.2. Integration von KI zur Optimierung von Materialverbrauch und Energieeffizienz
18.5.3. Beispiele dafür, wie die topologische Optimierung die Nachhaltigkeit von Architekturprojekten verbessert hat

18.6. Interaktivität und räumliche Anpassungsfähigkeit mit Autodesk Fusion 360

18.6.1. Integration von Sensoren und Echtzeitdaten zur Schaffung interaktiver Architekturumgebungen
18.6.2. Verwendung von Autodesk Fusion 360 zur Anpassung des Entwurfs als Reaktion auf Veränderungen der Umgebung oder der Nutzung
18.6.3. Beispiele für Architekturprojekte, die räumliche Interaktivität zur Verbesserung des Nutzererlebnisses nutzen

18.7. Effizienz im parametrischen Entwurf

18.7.1. Anwendung von parametrischem Design zur Optimierung der Nachhaltigkeit und Energieeffizienz von Gebäuden
18.7.2. Einsatz von Simulationen und Lebenszyklusanalysen in Verbindung mit KI zur Verbesserung der ökologischen Entscheidungsfindung
18.7.3. Beispiele für nachhaltige Projekte, bei denen parametrisches Design eine entscheidende Rolle gespielt hat

18.8. Mass Customization und digitale Fertigung mit Magic (Materialise)

18.8.1. Erkundung des Potenzials der Mass Customization durch parametrisches Design und digitale Fertigung
18.8.2. Anwendung von Werkzeugen wie Magic zur individuellen Gestaltung in Architektur und Innenarchitektur
18.8.3. Herausragende Projekte, die digitale Fertigung bei der Personalisierung von Räumen und Möbeln zeigen

18.9. Zusammenarbeit und kollektives Design mit Ansys Granta

18.9.1. Verwendung von Ansys Granta zur Erleichterung der Zusammenarbeit und Entscheidungsfindung im verteilten Design
18.9.2. Methoden zur Verbesserung von Innovation und Effizienz in kollaborativen Designprojekten
18.9.3. Beispiele dafür, wie KI-gestützte Zusammenarbeit zu innovativen und nachhaltigen Ergebnissen führen kann

18.10. Herausforderungen und Zukunft der digitalen Fertigung und des parametrischen Designs

18.10.1. Identifizierung neuer Herausforderungen im parametrischen Design und in der digitalen Fertigung
18.10.2. Zukünftige Trends und die Rolle der KI bei der Entwicklung dieser Technologien
18.10.3. Diskussion darüber, wie kontinuierliche Innovation die Architektur und das Design in der Zukunft beeinflussen wird

Modul 19. Simulation und Prädiktive Modellierung mit künstlicher Intelligenz

19.1. Fortgeschrittene MATLAB-Simulationstechniken in der Architektur

19.1.1. Verwendung von MATLAB für fortgeschrittene Simulationen in der Architektur
19.1.2. Integration von prädiktiver Modellierung und Big-Data-Analytik
19.1.3. Fallstudien, in denen MATLAB bei der Architektursimulation zum Einsatz kam

19.2. Fortgeschrittene Strukturanalyse mit ANSYS

19.2.1. Implementierung von ANSYS für fortgeschrittene Struktursimulationen in Architekturprojekten
19.2.2. Integration von prädiktiven Modellen zur Bewertung der strukturellen Sicherheit und Dauerhaftigkeit
19.2.3. Projekte, die den Einsatz von Struktursimulationen in der Hochleistungsarchitektur hervorheben

19.3. Modellierung der Raumnutzung und der menschlichen Dynamik mit AnyLogic

19.3.1. Verwendung von AnyLogic zur Modellierung der Dynamik von Raumnutzung und menschlicher Mobilität
19.3.2. Anwendung von KI zur Vorhersage und Verbesserung der Effizienz der Raumnutzung in städtischen und architektonischen Umgebungen
19.3.3. Fallstudien, die zeigen, wie sich die Simulation auf die Stadt- und Architekturplanung auswirkt

19.4. Prädiktive Modellierung mit TensorFlow in der Stadtplanung

19.4.1. Implementierung von TensorFlow für die Modellierung städtischer Dynamik und strukturellem Verhalten
19.4.2. Verwendung von KI zur Vorhersage zukünftiger Ergebnisse in der Stadtplanung
19.4.3. Beispiele dafür, wie prädiktive Modellierung Stadtplanung und Design beeinflusst

19.5. Prädiktive Modellierung und generatives Design mit GenerativeComponents

19.5.1. Verwendung von GenerativeComponents zur Zusammenführung von prädiktiver Modellierung und generativem Design
19.5.2. Anwendung von Algorithmen des maschinellen Lernens zur Erstellung innovativer und effizienter Designs
19.5.3. Beispiele von Architekturprojekten, die ihr Design mit Hilfe dieser fortschrittlichen Technologien optimiert haben

19.6. Simulation von Umweltauswirkungen und Nachhaltigkeit mit COMSOL

19.6.1. Anwendung von COMSOL für Umweltsimulationen bei Großprojekten
19.6.2. Einsatz von KI zur Analyse und Verbesserung der Umweltauswirkungen von Gebäuden
19.6.3. Projekte, die zeigen, wie Simulationen zur Nachhaltigkeit beitragen

19.7. Simulation der Umweltleistung mit COMSOL

19.7.1. Anwendung von COMSOL Multiphysics für Umwelt- und thermische Leistungssimulationen
19.7.2. Einsatz von KI zur Designoptimierung auf der Grundlage von Tageslicht- und Akustiksimulationen
19.7.3. Beispiele für erfolgreiche Implementierungen, die Nachhaltigkeit und Komfort verbessert haben

19.8. Innovation in der Simulation und prädiktiven Modellierung

19.8.1. Erforschung neuer Technologien und ihrer Auswirkungen auf Simulation und Modellierung
19.8.2. Diskussion darüber, wie KI die Simulationsmöglichkeiten in der Architektur verändert
19.8.3. Bewertung zukünftiger Tools und ihrer möglichen Anwendungen im Architekturdesign

19.9. Simulation von Bauprozessen mit CityEngine

19.9.1. Anwendung von CityEngine zur Simulation von Bauabläufen und zur Optimierung des Arbeitsablaufs auf der Baustelle
19.9.2. KI-Integration zur Modellierung der Baulogistik und Koordinierung der Aktivitäten in Echtzeit
19.9.3. Fallstudien zur Verbesserung von Effizienz und Sicherheit im Bauwesen durch fortschrittliche Simulationen

19.10. Herausforderungen und Zukunft der Simulation und prädiktiven Modellierung

19.10.1. Bewertung der aktuellen Herausforderungen bei der prädiktiven Modellierung und Simulation in der Architektur
19.10.2. Aufkommende Trends und die Zukunft dieser Technologien in der Architektur
19.10.3. Diskussion über die Auswirkungen fortgesetzter Innovationen in der Simulation und prädiktiven Modellierung in der Architektur und im Bauwesen

Modul 20. Erhaltung und Restaurierung des Kulturerbes mit künstlicher Intelligenz

20.1. KI-Technologien bei der Restaurierung von Kulturerbe mit Photogrammetry

20.1.1. Einsatz von Photogrammetrie und KI für die genaue Dokumentation und Restaurierung des Kulturerbes
20.1.2. Praktische Anwendungen bei der Restaurierung von historischen Gebäuden
20.1.3. Herausragende Projekte, die fortschrittliche Techniken und Respekt vor der Authentizität verbinden

20.2. Prädiktive Analyse für die Konservierung mit Laser Scanning

20.2.1. Implementierung von Laserscanning und prädiktiver Analyse in der Erhaltung des Kulturerbes
20.2.2. Einsatz von KI zur Erkennung und Verhinderung des Verfalls historischer Bauwerke
20.2.3. Beispiele dafür, wie diese Technologien die Genauigkeit und Effizienz in der Erhaltung verbessert haben

20.3. Verwaltung des Kulturerbes mit Virtual Reconstruction

20.3.1. Anwendung von KI-unterstützten virtuellen Rekonstruktionstechniken
20.3.2. Strategien für die digitale Verwaltung und Erhaltung des Kulturerbes
20.3.3. Erfolgsgeschichten bei der Nutzung der virtuellen Rekonstruktion für Bildung und Erhaltung

20.4. Präventive Erhaltung und KI-unterstützte Wartung

20.4.1. Einsatz von KI-Technologien zur Entwicklung von Strategien für die präventive Erhaltung und Wartung von historischen Gebäuden
20.4.2. Implementierung von KI-basierten Überwachungssystemen zur frühzeitigen Erkennung von baulichen Problemen
20.4.3. Beispiele dafür, wie KI zur langfristigen Erhaltung des Kulturerbes beiträgt

20.5. Digitale Dokumentation und BIM in der Erhaltung des Kulturerbes

20.5.1. Anwendung fortschrittlicher digitaler Dokumentationstechniken, einschließlich BIM und erweiterter Realität, unterstützt durch KI
20.5.2. Nutzung der BIM-Modellierung für eine effiziente Verwaltung und Restaurierung des Kulturerbes
20.5.3. Fallstudien zur Integration der digitalen Dokumentation in Restaurierungsprojekte

20.6. KI-gestützte Erhaltungsverwaltung und -strategien

20.6.1. Einsatz von KI-gestützten Werkzeugen für die Verwaltung und Formulierung von Strategien zur Erhaltung des Kulturerbes
20.6.2. Strategien zur Integration von KI in die Entscheidungsfindung in der Erhaltung
20.6.3. Diskussion darüber, wie KI die Zusammenarbeit zwischen Institutionen zur Erhaltung des Kulturerbes verbessern kann

20.7. Ethik und Verantwortung bei der Restaurierung und Erhaltung von KI

20.7.1. Ethische Überlegungen bei der Anwendung von KI in der Restaurierung von Kulturerbe
20.7.2. Debatte über das Gleichgewicht zwischen technologischer Innovation und Respekt für die historische Authentizität
20.7.3. Beispiele für den verantwortungsvollen Einsatz von KI in der Restaurierung von Kulturerbe

20.8. Innovation und Zukunft der Erhaltung des Kulturerbes mit KI

20.8.1. Perspektiven für neue KI-Technologien und ihre Anwendung in der Erhaltung des Kulturerbes
20.8.2. Bewertung des Potenzials von KI zur Veränderung von Restaurierung und Erhaltung
20.8.3. Diskussion über die Zukunft der Erhaltung des Kulturerbes im Zeitalter der rasanten technologischen Innovation

20.9. Bildung und Bewusstsein für das Kulturerbe mit GIS

20.9.1. Bedeutung der Bildung und des öffentlichen Bewusstseins für die Erhaltung des Kulturerbes mit GIS
20.9.2. Einsatz von geografischen Informationssystemen (GIS) zur Förderung der Wertschätzung und des Wissens über das Kulturerbe
20.9.3. Erfolgreiche Bildungs- und Verbreitungsinitiativen, die Technologien nutzen, um über das Kulturerbe zu informieren

20.10. Herausforderungen und Zukunft der Erhaltung und Restaurierung des Kulturerbes

20.10.1. Identifizierung der aktuellen Herausforderungen bei der Erhaltung des Kulturerbes
20.10.2. Die Rolle der technologischen Innovation und der KI in den zukünftigen Erhaltungs- und Restaurierungspraktiken
20.10.3. Perspektiven, wie die Technologie die Erhaltung des Kulturerbes in den kommenden Jahrzehnten verändern wird

##IMAGE##

Dieser multidisziplinäre Ansatz wird es Ihnen ermöglichen, technische und strategische Fähigkeiten zu entwickeln, die Sie in die Lage versetzen, komplexe Herausforderungen im Bauwesen und in der Planung zu bewältigen“

Privater Masterstudiengang in Künstliche Intelligenz in der Architektur

Die Entwicklung der Architektur war in den letzten Jahren durch die Einbeziehung neuer Technologien gekennzeichnet, die die Art und Weise, wie Gebäude entworfen und gebaut werden, verändert haben. In diesem Zusammenhang hat die künstliche Intelligenz (KI) eine grundlegende Rolle eingenommen, indem sie Prozesse wie die Stadtplanung, den Entwurf effizienter Strukturen und das Management komplexer Projekte optimiert. Unter dieser Prämisse hat TECH diesen Privaten Masterstudiengang in Künstliche Intelligenz in der Architektur entwickelt, ein Programm, mit dem Sie lernen, effizientere, nachhaltigere und innovativere Entwürfe zu erstellen. Durch eine 100%ige Online-Modalität werden Sie nicht nur die ästhetischen Ergebnisse, sondern auch die ökologischen und funktionalen Auswirkungen Ihrer Projekte verbessern. Sie werden lernen, wie Sie KI in alle Phasen der architektonischen Projektentwicklung integrieren können. Darüber hinaus werden Sie sich mit der Datenanalyse für die Stadtplanung, dem fortgeschrittenen parametrischen Design und der Erstellung von Vorhersagemodellen für die Gebäudeleistung beschäftigen.

Implementieren Sie KI in Ihre Architekturprojekte

Die Zukunft der Architektur ist eng mit der Nachhaltigkeit verknüpft, und KI spielt dabei eine entscheidende Rolle. Dieser Studiengang wird Sie darauf vorbereiten, Strukturen zu entwerfen, die die Nutzung von Energieressourcen optimieren und die Umweltauswirkungen reduzieren. Mit Hilfe von KI lernen Sie, intelligente Gebäude zu entwerfen, die sich in Echtzeit an die klimatischen Bedingungen und die Bedürfnisse der Nutzer anpassen können. Auf dem Lehrplan stehen außerdem Themen wie die Automatisierung von Gebäudesystemen und die Verwendung von umweltfreundlichen Materialien, die durch KI-Algorithmen optimiert werden. Sie werden sich auch mit dem Einsatz von Werkzeugen wie dem maschinellen Lernen und der Echtzeitsimulation befassen, die es ermöglichen, Probleme zu antizipieren und Lösungen vorzuschlagen, bevor sie beim Bau auftreten. Die Anwendung dieser Technologien steigert nicht nur die Effizienz in der Planung und im Bau, sondern ermöglicht auch eine bessere Verwaltung des städtischen Raums und eine verantwortungsvollere architektonische Planung. Schreiben Sie sich jetzt ein und bieten Sie innovative Lösungen an, um die Effizienz zu steigern und die Kosten zu senken!