Präsentation

Entwickeln Sie grundlegende Fähigkeiten in den Bereichen Robotik und Maschinelles Sehen, indem Sie sich jetzt in diesen weiterbildenden Masterstudiengang von TECH einschreiben”

##IMAGE##

 

Der Aufstieg von Künstlicher Intelligenz und Robotik verändert die technologische, wirtschaftliche und soziale Landschaft weltweit. Eine Spezialisierung in Bereichen wie maschinelles Sehen ist von entscheidender Bedeutung, um in dieser Ära des rasanten Fortschritts und der disruptiven Veränderungen die Nase vorn zu haben. Die zunehmende Interaktion zwischen Maschinen und Menschen sowie die Notwendigkeit, visuelle Informationen effizient zu verarbeiten, erfordern hochqualifizierte Fachleute, die sich diesen Herausforderungen stellen und Innovationen vorantreiben können.

Der Weiterbildende Masterstudiengang in Robotik und Maschinelles Sehen bietet eine umfassende Weiterbildung in diesen aufstrebenden Disziplinen und deckt unter anderem Themen wie Augmented Reality, Künstliche Intelligenz und visuelle Informationsverarbeitung in Maschinen ab. Die Studenten profitieren von einem theoretisch-praktischen Ansatz, indem sie die neuesten Entwicklungen in der Robotik und dem maschinellen Sehen kennenlernen und lernen, wie sie dieses Wissen in realen Umgebungen anwenden können.

Darüber hinaus ist das Programm zu 100% online, so dass die Studenten ihr Studium an ihre persönlichen und beruflichen Umstände anpassen können, was die Vereinbarkeit des Lernens mit ihren eigenen Verpflichtungen erleichtert. Sie haben Zugang zu qualitativ hochwertigem Lehrmaterial, wie z. B. Videozusammenfassungen, essentielle Lektüre und vertiefende Videos, die ihnen einen umfassenden Überblick über Robotik und Maschinelles Sehen vermitteln.

Somit ist der Weiterbildende Masterstudiengang in Robotik und Maschinelles Sehen eine einzigartige Gelegenheit für Informatiker, die sich auf einem hart umkämpften Arbeitsmarkt profilieren und spezielle Fähigkeiten in einem Bereich mit großem Wachstumspotenzial erwerben möchten.

Beherrschen Sie Techniken des maschinellen Sehens und werden Sie Experte für Bildanalyse und 3D-Vision-Systeme”

Dieser Weiterbildender masterstudiengang in Robotik und Maschinelles Sehen enthält das vollständigste und aktuellste Programm auf dem Markt. Die hervorstechendsten Merkmale sind:

  • Die Entwicklung von Fallstudien, die von Experten der Informatik präsentiert werden
  • Der anschauliche, schematische und äußerst praxisnahe Inhalt vermittelt alle für die berufliche Praxis unverzichtbaren wissenschaftlichen und praktischen Informationen
  • Praktische Übungen, bei denen der Selbstbewertungsprozess zur Verbesserung des Lernens genutzt werden kann
  • Sein besonderer Schwerpunkt liegt auf innovativen Methoden bei der Entwicklung von Robotern und maschinellem Sehen
  • Theoretische Vorträge, Fragen an den Experten, Diskussionsforen zu kontroversen Themen und individuelle Reflexionsarbeit
  • Die Verfügbarkeit des Zugangs zu Inhalten von jedem festen oder tragbaren Gerät mit Internetanschluss

Entdecken Sie, wie die Robotertechnologie in verschiedenen Bereichen wie der Medizin und der Weltraumforschung eingesetzt werden kann, was Ihren Wertbeitrag erheblich steigert”

Zu den Dozenten gehören Fachleute aus dem Bereich der Ingenieurwissenschaften, die ihre Erfahrungen in dieses Programm einbringen, sowie anerkannte Spezialisten aus führenden Unternehmen und renommierten Universitäten.

Die multimedialen Inhalte, die mit den neuesten Bildungstechnologien entwickelt wurden, ermöglichen der Fachkraft ein situiertes und kontextbezogenes Lernen, d. h. eine simulierte Umgebung, die ein immersives Fortbildung bietet, die auf die Ausführung von realen Situationen ausgerichtet ist.

Das Konzept dieses Programms konzentriert sich auf problemorientiertes Lernen, bei dem die Fachkraft versuchen muss, die verschiedenen Situationen aus der beruflichen Praxis zu lösen, die während des gesamten Studiengangs gestellt werden. Dabei wird sie durch ein innovatives interaktives Videosystem unterstützt, das von anerkannten Experten entwickelt wurde.

Bringen Sie Ihre Projekte voran, indem Sie die Anwendung von künstlicher Intelligenz und maschinellem Lernen in der Robotik erforschen”

##IMAGE##

Verbessern Sie Ihre Fähigkeiten bei Planungs- und Steuerungsalgorithmen für die Entwicklung intelligenter und effizienter Roboter”

Lehrplan

Der Weiterbildende Masterstudiengang in Robotik und Maschinelles Sehen ist so aufgebaut, dass eine umfassende und spezialisierte Weiterbildung in diesem Bereich gewährleistet ist. Das Programm erstreckt sich über mehrere Module, die mit grundlegenden Konzepten beginnen und nach und nach zu komplexeren und spezifischeren Themen übergehen. Die Studenten haben die Möglichkeit, sich mit der Konstruktion, Programmierung und Steuerung von Robotern sowie mit Bildverarbeitungsalgorithmen und Techniken des maschinellen Lernens vertraut zu machen.

##IMAGE##

Verbessern Sie Ihr Studium durch einen praktischen und theoretischen Ansatz, der es Ihnen ermöglicht, sich echten Herausforderungen in der Welt der Robotik zu stellen”

Modul 1. Robotik. Roboterdesign und -modellierung

1.1. Robotik und Industrie 4.0

1.1.1. Robotik und Industrie 4.0
1.1.2. Anwendungsbereiche und Anwendungsfälle
1.1.3. Teilbereiche des Fachwissens in der Robotik

1.2. Roboter-Hardware und Software-Architekturen

1.2.1. Hardware-Architekturen und Echtzeit
1.2.2. Roboter-Software-Architekturen
1.2.3. Kommunikationsmodelle und Middleware-Technologien
1.2.4. Software-Integration mit dem Robot Operating System (ROS)

1.3. Mathematische Modellierung von Robotern

1.3.1. Mathematische Darstellung von starren Körpern
1.3.2. Rotationen und Translationen
1.3.3. Hierarchische Zustandsdarstellung
1.3.4. Verteilte Zustandsdarstellung in ROS (TF-Bibliothek)

1.4. Roboterkinematik und -dynamik

1.4.1. Kinematik
1.4.2. Dynamik
1.4.3. Unterbetätigte Roboter
1.4.4. Redundante Roboter

1.5. Modellierung und Simulation von Robotern

1.5.1. Technologien zur Robotermodellierung
1.5.2. Robotermodellierung mit URDF
1.5.3. Roboter-Simulation
1.5.4. Modellierung mit Gazebo-Simulator

1.6. Manipulator-Roboter

1.6.1. Arten von Manipulator-Robotern
1.6.2. Kinematik
1.6.3. Dynamik
1.6.4. Simulation

1.7. Mobile Bodenroboter

1.7.1. Arten von mobilen Bodenrobotern
1.7.2. Kinematik
1.7.3. Dynamik
1.7.4. Simulation

1.8. Mobile Flugroboter

1.8.1. Arten von mobilen Flugrobotern
1.8.2. Kinematik
1.8.3. Dynamik
1.8.4. Simulation

1.9. Mobile Wasserroboter

1.9.1. Arten von mobilen Wasserrobotern
1.9.2. Kinematik
1.9.3. Dynamik
1.9.4. Simulation

1.10. Bio-inspirierte Roboter

1.10.1. Humanoide
1.10.2. Roboter mit vier oder mehr Beinen
1.10.3. Modulare Roboter
1.10.4. Roboter mit flexiblen Teilen (Soft-Robotics)

Modul 2. Intelligente Agenten. Anwendung von Künstlicher Intelligenz auf Roboter und Softbots

2.1. Intelligente Agenten und künstliche Intelligenz

2.1.1. Intelligente Roboter. Künstliche Intelligenz
2.1.2. Intelligente Agenten    

2.1.2.1. Hardware-Agenten. Robots
2.1.2.2. Software-Agenten. Softbots

2.1.3. Robotik-Anwendungen

2.2. Die Verbindung zwischen Gehirn und Algorithmus

2.2.1. Biologische Inspiration für künstliche Intelligenz
2.2.2. In Algorithmen implementiertes logisches Denken. Typologie
2.2.3. Erklärbarkeit von Ergebnissen in Algorithmen der Künstlichen Intelligenz
2.2.4. Entwicklung von Algorithmen bis hin zum Deep Learning

2.3. Lösungsraum-Suchalgorithmen

2.3.1. Elemente der Lösungsraumsuche
2.3.2. Lösungsraum-Suchalgorithmen bei Problemen der Künstlichen Intelligenz
2.3.3. Anwendungen von Such- und Optimierungsalgorithmen
2.3.4. Suchalgorithmen angewandt auf maschinelles Lernen

2.4. Automatisches Lernen

2.4.1. Automatisches Lernen
2.4.2. Überwachte Lernalgorithmen
2.4.3. Unüberwachte Lernalgorithmen
2.4.4. Algorithmen für Verstärkungslernen

2.5. Überwachtes Lernen

2.5.1. Methoden des überwachten Lernens
2.5.2. Entscheidungsbäume für die Klassifizierung
2.5.3. Support-Vektor-Maschinen
2.5.4. Künstliche neuronale Netzwerke
2.5.5. Anwendungen des überwachten Lernens

2.6. Unüberwachtes Lernen

2.6.1. Unüberwachtes Lernen
2.6.2. Kohonen-Netze
2.6.3. Selbstorganisierende Karten
2.6.4. K-Means Algorithmus

2.7. Verstärkungslernen

2.7.1. Verstärkungslernen
2.7.2. Agenten auf Basis von Markov-Prozessen
2.7.3. Algorithmen für Verstärkungslernen
2.7.4. Verstärkungslernen angewandt auf Robotik

2.8. Probabilistische Inferenz

2.8.1. Probabilistische Inferenz
2.8.2. Arten der Inferenz und Definition der Methode
2.8.3. Bayessche Inferenz als Fallstudie
2.8.4. Nichtparametrische Inferenztechniken
2.8.5. Gaußsche Filter

2.9. Von der Theorie zur Praxis: Die Entwicklung eines intelligenten Roboteragenten

2.9.1. Einbindung von Modulen des überwachten Lernens in einen Roboteragenten
2.9.2. Einbindung von Modulen des Verstärkungslernens in einen Roboteragenten
2.9.3. Architektur eines durch künstliche Intelligenz gesteuerten Roboteragenten
2.9.4. Professionelle Werkzeuge für die Implementierung des intelligenten Agenten
2.9.5. Phasen der Implementierung von KI-Algorithmen in Roboteragenten

Modul 3. Deep Learning

3.1. Künstliche Intelligenz

3.1.1. Machine Learning
3.1.2. Deep Learning
3.1.3. Die Explosion des Deep Learning. Wieso jetzt?

3.2. Neuronale Netze

3.2.1. Das neuronale Netz
3.2.2. Einsatz von neuronalen Netzen
3.2.3. Lineare Regression und Perceptron
3.2.4. Forward Propagation
3.2.5. Backpropagation
3.2.6. Feature Vectors

3.3. Loss Functions

3.3.1. Loss Functions
3.3.2. Typen von Loss Functions
3.3.3. Auswahl von Loss Functions

3.4. Aktivierungsfunktionen

3.4.1. Aktivierungsfunktionen
3.4.2. Lineare Funktionen
3.4.3. Nichtlineare Funktionen
3.4.4. Output vs. Hidden Layer Activation Functions

3.5. Regularisierung und Standardisierung

3.5.1. Regularisierung und Standardisierung
3.5.2. Overfitting and Data Augmentation
3.5.3. Regularization Methods: L1, L2 and Dropout
3.5.4. Normalization Methods: Batch, Weight, Layer

3.6. Optimierung

3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam

3.7. Hyperparameter Tuning und Gewichte

3.7.1. Hyperparameter
3.7.2. Batch Size vs. Learning Rate vs. Step Decay
3.7.3. Gewichte

3.8. Bewertungsmetriken für neuronale Netze

3.8.1. Accuracy
3.8.2. Dice Coefficient
3.8.3. Sensitivity vs. Specificity/Recall vs. Precision
3.8.4. Kurve ROC (AUC)
3.8.5. F1-score
3.8.6. Matrix-Verwirrung
3.8.7. Cross-Validation

3.9. Frameworks und Hardware

3.9.1. Tensor Flow
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware für die Trainingsphase

3.10. Erstellung neuronaler Netze - Training und Validierung

3.10.1. Dataset
3.10.2. Aufbau des Netzes
3.10.3. Training
3.10.4. Visualisierung der Ergebnisse

Modul 4. Robotik in der Automatisierung von industriellen Prozessen

4.1. Entwurf von automatisierten Systemen

4.1.1. Hardware-Architekturen
4.1.2. Speicherprogrammierbare Steuerungen
4.1.3. Industrielle Kommunikationsnetzwerke

4.2. Fortgeschrittenes elektrisches Design I: Automatisierung

4.2.1. Entwurf von Schalttafeln und Symbologie
4.2.2. Strom- und Steuerkreise. Harmonische
4.2.3. Schutz- und Erdungselemente

4.3. Fortgeschrittenes elektrisches Design II: Determinismus und Sicherheit

4.3.1. Maschinensicherheit und Redundanz
4.3.2. Sicherheitsrelais und Auslöser
4.3.3. Sicherheits-PLCs
4.3.4. Sichere Netzwerke

4.4. Elektrische Betätigung

4.4.1. Motoren und Servomotoren
4.4.2. Frequenzumrichter und Steuerungen
4.4.3. Elektrisch betriebene Industrierobotik

4.5. Hydraulische und pneumatische Betätigung

4.5.1. Hydraulische Konstruktion und Symbolik
4.5.2. Pneumatischer Aufbau und Symbolik
4.5.3. ATEX-Umgebungen in der Automatisierung

4.6. Messwertaufnehmer in der Robotik und Automation

4.6.1. Positions- und Geschwindigkeitsmessung
4.6.2. Kraft- und Temperaturmessung
4.6.3. Messung der Anwesenheit
4.6.4. Sensoren für das Sehen

4.7. Programmierung und Konfiguration von speicherprogrammierbaren Steuerungen PLCs

4.7.1. PLC-Programmierung: LD
4.7.2. PLC-Programmierung: ST
4.7.3. PLC-Programmierung: FBD und CFC
4.7.4. PLC-Programmierung: SFC

4.8. Programmierung und Konfiguration von Geräten in Industrieanlagen

4.8.1. Programmierung von Antrieben und Steuerungen
4.8.2. HMI-Programmierung
4.8.3. Manipulator-Roboter-Programmierung

4.9. Programmierung und Konfiguration von industriellen Computeranlagen

4.9.1. Programmierung von Bildverarbeitungssystemen
4.9.2. SCADA/Software-Programmierung
4.9.3. Netzwerk-Konfiguration

4.10. Implementierung von Automatismen

4.10.1. Entwurf einer Zustandsmaschine
4.10.2. Implementierung von Zustandsautomaten in PLCs
4.10.3. Implementierung von analogen PID-Regelsystemen in PLCs
4.10.4. Wartung der Automatisierung und Codehygiene
4.10.5. Simulation von Automatismen und Anlagen

Modul 5. Automatische Steuerungssysteme in der Robotik

5.1. Analyse und Entwurf von nichtlinearen Systemen

5.1.1. Analyse und Modellierung nichtlinearer Systeme
5.1.2. Rückkopplungskontrolle
5.1.3. Linearisierung durch Rückkopplung

5.2. Entwurf von Kontrolltechniken für fortgeschrittene nichtlineare Systeme

5.2.1. Sliding Mode Steuerung (Sliding Mode Control)
5.2.2. Lyapunov und Backstepping-Steuerung
5.2.3. Passivitätsbasierte Steuerung

5.3. Architekturen der Steuerung

5.3.1. Robotik-Paradigma
5.3.2. Architekturen der Steuerung
5.3.3. Anwendungen und Beispiele von Kontrollarchitekturen

5.4. Bewegungssteuerung für Roboterarme

5.4.1. Kinematische und dynamische Modellierung
5.4.2. Steuerung im Gelenkraum
5.4.3. Kontrolle im operativen Bereich

5.5. Steuerung der Aktuatorkraft

5.5.1. Kontrolle der Kraft
5.5.2. Impedanz-Steuerung
5.5.3. Hybride Steuerung

5.6. Mobile Bodenroboter

5.6.1. Gleichungen der Bewegung
5.6.2. Steuerungstechniken für Bodenroboter
5.6.3. Mobile Manipulatoren

5.7. Mobile Flugroboter

5.7.1. Gleichungen der Bewegung
5.7.2. Steuerungstechniken für Flugroboter
5.7.3. Manipulation in der Luft

5.8. Steuerung basierend auf Techniken des maschinellen Lernens

5.8.1. Kontrolle durch überwachtes Lernen
5.8.2. Kontrolle durch Reinforcement Learning
5.8.3. Kontrolle durch überwachtes Lernen

5.9. Vision-basierte Kontrolle

5.9.1. Positionsbasiertes Visual Servoing
5.9.2. Bildbasiertes Visual Servoing
5.9.3. Hybrides Visual Servoing

5.10. Prädiktive Steuerung

5.10.1. Modelle und Zustandsschätzung
5.10.2. MPC angewandt auf mobile Roboter
5.10.3. MPC angewandt auf UAVs

Modul 6. Algorithmen zur Roboterplanung

6.1. Klassische Algorithmen zur Planung

6.1.1. Diskrete Planung: Zustandsraum
6.1.2. Planungsprobleme in der Robotik. Modelle für Robotersysteme
6.1.3. Klassifizierung von Planern

6.2. Das Problem der Trajektorienplanung bei mobilen Robotern

6.2.1. Formen der Umgebungsdarstellung: Graphen
6.2.2. Algorithmen zur Graphensuche
6.2.3. Eingabe von Kosten in Netzwerke
6.2.4. Suchalgorithmen in schweren Graphen
6.2.5. Algorithmen mit beliebigem Winkelansatz

6.3. Planung in hochdimensionalen Robotersystemen

6.3.1. Hochdimensionale Robotik-Probleme: Manipulatoren
6.3.2. Direktes/inverses kinematisches Modell
6.3.3. Sampling-Planungsalgorithmen PRM und RRT
6.3.4. Planung unter dynamischen Beschränkungen

6.4. Optimale Stichprobenplanung

6.4.1. Probleme der stichprobenbasierten Planer
6.4.2. RRT* probabilistisches Optimalitätskonzept
6.4.3. Wiederverbindungsschritt: dynamische Beschränkungen
6.4.4. CForest. Parallelisierung der Planung

6.5. Tatsächliche Implementierung eines Bewegungsplanungssystems

6.5.1. Globales Planungsproblem. Dynamische Umgebungen
6.5.2. Aktionskreislauf, Sensorisierung. Beschaffung von Informationen aus der Umgebung
6.5.3. Lokale und globale Planung

6.6. Koordination in Multi-Roboter-Systemen I: Zentralisiertes System

6.6.1. Problem der Multi-Roboter-Koordination
6.6.2. Kollisionserkennung und -auflösung: Trajektorienmodifikation mit Genetischen Algorithmen
6.6.3. Andere bio-inspirierte Algorithmen: Partikelschwärmen und Feuerwerk
6.6.4. Algorithmus zur Kollisionsvermeidung durch Wahl des Manövers

6.7. Koordination in Multi-Roboter-Systemen II: Verteilte Ansätze I

6.7.1. Verwendung von komplexen Zielfunktionen
6.7.2. Pareto-Front
6.7.3. Multi-Objektive evolutionäre Algorithmen

6.8. Koordination in Multi-Roboter-Systemen III: Verteilte Ansätze II

6.8.1. Planungssysteme der Ordnung 1
6.8.2. ORCA-Algorithmus
6.8.3. Hinzufügen von kinematischen und dynamischen Einschränkungen in ORCA

6.9. Theorie der Entscheidungsplanung

6.9.1. Entscheidungstheorie
6.9.2. Sequentielle Entscheidungssysteme
6.9.3. Sensoren und Informationsräume
6.9.4. Planung der Unsicherheit von Sensoren und Aktoren

6.10. Planungssysteme mit Verstärkungslernen

6.10.1. Ermittlung der erwarteten Belohnung eines Systems
6.10.2. Techniken des Lernens mit mittlerer Belohnung
6.10.3. Inverses Verstärkungslernen

Modul 7. Maschinelles Sehen

7.1. Menschliche Wahrnehmung

7.1.1. Das menschliche Sehsystem
7.1.2. Farbe
7.1.3. Sichtbare und nicht sichtbare Frequenzen

7.2. Chronik der industriellen Bildverarbeitung

7.2.1. Grundsätze
7.2.2. Evolution
7.2.3. Die Bedeutung der industriellen Bildverarbeitung

7.3. Digitale Bildgestaltung

7.3.1. Das digitale Bild
7.3.2. Bildtypen
7.3.3. Farbräume
7.3.4. RGB
7.3.5. HSV und HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Indiziertes Bild

7.4. Bildgebende Systeme

7.4.1. Wie eine Digitalkamera funktioniert
7.4.2. Die richtige Belichtung für jede Situation
7.4.3. Schärfentiefe
7.4.4. Resolution
7.4.5. Bildformate
7.4.6. HDR-Modus
7.4.7. Kameras mit hoher Auflösung
7.4.8. Kameras mit hoher Geschwindigkeit

7.5. Optische Systeme

7.5.1. Optische Grundsätze
7.5.2. Konventionelle Ziele
7.5.3. Telezentrische Ziele
7.5.4. Arten von Autofokus
7.5.5. Brennweite
7.5.6. Schärfentiefe
7.5.7. Optische Verzerrung
7.5.8. Kalibrierung eines Bildes

7.6. Beleuchtungssysteme

7.6.1. Die Bedeutung der Beleuchtung
7.6.2. Frequenzgang
7.6.3. LED-Beleuchtung
7.6.4. Außenbeleuchtung
7.6.5. Arten von Beleuchtung für industrielle Anwendungen. Auswirkungen

7.7. 3D-Erfassungssysteme

7.7.1. Stereosehen
7.7.2. Triangulation
7.7.3. Strukturiertes Licht
7.7.4. Time of Flight
7.7.5. LIDAR

7.8. Multispektrale

7.8.1. Multispektralkameras
7.8.2. Hyperspektralkameras

7.9. Nicht sichtbares Nahspektrum

7.9.1. IR-Kameras
7.9.2. UV-Kameras
7.9.3. Umwandlung von nicht-sichtbar in sichtbar durch Beleuchtung

7.10. Andere Frequenzbänder

7.10.1. Röntgenstrahlen
7.10.2. Terahertzstrahlung

Modul 8. Anwendungen und Stand der Technik

8.1. Industrielle Anwendungen

8.1.1. Bildverarbeitungsbibliotheken
8.1.2. Kompaktkameras
8.1.3. PC-gestützte Systeme
8.1.4. Industrielle Robotik
8.1.5. Pick and Place 2D
8.1.6. Bin Picking
8.1.7. Qualitätskontrolle
8.1.8. Vorhandensein und Fehlen von Komponenten
8.1.9. Kontrolle der Dimensionen
8.1.10. Kontrolle der Etikettierung
8.1.11. Rückverfolgbarkeit

8.2. Autonome Fahrzeuge

8.2.1. Fahrerassistenz
8.2.2. Autonomes Fahren

8.3. Maschinelles Sehen für die Inhaltsanalyse

8.3.1. Nach Inhalt filtern
8.3.2. Moderation visueller Inhalte
8.3.3. Verfolgungssysteme
8.3.4. Identifizierung von Marken und Logos
8.3.5. Kennzeichnung und Klassifizierung von Videos
8.3.6. Erkennung von Szenenänderungen
8.3.7. Extraktion von Texten oder Credits

8.4. Medizinische Anwendungen

8.4.1. Erkennung und Lokalisierung von Krankheiten
8.4.2. Krebs und Röntgenanalyse
8.4.3. Fortschritte in der industriellen Bildverarbeitung auf der Covid-19
8.4.4. Assistenz im Operationssaal

8.5. Raumfahrtanwendungen

8.5.1. Analyse von Satellitenbildern
8.5.2. Maschinelles Sehen für die Erforschung des Weltraums
8.5.3. Mission zum Mars

8.6. Kommerzielle Anwendungen

8.6.1. Control stock
8.6.2. Videoüberwachung, Haussicherheit
8.6.3. Kameras zum Parken
8.6.4. Kameras zur Bevölkerungskontrolle
8.6.5. Radarkameras

8.7. Bildverarbeitung in der Robotik

8.7.1. Drohnen
8.7.2. AGV
8.7.3. Vision in kollaborierenden Robotern
8.7.4. Die Augen der Roboter

8.8. Erweiterte Realität

8.8.1. Funktionsweise
8.8.2. Geräte
8.8.3. Anwendungen in der Industrie
8.8.4. Kommerzielle Anwendungen

8.9. Cloud Computing

8.9.1. Plattformen für Cloud Computing
8.9.2. Des Cloud Computing zur Produktion

8.10. Forschung und Stand der Technik

8.10.1. Die wissenschaftliche Gemeinschaft
8.10.2. Woran wird gearbeitet?
8.10.3. Die Zukunft des maschinellen Sehens

Modul 9. Techniken des Maschinellen Sehens in der Robotik: Bildverarbeitung und -analyse

9.1. Computer Vision

9.1.1. Computer Vision
9.1.2. Elemente eines Computer Vision Systems
9.1.3. Mathematische Werkzeuge

9.2. Optische Sensoren für die Robotik

9.2.1. Passive optische Sensoren
9.2.2. Aktive optische Sensoren
9.2.3. Nichtoptische Sensoren

9.3. Bildakquisition

9.3.1. Bilddarstellung
9.3.2. Farbraum
9.3.3. Digitalisierungsprozess

9.4. Bildgeometrie

9.4.1. Linsenmodelle
9.4.2. Kamera-Modelle
9.4.3. Kalibrierung der Kamera

9.5. Mathematische Werkzeuge

9.5.1. Histogramm eines Bildes
9.5.2. Convolution
9.5.3. Fourier-Transformation

9.6. Vorverarbeitung von Bildern

9.6.1. Rauschanalyse
9.6.2. Bildglättung
9.6.3. Bildverbesserung

9.7. Bildsegmentierung

9.7.1. Kontur-basierte Techniken
9.7.2. Histogramm-basierte Techniken
9.7.3. Morphologische Operationen

9.8. Erkennung von Bildmerkmalen

9.8.1. Erkennung von Points of Interest
9.8.2. Merkmal-Deskriptoren
9.8.3. Merkmalsabgleich

9.9. 3D-Vision-Systeme

9.9.1. 3D-Wahrnehmung
9.9.2. Merkmalsabgleich zwischen Bildern
9.9.3. Geometrie mit mehreren Ansichten

9.10. Computer Vision basierte Lokalisierung

9.10.1. Das Problem der Roboterlokalisierung
9.10.2. Visuelle Odometrie
9.10.3. Sensorische Fusion

Modul 10. Visuelle Wahrnehmungssysteme für Roboter mit maschinellem Lernen

10.1. Unüberwachte Lernmethoden angewandt auf Computer Vision

10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similarity and Matrix Decomposition

10.2. Methoden des überwachten Lernens, angewandt auf Computer Vision

10.2.1. „Bag of Words"-Konzept
10.2.2. Support-Vektor-Maschine
10.2.3. Latent Dirichlet Allocation
10.2.4. Neuronale Netze

10.3. Tiefe neuronale Netze: Strukturen, Backbones und Transfer Learning

10.3.1. Feature-Erzeugungsschichten    

10.3.1.1. VGG
10.3.1.2. Densenet
10.3.1.3. ResNet
10.3.1.4. Inception
10.3.1.5. GoogLeNet

10.3.2. Transfer Learning
10.3.3. Die Daten. Vorbereitung für das Training

10.4. Maschinelles Sehen mit Deep Learning I: Erkennung und Segmentierung

10.4.1. Unterschiede und Gemeinsamkeiten zwischen YOLO und SSD
10.4.2. Unet
10.4.3. Andere Strukturen

10.5. Maschinelles Sehen mit Deep Learning II: Generative Adversarial Networks

10.5.1. Bild-Superauflösung mit GAN
10.5.2. Realistische Bilder erstellen
10.5.3. Scene Understanding

10.6. Lerntechniken für Lokalisierung und Kartierung in der mobilen Robotik

10.6.1. Erkennung von Schleifenschlüssen und Re-Lokalisierung
10.6.2. Magic Leap. Super Point und Super Glue
10.6.3. Depth from Monocular

10.7. Bayessche Inferenz und 3D-Modellierung

10.7.1. Bayessche Modelle und „klassisches" Lernen
10.7.2. Implizite Oberflächen mit Gaußschen Prozessen (GPIS)
10.7.3. 3D-Segmentierung mit GPIS
10.7.4. Neuronale Netzwerke für die 3D-Oberflächenmodellierung

10.8. End-to-End-Anwendungen von tiefen neuronalen Netzwerken

10.8.1. End-to-End-System. Beispiel für die Identifizierung von Personen
10.8.2. Objektmanipulation mit visuellen Sensoren
10.8.3. Bewegungserzeugung und -planung mit visuellen Sensoren

10.9. Cloud-Technologien zur Beschleunigung der Entwicklung von Deep Learning-Algorithmen

10.9.1. Verwendung von GPUs für Deep Learning
10.9.2. Agile Entwicklung mit Google IColab
10.9.3. Ferngesteuerte GPUs, Google Cloud und AWS

10.10. Einsatz von Neuronalen Netzwerken in realen Anwendungen

10.10.1. Eingebettete Systeme
10.10.2. Einsatz von neuronalen Netzwerken. Nutzung
10.10.3. Netzwerkoptimierungen beim Einsatz, Beispiel mit TensorRT

Modul 11. Visuelle SLAM. Simultane Positionsbestimmung und Kartierung von Robotern mit Hilfe von Computer Vision Techniken

11.1. Simultane Positionsbestimmung und Kartierung (SLAM)

11.1.1. Simultane Positionsbestimmung und Kartierung. SLAM
11.1.2. SLAM-Anwendungen
11.1.3. Funktionsweise von SLAM

11.2. Projektive Geometrie

11.2.1. Pin-Hole-Modell
11.2.2. Schätzung der intrinsischen Kammerparameter
11.2.3. Homographie, Grundprinzipien und Schätzung
11.2.4. Grundlegende Matrix, Prinzipien und Schätzung

11.3. Gaußsche Filter

11.3.1. Kalman-Filter
11.3.2. Informationsfilter
11.3.3. Abstimmung und Parametrisierung des Gauß-Filters

11.4. Stereo EKF-SLAM

11.4.1. Geometrie der Stereokamera
11.4.2. Merkmalsextraktion und Suche
11.4.3. Kalman-Filter für Stereo-SLAM
11.4.4. Stereo EKF-SLAM Parameterabstimmung

11.5. Monokulares EKF-SLAM

11.5.1. Parametrisierung von Landmarks in EKF-SLAM
11.5.2. Kalman-Filter für monokulares SLAM
11.5.3. Monokulare EKF-SLAM Parameterabstimmung

11.6. Erkennung von Schleifenverschlüssen

11.6.1. Brute-Force-Algorithmus
11.6.2. FABMAP
11.6.3. Abstraktion mit GIST und HOG
11.6.4. Deep Learning-Erkennung

11.7. Graph-SLAM

11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM

11.8. Direct Visual SLAM

11.8.1. Analyse des Direct Visual SLAM Algorithmus
11.8.2. LSD-SLAM
11.8.3. SVO

11.9. Visual Inertial SLAM

11.9.1. Integration von Inertialmessungen
11.9.2. Geringe Kopplung: SOFT-SLAM
11.9.3. Hohe Kopplung: Vins-Mono

11.10. Andere SLAM-Technologien

11.10.1. Anwendungen jenseits des visuellen SLAM
11.10.2. Lidar-SLAM
11.10.3. Range-Only SLAM

Modul 12. Anwendung von Technologien der virtuellen und erweiterten Realität auf die Robotik

12.1. Immersive Technologien in der Robotik

12.1.1. Virtuelle Realität in der Robotik
12.1.2. Erweiterte Realität in der Robotik
12.1.3. Gemischte Realität in der Robotik
12.1.4. Unterschied zwischen Realitäten

12.2. Konstruktion von virtuellen Umgebungen

12.2.1. Materialien und Texturen
12.2.2. Beleuchtung
12.2.3. Virtueller Klang und Geruch

12.3. Robotermodellierung in virtuellen Umgebungen

12.3.1. Geometrische Modellierung
12.3.2. Physikalische Modellierung
12.3.3. Standardisierung von Modellen

12.4. Modellierung der Roboterdynamik und -kinematik: Virtuelle Physik-Engines

12.4.1. Physik-Engines. Typologie
12.4.2. Konfiguration einer Physik-Engine
12.4.3. Physik-Engines in der Industrie

12.5. Die in der virtuellen Realität am häufigsten verwendeten Plattformen, Peripheriegeräte und Tools

12.5.1. Virtual Reality-Betrachter
12.5.2. Peripheriegeräte für die Interaktion
12.5.3. Virtuelle Sensoren

12.6. Erweiterte Realitätssysteme

12.6.1. Einfügen von virtuellen Elementen in die Realität
12.6.2. Arten von visuellen Markern
12.6.3. Technologien der erweiterten Realität

12.7. Metaversum: virtuelle Umgebungen mit intelligenten Agenten und Menschen

12.7.1. Avatar-Erstellung
12.7.2. Intelligente Agenten in virtuellen Umgebungen
12.7.3. Aufbau von VR/AR-Umgebungen für mehrere Benutzer

12.8. Erstellung von Virtual Reality-Projekten für die Robotik

12.8.1. Entwicklungsphasen von Virtual Reality-Projekten
12.8.2. Einsatz von Virtual Reality-Systemen
12.8.3. Ressourcen für die Virtual Reality

12.9. Erstellung von Augmented Reality-Projekten für die Robotik

12.9.1. Entwicklungsphasen von Augmented Reality-Projekten
12.9.2. Einsatz von Augmented Realityy-Projekten
12.9.3. Augmented Reality-Ressourcen

12.10. Roboter-Teleoperation mit mobilen Geräten

12.10.1. Mobile Mixed Reality
12.10.2. Immersive Systeme mit Sensoren für mobile Geräte
12.10.3. Beispiele für mobile Projekte

Modul 13. Roboterkommunikation und Interaktionssysteme

13.1. Spracherkennung: stochastische Systeme

13.1.1. Akustische Modellierung von Sprache
13.1.2. Verdecktes Markowmodell
13.1.3. Linguistische Modellierung von Sprache: N-Grammatiken, BNF-Grammatiken

13.2. Spracherkennung: Deep Learning

13.2.1. Tiefe neuronale Netze
13.2.2. Rekurrente neuronale Netze
13.2.3. LSTM-Zellen

13.3. Spracherkennung: Prosodie und Umgebungseffekte

13.3.1. Umgebungsgeräusche
13.3.2. Erkennung mehrerer Partner
13.3.3. Sprachpathologien

13.4. Verstehen natürlicher Sprache: Heuristische und probabilistische Systeme

13.4.1. Syntaktisch-semantisches Parsing: linguistische Regeln
13.4.2. Heuristisches regelbasiertes Verstehen
13.4.3. Probabilistische Systeme: logistische Regression und SVMs
13.4.4. Verstehen auf der Grundlage von neuronalen Netzen

13.5. Dialogmanagement: Heuristische/probabilistische Strategien

13.5.1. Absicht des Gesprächspartners
13.5.2. Vorlagenbasierter Dialog
13.5.3. Stochastisches Dialogmanagement: Bayessches Netz

13.6. Dialogmanagement: Fortgeschrittene Strategien

13.6.1. Verstärkungsbasierte Lernsysteme
13.6.2. Auf neuronalen Netzen basierende Systeme
13.6.3. Von der Sprache zur Absicht in einem einzigen Netz

13.7. Antwortgenerierung und Sprachsynthese

13.7.1. Eine Antwort verfassen: von der Idee zum kohärenten Text
13.7.2. Sprachsynthese durch Verkettung
13.7.3. Stochastische Sprachsynthese

13.8. Dialoganpassung und Kontextualisierung

13.8.1. Dialogische Initiative
13.8.2. Anpassung an den Sprecher
13.8.3. Anpassung an den Kontext des Dialogs

13.9. Roboter und soziale Interaktionen: Erkennung, Synthese und Ausdruck von Emotionen

13.9.1. Paradigmen der künstlichen Stimme: Roboterstimme und natürliche Stimme
13.9.2. Emotionserkennung und Stimmungsanalyse
13.9.3. Emotionale Sprachsynthese

13.10. Roboter und soziale Interaktionen: Fortgeschrittene multimodale Schnittstellen

13.10.1. Kombination von Sprach- und Berührungsschnittstellen
13.10.2. Erkennung und Übersetzung von Gebärdensprache
13.10.3. Visuelle Avatare: Übersetzung von Sprache in Gebärdensprache

Modul 14. Digitale Bildverarbeitung

14.1. Entwicklungsumgebung für Computer Vision

14.1.1. Bibliotheken für Computer Vision
14.1.2. Programmierumgebung
14.1.3. Visualisierungstools

14.2. Digitale Bildverarbeitung

14.2.1. Pixel-Beziehungen
14.2.2. Bildbearbeitung
14.2.3. Geometrische Transformationen

14.3. Pixel-Operationen

14.3.1. Histogramm
14.3.2. Transformationen von Histogrammen
14.3.3. Operationen an Farbbildern

14.4. Logische und arithmetische Operationen

14.4.1. Additionen und Subtraktionen
14.4.2. Produkt und Bereich
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor

14.5. Filter

14.5.1. Masken und Faltung
14.5.2. Lineare Filterung
14.5.3. Gefiltert nach Linie
14.5.4. Fourier-Analyse

14.6. Morphologische Operationen

14.6.1. Erodieren und Dilatieren
14.6.2. Schließen und Öffnen
14.6.3. Top hat und Black hat
14.6.4. Kontur-Erkennung
14.6.5. Skelett
14.6.6. Füllen von Löchern
14.6.7. Konvexe Hülle

14.7. Werkzeuge zur Bildanalyse

14.7.1. Kantenerkennung
14.7.2. Erkennung von blobs
14.7.3. Kontrolle der Dimensionen
14.7.4. Farbprüfung

14.8. Segmentierung von Objekten

14.8.1. Bildsegmentierung
14.8.2. Klassische Segmentierungstechniken
14.8.3. Echte Anwendungen

14.9. Bild-Kalibrierung

14.9.1. Bild-Kalibrierung
14.9.2. Kalibrierungsmethoden
14.9.3. Kalibrierungsprozess in einem 2D-Kamera-Roboter-System

14.10. Bildverarbeitung in realer Umgebung

14.10.1. Problemanalyse
14.10.2. Bildbearbeitung
14.10.3. Merkmalsextraktion
14.10.4. Endgültiges Ergebnis

Modul 15. Fortgeschrittene digitale Bildverarbeitung

15.1. Optische Zeichenerkennung (OCR)

15.1.1. Vorverarbeitung von Bildern
15.1.2. Erkennung von Text
15.1.3. Texterkennung

15.2. Code-Lesung

15.2.1. 1D-Codes
15.2.2. 2D-Codes
15.2.3. Anwendungen

15.3. Suche nach Mustern

15.3.1. Suche nach Mustern
15.3.2. Muster auf Basis von Graustufen
15.3.3. Konturbasierte Muster
15.3.4. Muster auf der Grundlage geometrischer Formen
15.3.5. Andere Techniken

15.4. Objektverfolgung mit konventionellem Sehen

15.4.1. Hintergrund-Extraktion
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Optical flow

15.5. Gesichtserkennung

15.5.1. Facial Landmark Detection
15.5.2. Anwendungen
15.5.3. Gesichtserkennung
15.5.4. Erkennung von Emotionen

15.6. Überblick und Ausrichtungen

15.6.1. Stitching
15.6.2. Bildkomposition
15.6.3. Fotomontage

15.7. High Dinamic Range (HDR) and Photometric Stereo

15.7.1. Erhöhter Dynamikbereich
15.7.2. Bildkomposition zur Konturverbesserung
15.7.3. Techniken für den Einsatz von dynamischen Anwendungen

15.8. Bildkompression

15.8.1. Bildkompression
15.8.2. Kompressortypen
15.8.3. Techniken zur Bildkomprimierung

15.9. Videoverarbeitung

15.9.1. Bildsequenzen
15.9.2. Videoformate und Codecs
15.9.3. Lesen eines Videos
15.9.4. Rahmenverarbeitung

15.10. Reale Anwendung der Bildverarbeitung

15.10.1. Problemanalyse
15.10.2. Bildbearbeitung
15.10.3. Merkmalsextraktion
15.10.4. Endgültiges Ergebnis

Modul 16. 3D-Bildverarbeitung

16.1. 3D Bild

16.1.1. 3D Bild
16.1.2. 3D-Bildverarbeitungssoftware und Visualisierungen
16.1.3. Metrologie-Software

16.2. Open 3D

16.2.1. Bibliothek für 3D-Datenverarbeitung
16.2.2. Eigenschaften
16.2.3. Installation und Nutzung

16.3. Daten

16.3.1. 2D-Bildtiefenkarten
16.3.2. Pointclouds
16.3.3. Normalitäten
16.3.4. Oberflächen

16.4. Visualisierung

16.4.1. Datenvisualisierung
16.4.2. Kontrollen
16.4.3. Web-Visualisierung

16.5. Filter

16.5.1. Abstand zwischen Punkten, Outliers eliminieren
16.5.2. Paso-Alto-Filter
16.5.3. Downsampling

16.6. Geometrie und Merkmalsextraktion

16.6.1. Extrahieren eines Profils
16.6.2. Messung der Tiefe
16.6.3. Volumen
16.6.4. Geometrische 3D-Formen
16.6.5. Pläne
16.6.6. Projektion eines Punktes
16.6.7. Geometrische Abstände
16.6.8. Kd Tree
16.6.9. Features 3D

16.7. Registrierung und Meshing

16.7.1. Verkettung
16.7.2. ICP
16.7.3. Ransac 3D

16.8. 3D-Objekterkennung

16.8.1. Suche nach einem Objekt in der 3D-Szene
16.8.2. Segmentierung
16.8.3. Bin picking

16.9. Oberflächenanalyse

16.9.1. Smoothing
16.9.2. Einstellbare Oberflächen
16.9.3. Octree

16.10. Triangulation

16.10.1. Von Mesh zu Point Cloud
16.10.2. Triangulation von Tiefenkarten
16.10.3. Triangulation von ungeordneten PointClouds

Modul 17. Faltungsnetzwerke und Bildklassifizierung

17.1. Faltungsneuronale Netze

17.1.1. Einführung
17.1.2. Faltung
17.1.3. CNN Building Blocks

17.2. Arten von CNN-Bezügen

17.2.1. Convolutional
17.2.2. Activation
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected

17.3. Metriken

17.3.1. Confusion Matrix
17.3.2. Accuracy
17.3.3. Präzision
17.3.4. Recall
17.3.5. F1 Score
17.3.6. ROC Curve
17.3.7. AUC

17.4. Wichtigste Architekturen

17.4.1. AlexNet
17.4.2. VGG
17.4.3. Resnet
17.4.4. GoogleLeNet

17.5. Klassifizierung von Bildern

17.5.1. Einführung
17.5.2. Analyse der Daten
17.5.3. Vorbereitung der Daten
17.5.4. Training des Modells
17.5.5. Modell-Validierung

17.6. Praktische Überlegungen zum CNN-Training

17.6.1. Auswahl des Optimierers
17.6.2. Learning Rate Scheduler
17.6.3. Überprüfung der Trainings-Pipeline
17.6.4. Training mit Regularisierung

17.7. Bewährte Verfahren beim Deep Learning

17.7.1. Transfer Learning
17.7.2. Fine Tuning
17.7.3. Data Augmentation

17.8. Statistische Auswertung der Daten

17.8.1. Anzahl der Datensätze
17.8.2. Anzahl der Etiketten
17.8.3. Anzahl der Bilder
17.8.4. Datenausgleich

17.9. Deployment

17.9.1. Speichern und Laden von Modellen
17.9.2. Onnx
17.9.3. Inferenz

17.10. Fallstudie: Bildklassifizierung

17.10.1. Datenanalyse und -aufbereitung
17.10.2. Testen der Trainings-Pipeline
17.10.3. Training des Modells
17.10.4. Modell-Validierung

Modul 18. Erkennung von Objekten

18.1. Objekterkennung und -verfolgung

18.1.1. Erkennung von Objekten
18.1.2. Anwendungsbeispiele
18.1.3. Objektverfolgung
18.1.4. Anwendungsbeispiele
18.1.5. Oclusiones,Rigid and No Rigid Poses

18.2. Bewertungsmetriken

18.2.1. IOU - Intersection Over Union
18.2.2. Confidence Score
18.2.3. Recall
18.2.4. Präzision
18.2.5. Recall–Precision Curve
18.2.6. Mean Average Precision (mAP)

18.3. Traditionelle Methoden

18.3.1. Sliding window
18.3.2. Viola Detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)

18.4. Datasets

18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge

18.5. Two Shot Object Detector

18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN

18.6. Single Shot Object Detector

18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet

18.7. Backbones

18.7.1. VGG
18.7.2. ResNet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet

18.8. Object Tracking

18.8.1. Klassische Ansätze
18.8.2. Partikelfilter
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort

18.9. Bereitstellung

18.9.1. Plattform für Datenverarbeitung
18.9.2. Backbone Auswahl
18.9.3. Framework Auswahl
18.9.4. Optimierung des Modells
18.9.5. Modellversionierung

18.10. Studie: Erkennung und Überwachung von Personen

18.10.1. Erkennung von Personen
18.10.2. Verfolgung von Personen
18.10.3. Re-Identifizierung
18.10.4. Zählen von Menschen in Menschenmengen

Modul 19. Bildsegmentierung mit Deep Learning

19.1. Objekterkennung und Segmentierung

19.1.1. Semantische Segmentierung    

19.1.1.1. Anwendungsfälle von Semantische Segmentierung

19.1.2. Instanziierte Segmentierung    

19.1.2.1. Anwendungsfälle instanziierte Segmentierung

19.2. Bewertungsmetriken

19.2.1. Ähnlichkeiten mit anderen Methoden
19.2.2. Pixel Accuracy
19.2.3. Dice Coefficient (F1 Score)

19.3. Kostenfunktionen

19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Andere Funktionen

19.4. Traditionelle Segmentierungsmethoden

19.4.1. Schwellenwertanwendung mit Otsu und Riddlen
19.4.2. Selbstorganisierte Karten
19.4.3. GMM-EM algorithm

19.5. Semantische Segmentierung mit Deep Learning: FCN

19.5.1. FCN
19.5.2. Architektur
19.5.3. FCN Applikationen

19.6. Semantische Segmentierung mit Deep Learning: U-NET

19.6.1. U-NET
19.6.2. Architektur
19.6.3. Applikation U-NET

19.7. Semantische Segmentierung mit Deep Learning: Deep Lab

19.7.1. Deep Lab
19.7.2. Architektur
19.7.3. Deep Lab Applikation

19.8. Instantiierte Segmentierung mit Deep Learning: Mask RCNN

19.8.1. Mask RCNN
19.8.2. Architektur
19.8.3. Implementierung eines Mas RCNN

19.9. Video-Segmentierung

19.9.1. STFCN
19.9.2. Semantisches Video CN
19.9.3. Clockwork Convnets
19.9.4. Low-Latency

19.10. Segmentierung von Punktwolken

19.10.1. Punktwolke
19.10.2. PointNet
19.10.3. A-CNN

Modul 20. Fortgeschrittene Bildsegmentierung und fortgeschrittene Computer Vision Techniken

20.1. Datenbank für allgemeine Segmentierungsprobleme

20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset

20.2. Semantische Segmentierung in der Medizin

20.2.1. Semantische Segmentierung in der Medizin
20.2.2. Datasets für medizinische Probleme
20.2.3. Praktische Anwendung

20.3. Anmerkungswerkzeuge

20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Andere Werkzeuge

20.4. Segmentierungstools mit verschiedenen Frameworks

20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Andere

20.5. Projekt antischen Segmentierung. Die Daten, Phase 1

20.5.1. Problemanalyse
20.5.2. Eingabequelle für Daten
20.5.3. Analyse der Daten
20.5.4. Vorbereitung der Daten

20.6. Projekt antischen Segmentierung. Training, Phase 2

20.6.1. Auswahl des Algorithmus
20.6.2. Training
20.6.3. Bewertung

20.7. Projekt antischen Segmentierung. Ergebnisse, Phase 3

20.7.1. Feineinstellung
20.7.2. Präsentation der Lösung
20.7.3. Schlussfolgerungen

20.8. Autokodierer

20.8.1. Autokodierer
20.8.2. Architektur eines Autokodierer
20.8.3. Rauschunterdrückungs-Autoencoder
20.8.4. Automatischer Einfärbe-Autoencoder

20.9. Generative adversarische Netze (GANs)

20.9.1. Generative adversarische Netze (GAN)
20.9.2. DCGAN-Architektur
20.9.3. Bedingte GAN-Architektur

20.10. Verbesserte generative adversarische Netze

20.10.1. Überblick über das Problem
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN

##IMAGE##

Verbessern Sie Ihre Fähigkeiten in den Bereichen Roboterdesign, -programmierung und -steuerung mithilfe von Algorithmen für maschinelles Sehen und maschinelles Lernen"

Weiterbildender Masterstudiengang in Robotik und Maschinelles Sehen

Robotik und Computer Vision sind zwei Bereiche, die sich ständig weiterentwickeln und die Art und Weise revolutioniert haben, wie wir heute mit Technologie interagieren. An der TECH Technologischen Universität haben wir in Zusammenarbeit mit der Fakultät für Informatik einen Weiterbildenden Masterstudiengang in Robotik und Maschinelles Sehen entwickelt, um Fachleute auf die neuesten Trends und Fortschritte in diesen Bereichen vorzubereiten. Dieses virtuelle Weiterbildungsprogramm bietet ein breites Spektrum an Inhalten, von den theoretischen Grundlagen bis hin zur praktischen Anwendung von Techniken und Algorithmen bei der Entwicklung von Robotik- und Bildverarbeitungssystemen.

Mit einem interdisziplinären Ansatz bildet unser Weiterbildender Masterstudiengang in Robotik und Maschinelles Sehen die Teilnehmer darin fort, die wichtigsten Prinzipien und Konzepte der Robotik und des maschinellen Sehens zu verstehen sowie die Anwendung fortgeschrittener Techniken bei der Lösung von Problemen in der realen Welt. Die Teilnehmer werden die Möglichkeit haben, Themen wie visuelle Wahrnehmung, autonome Navigation, maschinelles Lernen und Mensch-Roboter-Interaktion zu erforschen, um nur einige zu nennen. Darüber hinaus verfügt unser Programm über ein hoch qualifiziertes Dozententeam mit Erfahrung in der Forschung und Anwendung von Robotik und Computer Vision in verschiedenen industriellen und technologischen Bereichen.