Universitäre Qualifikation
Die größte Fakultät für Informatik der Welt"
Präsentation
Entwickeln Sie grundlegende Fähigkeiten in den Bereichen Robotik und Maschinelles Sehen, indem Sie sich jetzt in diesen weiterbildenden Masterstudiengang von TECH einschreiben”

Der Aufstieg von Künstlicher Intelligenz und Robotik verändert die technologische, wirtschaftliche und soziale Landschaft weltweit. Eine Spezialisierung in Bereichen wie maschinelles Sehen ist von entscheidender Bedeutung, um in dieser Ära des rasanten Fortschritts und der disruptiven Veränderungen die Nase vorn zu haben. Die zunehmende Interaktion zwischen Maschinen und Menschen sowie die Notwendigkeit, visuelle Informationen effizient zu verarbeiten, erfordern hochqualifizierte Fachleute, die sich diesen Herausforderungen stellen und Innovationen vorantreiben können.
Der Weiterbildende Masterstudiengang in Robotik und Maschinelles Sehen bietet eine umfassende Weiterbildung in diesen aufstrebenden Disziplinen und deckt unter anderem Themen wie Augmented Reality, Künstliche Intelligenz und visuelle Informationsverarbeitung in Maschinen ab. Die Studenten profitieren von einem theoretisch-praktischen Ansatz, indem sie die neuesten Entwicklungen in der Robotik und dem maschinellen Sehen kennenlernen und lernen, wie sie dieses Wissen in realen Umgebungen anwenden können.
Darüber hinaus ist das Programm zu 100% online, so dass die Studenten ihr Studium an ihre persönlichen und beruflichen Umstände anpassen können, was die Vereinbarkeit des Lernens mit ihren eigenen Verpflichtungen erleichtert. Sie haben Zugang zu qualitativ hochwertigem Lehrmaterial, wie z. B. Videozusammenfassungen, essentielle Lektüre und vertiefende Videos, die ihnen einen umfassenden Überblick über Robotik und Maschinelles Sehen vermitteln.
Somit ist der Weiterbildende Masterstudiengang in Robotik und Maschinelles Sehen eine einzigartige Gelegenheit für Informatiker, die sich auf einem hart umkämpften Arbeitsmarkt profilieren und spezielle Fähigkeiten in einem Bereich mit großem Wachstumspotenzial erwerben möchten.
Beherrschen Sie Techniken des maschinellen Sehens und werden Sie Experte für Bildanalyse und 3D-Vision-Systeme”
Dieser Weiterbildender masterstudiengang in Robotik und Maschinelles Sehen enthält das vollständigste und aktuellste Programm auf dem Markt. Die hervorstechendsten Merkmale sind:
- Die Entwicklung von Fallstudien, die von Experten der Informatik präsentiert werden
- Der anschauliche, schematische und äußerst praxisnahe Inhalt vermittelt alle für die berufliche Praxis unverzichtbaren wissenschaftlichen und praktischen Informationen
- Praktische Übungen, bei denen der Selbstbewertungsprozess zur Verbesserung des Lernens genutzt werden kann
- Sein besonderer Schwerpunkt liegt auf innovativen Methoden bei der Entwicklung von Robotern und maschinellem Sehen
- Theoretische Vorträge, Fragen an den Experten, Diskussionsforen zu kontroversen Themen und individuelle Reflexionsarbeit
- Die Verfügbarkeit des Zugangs zu Inhalten von jedem festen oder tragbaren Gerät mit Internetanschluss
Entdecken Sie, wie die Robotertechnologie in verschiedenen Bereichen wie der Medizin und der Weltraumforschung eingesetzt werden kann, was Ihren Wertbeitrag erheblich steigert”
Zu den Dozenten gehören Fachleute aus dem Bereich der Ingenieurwissenschaften, die ihre Erfahrungen in dieses Programm einbringen, sowie anerkannte Spezialisten aus führenden Unternehmen und renommierten Universitäten.
Die multimedialen Inhalte, die mit den neuesten Bildungstechnologien entwickelt wurden, ermöglichen der Fachkraft ein situiertes und kontextbezogenes Lernen, d. h. eine simulierte Umgebung, die ein immersives Fortbildung bietet, die auf die Ausführung von realen Situationen ausgerichtet ist.
Das Konzept dieses Programms konzentriert sich auf problemorientiertes Lernen, bei dem die Fachkraft versuchen muss, die verschiedenen Situationen aus der beruflichen Praxis zu lösen, die während des gesamten Studiengangs gestellt werden. Dabei wird sie durch ein innovatives interaktives Videosystem unterstützt, das von anerkannten Experten entwickelt wurde.
Bringen Sie Ihre Projekte voran, indem Sie die Anwendung von künstlicher Intelligenz und maschinellem Lernen in der Robotik erforschen”

Verbessern Sie Ihre Fähigkeiten bei Planungs- und Steuerungsalgorithmen für die Entwicklung intelligenter und effizienter Roboter”
Lehrplan
Der Weiterbildende Masterstudiengang in Robotik und Maschinelles Sehen ist so aufgebaut, dass eine umfassende und spezialisierte Weiterbildung in diesem Bereich gewährleistet ist. Das Programm erstreckt sich über mehrere Module, die mit grundlegenden Konzepten beginnen und nach und nach zu komplexeren und spezifischeren Themen übergehen. Die Studenten haben die Möglichkeit, sich mit der Konstruktion, Programmierung und Steuerung von Robotern sowie mit Bildverarbeitungsalgorithmen und Techniken des maschinellen Lernens vertraut zu machen.

Verbessern Sie Ihr Studium durch einen praktischen und theoretischen Ansatz, der es Ihnen ermöglicht, sich echten Herausforderungen in der Welt der Robotik zu stellen”
Modul 1. Robotik. Roboterdesign und -modellierung
1.1. Robotik und Industrie 4.0
1.1.1. Robotik und Industrie 4.0
1.1.2. Anwendungsbereiche und Anwendungsfälle
1.1.3. Teilbereiche des Fachwissens in der Robotik
1.2. Roboter-Hardware und Software-Architekturen
1.2.1. Hardware-Architekturen und Echtzeit
1.2.2. Roboter-Software-Architekturen
1.2.3. Kommunikationsmodelle und Middleware-Technologien
1.2.4. Software-Integration mit dem Robot Operating System (ROS)
1.3. Mathematische Modellierung von Robotern
1.3.1. Mathematische Darstellung von starren Körpern
1.3.2. Rotationen und Translationen
1.3.3. Hierarchische Zustandsdarstellung
1.3.4. Verteilte Zustandsdarstellung in ROS (TF-Bibliothek)
1.4. Roboterkinematik und -dynamik
1.4.1. Kinematik
1.4.2. Dynamik
1.4.3. Unterbetätigte Roboter
1.4.4. Redundante Roboter
1.5. Modellierung und Simulation von Robotern
1.5.1. Technologien zur Robotermodellierung
1.5.2. Robotermodellierung mit URDF
1.5.3. Roboter-Simulation
1.5.4. Modellierung mit Gazebo-Simulator
1.6. Manipulator-Roboter
1.6.1. Arten von Manipulator-Robotern
1.6.2. Kinematik
1.6.3. Dynamik
1.6.4. Simulation
1.7. Mobile Bodenroboter
1.7.1. Arten von mobilen Bodenrobotern
1.7.2. Kinematik
1.7.3. Dynamik
1.7.4. Simulation
1.8. Mobile Flugroboter
1.8.1. Arten von mobilen Flugrobotern
1.8.2. Kinematik
1.8.3. Dynamik
1.8.4. Simulation
1.9. Mobile Wasserroboter
1.9.1. Arten von mobilen Wasserrobotern
1.9.2. Kinematik
1.9.3. Dynamik
1.9.4. Simulation
1.10. Bio-inspirierte Roboter
1.10.1. Humanoide
1.10.2. Roboter mit vier oder mehr Beinen
1.10.3. Modulare Roboter
1.10.4. Roboter mit flexiblen Teilen (Soft-Robotics)
Modul 2. Intelligente Agenten. Anwendung von Künstlicher Intelligenz auf Roboter und Softbots
2.1. Intelligente Agenten und künstliche Intelligenz
2.1.1. Intelligente Roboter. Künstliche Intelligenz
2.1.2. Intelligente Agenten
2.1.2.1. Hardware-Agenten. Robots
2.1.2.2. Software-Agenten. Softbots
2.1.3. Robotik-Anwendungen
2.2. Die Verbindung zwischen Gehirn und Algorithmus
2.2.1. Biologische Inspiration für künstliche Intelligenz
2.2.2. In Algorithmen implementiertes logisches Denken. Typologie
2.2.3. Erklärbarkeit von Ergebnissen in Algorithmen der Künstlichen Intelligenz
2.2.4. Entwicklung von Algorithmen bis hin zum Deep Learning
2.3. Lösungsraum-Suchalgorithmen
2.3.1. Elemente der Lösungsraumsuche
2.3.2. Lösungsraum-Suchalgorithmen bei Problemen der Künstlichen Intelligenz
2.3.3. Anwendungen von Such- und Optimierungsalgorithmen
2.3.4. Suchalgorithmen angewandt auf maschinelles Lernen
2.4. Automatisches Lernen
2.4.1. Automatisches Lernen
2.4.2. Überwachte Lernalgorithmen
2.4.3. Unüberwachte Lernalgorithmen
2.4.4. Algorithmen für Verstärkungslernen
2.5. Überwachtes Lernen
2.5.1. Methoden des überwachten Lernens
2.5.2. Entscheidungsbäume für die Klassifizierung
2.5.3. Support-Vektor-Maschinen
2.5.4. Künstliche neuronale Netzwerke
2.5.5. Anwendungen des überwachten Lernens
2.6. Unüberwachtes Lernen
2.6.1. Unüberwachtes Lernen
2.6.2. Kohonen-Netze
2.6.3. Selbstorganisierende Karten
2.6.4. K-Means Algorithmus
2.7. Verstärkungslernen
2.7.1. Verstärkungslernen
2.7.2. Agenten auf Basis von Markov-Prozessen
2.7.3. Algorithmen für Verstärkungslernen
2.7.4. Verstärkungslernen angewandt auf Robotik
2.8. Probabilistische Inferenz
2.8.1. Probabilistische Inferenz
2.8.2. Arten der Inferenz und Definition der Methode
2.8.3. Bayessche Inferenz als Fallstudie
2.8.4. Nichtparametrische Inferenztechniken
2.8.5. Gaußsche Filter
2.9. Von der Theorie zur Praxis: Die Entwicklung eines intelligenten Roboteragenten
2.9.1. Einbindung von Modulen des überwachten Lernens in einen Roboteragenten
2.9.2. Einbindung von Modulen des Verstärkungslernens in einen Roboteragenten
2.9.3. Architektur eines durch künstliche Intelligenz gesteuerten Roboteragenten
2.9.4. Professionelle Werkzeuge für die Implementierung des intelligenten Agenten
2.9.5. Phasen der Implementierung von KI-Algorithmen in Roboteragenten
Modul 3. Deep Learning
3.1. Künstliche Intelligenz
3.1.1. Machine Learning
3.1.2. Deep Learning
3.1.3. Die Explosion des Deep Learning. Wieso jetzt?
3.2. Neuronale Netze
3.2.1. Das neuronale Netz
3.2.2. Einsatz von neuronalen Netzen
3.2.3. Lineare Regression und Perceptron
3.2.4. Forward Propagation
3.2.5. Backpropagation
3.2.6. Feature Vectors
3.3. Loss Functions
3.3.1. Loss Functions
3.3.2. Typen von Loss Functions
3.3.3. Auswahl von Loss Functions
3.4. Aktivierungsfunktionen
3.4.1. Aktivierungsfunktionen
3.4.2. Lineare Funktionen
3.4.3. Nichtlineare Funktionen
3.4.4. Output vs. Hidden Layer Activation Functions
3.5. Regularisierung und Standardisierung
3.5.1. Regularisierung und Standardisierung
3.5.2. Overfitting and Data Augmentation
3.5.3. Regularization Methods: L1, L2 and Dropout
3.5.4. Normalization Methods: Batch, Weight, Layer
3.6. Optimierung
3.6.1. Gradient Descent
3.6.2. Stochastic Gradient Descent
3.6.3. Mini Batch Gradient Descent
3.6.4. Momentum
3.6.5. Adam
3.7. Hyperparameter Tuning und Gewichte
3.7.1. Hyperparameter
3.7.2. Batch Size vs. Learning Rate vs. Step Decay
3.7.3. Gewichte
3.8. Bewertungsmetriken für neuronale Netze
3.8.1. Accuracy
3.8.2. Dice Coefficient
3.8.3. Sensitivity vs. Specificity/Recall vs. Precision
3.8.4. Kurve ROC (AUC)
3.8.5. F1-score
3.8.6. Matrix-Verwirrung
3.8.7. Cross-Validation
3.9. Frameworks und Hardware
3.9.1. Tensor Flow
3.9.2. Pytorch
3.9.3. Caffe
3.9.4. Keras
3.9.5. Hardware für die Trainingsphase
3.10. Erstellung neuronaler Netze - Training und Validierung
3.10.1. Dataset
3.10.2. Aufbau des Netzes
3.10.3. Training
3.10.4. Visualisierung der Ergebnisse
Modul 4. Robotik in der Automatisierung von industriellen Prozessen
4.1. Entwurf von automatisierten Systemen
4.1.1. Hardware-Architekturen
4.1.2. Speicherprogrammierbare Steuerungen
4.1.3. Industrielle Kommunikationsnetzwerke
4.2. Fortgeschrittenes elektrisches Design I: Automatisierung
4.2.1. Entwurf von Schalttafeln und Symbologie
4.2.2. Strom- und Steuerkreise. Harmonische
4.2.3. Schutz- und Erdungselemente
4.3. Fortgeschrittenes elektrisches Design II: Determinismus und Sicherheit
4.3.1. Maschinensicherheit und Redundanz
4.3.2. Sicherheitsrelais und Auslöser
4.3.3. Sicherheits-PLCs
4.3.4. Sichere Netzwerke
4.4. Elektrische Betätigung
4.4.1. Motoren und Servomotoren
4.4.2. Frequenzumrichter und Steuerungen
4.4.3. Elektrisch betriebene Industrierobotik
4.5. Hydraulische und pneumatische Betätigung
4.5.1. Hydraulische Konstruktion und Symbolik
4.5.2. Pneumatischer Aufbau und Symbolik
4.5.3. ATEX-Umgebungen in der Automatisierung
4.6. Messwertaufnehmer in der Robotik und Automation
4.6.1. Positions- und Geschwindigkeitsmessung
4.6.2. Kraft- und Temperaturmessung
4.6.3. Messung der Anwesenheit
4.6.4. Sensoren für das Sehen
4.7. Programmierung und Konfiguration von speicherprogrammierbaren Steuerungen PLCs
4.7.1. PLC-Programmierung: LD
4.7.2. PLC-Programmierung: ST
4.7.3. PLC-Programmierung: FBD und CFC
4.7.4. PLC-Programmierung: SFC
4.8. Programmierung und Konfiguration von Geräten in Industrieanlagen
4.8.1. Programmierung von Antrieben und Steuerungen
4.8.2. HMI-Programmierung
4.8.3. Manipulator-Roboter-Programmierung
4.9. Programmierung und Konfiguration von industriellen Computeranlagen
4.9.1. Programmierung von Bildverarbeitungssystemen
4.9.2. SCADA/Software-Programmierung
4.9.3. Netzwerk-Konfiguration
4.10. Implementierung von Automatismen
4.10.1. Entwurf einer Zustandsmaschine
4.10.2. Implementierung von Zustandsautomaten in PLCs
4.10.3. Implementierung von analogen PID-Regelsystemen in PLCs
4.10.4. Wartung der Automatisierung und Codehygiene
4.10.5. Simulation von Automatismen und Anlagen
Modul 5. Automatische Steuerungssysteme in der Robotik
5.1. Analyse und Entwurf von nichtlinearen Systemen
5.1.1. Analyse und Modellierung nichtlinearer Systeme
5.1.2. Rückkopplungskontrolle
5.1.3. Linearisierung durch Rückkopplung
5.2. Entwurf von Kontrolltechniken für fortgeschrittene nichtlineare Systeme
5.2.1. Sliding Mode Steuerung (Sliding Mode Control)
5.2.2. Lyapunov und Backstepping-Steuerung
5.2.3. Passivitätsbasierte Steuerung
5.3. Architekturen der Steuerung
5.3.1. Robotik-Paradigma
5.3.2. Architekturen der Steuerung
5.3.3. Anwendungen und Beispiele von Kontrollarchitekturen
5.4. Bewegungssteuerung für Roboterarme
5.4.1. Kinematische und dynamische Modellierung
5.4.2. Steuerung im Gelenkraum
5.4.3. Kontrolle im operativen Bereich
5.5. Steuerung der Aktuatorkraft
5.5.1. Kontrolle der Kraft
5.5.2. Impedanz-Steuerung
5.5.3. Hybride Steuerung
5.6. Mobile Bodenroboter
5.6.1. Gleichungen der Bewegung
5.6.2. Steuerungstechniken für Bodenroboter
5.6.3. Mobile Manipulatoren
5.7. Mobile Flugroboter
5.7.1. Gleichungen der Bewegung
5.7.2. Steuerungstechniken für Flugroboter
5.7.3. Manipulation in der Luft
5.8. Steuerung basierend auf Techniken des maschinellen Lernens
5.8.1. Kontrolle durch überwachtes Lernen
5.8.2. Kontrolle durch Reinforcement Learning
5.8.3. Kontrolle durch überwachtes Lernen
5.9. Vision-basierte Kontrolle
5.9.1. Positionsbasiertes Visual Servoing
5.9.2. Bildbasiertes Visual Servoing
5.9.3. Hybrides Visual Servoing
5.10. Prädiktive Steuerung
5.10.1. Modelle und Zustandsschätzung
5.10.2. MPC angewandt auf mobile Roboter
5.10.3. MPC angewandt auf UAVs
Modul 6. Algorithmen zur Roboterplanung
6.1. Klassische Algorithmen zur Planung
6.1.1. Diskrete Planung: Zustandsraum
6.1.2. Planungsprobleme in der Robotik. Modelle für Robotersysteme
6.1.3. Klassifizierung von Planern
6.2. Das Problem der Trajektorienplanung bei mobilen Robotern
6.2.1. Formen der Umgebungsdarstellung: Graphen
6.2.2. Algorithmen zur Graphensuche
6.2.3. Eingabe von Kosten in Netzwerke
6.2.4. Suchalgorithmen in schweren Graphen
6.2.5. Algorithmen mit beliebigem Winkelansatz
6.3. Planung in hochdimensionalen Robotersystemen
6.3.1. Hochdimensionale Robotik-Probleme: Manipulatoren
6.3.2. Direktes/inverses kinematisches Modell
6.3.3. Sampling-Planungsalgorithmen PRM und RRT
6.3.4. Planung unter dynamischen Beschränkungen
6.4. Optimale Stichprobenplanung
6.4.1. Probleme der stichprobenbasierten Planer
6.4.2. RRT* probabilistisches Optimalitätskonzept
6.4.3. Wiederverbindungsschritt: dynamische Beschränkungen
6.4.4. CForest. Parallelisierung der Planung
6.5. Tatsächliche Implementierung eines Bewegungsplanungssystems
6.5.1. Globales Planungsproblem. Dynamische Umgebungen
6.5.2. Aktionskreislauf, Sensorisierung. Beschaffung von Informationen aus der Umgebung
6.5.3. Lokale und globale Planung
6.6. Koordination in Multi-Roboter-Systemen I: Zentralisiertes System
6.6.1. Problem der Multi-Roboter-Koordination
6.6.2. Kollisionserkennung und -auflösung: Trajektorienmodifikation mit Genetischen Algorithmen
6.6.3. Andere bio-inspirierte Algorithmen: Partikelschwärmen und Feuerwerk
6.6.4. Algorithmus zur Kollisionsvermeidung durch Wahl des Manövers
6.7. Koordination in Multi-Roboter-Systemen II: Verteilte Ansätze I
6.7.1. Verwendung von komplexen Zielfunktionen
6.7.2. Pareto-Front
6.7.3. Multi-Objektive evolutionäre Algorithmen
6.8. Koordination in Multi-Roboter-Systemen III: Verteilte Ansätze II
6.8.1. Planungssysteme der Ordnung 1
6.8.2. ORCA-Algorithmus
6.8.3. Hinzufügen von kinematischen und dynamischen Einschränkungen in ORCA
6.9. Theorie der Entscheidungsplanung
6.9.1. Entscheidungstheorie
6.9.2. Sequentielle Entscheidungssysteme
6.9.3. Sensoren und Informationsräume
6.9.4. Planung der Unsicherheit von Sensoren und Aktoren
6.10. Planungssysteme mit Verstärkungslernen
6.10.1. Ermittlung der erwarteten Belohnung eines Systems
6.10.2. Techniken des Lernens mit mittlerer Belohnung
6.10.3. Inverses Verstärkungslernen
Modul 7. Maschinelles Sehen
7.1. Menschliche Wahrnehmung
7.1.1. Das menschliche Sehsystem
7.1.2. Farbe
7.1.3. Sichtbare und nicht sichtbare Frequenzen
7.2. Chronik der industriellen Bildverarbeitung
7.2.1. Grundsätze
7.2.2. Evolution
7.2.3. Die Bedeutung der industriellen Bildverarbeitung
7.3. Digitale Bildgestaltung
7.3.1. Das digitale Bild
7.3.2. Bildtypen
7.3.3. Farbräume
7.3.4. RGB
7.3.5. HSV und HSL
7.3.6. CMY-CMYK
7.3.7. YCbCr
7.3.8. Indiziertes Bild
7.4. Bildgebende Systeme
7.4.1. Wie eine Digitalkamera funktioniert
7.4.2. Die richtige Belichtung für jede Situation
7.4.3. Schärfentiefe
7.4.4. Resolution
7.4.5. Bildformate
7.4.6. HDR-Modus
7.4.7. Kameras mit hoher Auflösung
7.4.8. Kameras mit hoher Geschwindigkeit
7.5. Optische Systeme
7.5.1. Optische Grundsätze
7.5.2. Konventionelle Ziele
7.5.3. Telezentrische Ziele
7.5.4. Arten von Autofokus
7.5.5. Brennweite
7.5.6. Schärfentiefe
7.5.7. Optische Verzerrung
7.5.8. Kalibrierung eines Bildes
7.6. Beleuchtungssysteme
7.6.1. Die Bedeutung der Beleuchtung
7.6.2. Frequenzgang
7.6.3. LED-Beleuchtung
7.6.4. Außenbeleuchtung
7.6.5. Arten von Beleuchtung für industrielle Anwendungen. Auswirkungen
7.7. 3D-Erfassungssysteme
7.7.1. Stereosehen
7.7.2. Triangulation
7.7.3. Strukturiertes Licht
7.7.4. Time of Flight
7.7.5. LIDAR
7.8. Multispektrale
7.8.1. Multispektralkameras
7.8.2. Hyperspektralkameras
7.9. Nicht sichtbares Nahspektrum
7.9.1. IR-Kameras
7.9.2. UV-Kameras
7.9.3. Umwandlung von nicht-sichtbar in sichtbar durch Beleuchtung
7.10. Andere Frequenzbänder
7.10.1. Röntgenstrahlen
7.10.2. Terahertzstrahlung
Modul 8. Anwendungen und Stand der Technik
8.1. Industrielle Anwendungen
8.1.1. Bildverarbeitungsbibliotheken
8.1.2. Kompaktkameras
8.1.3. PC-gestützte Systeme
8.1.4. Industrielle Robotik
8.1.5. Pick and Place 2D
8.1.6. Bin Picking
8.1.7. Qualitätskontrolle
8.1.8. Vorhandensein und Fehlen von Komponenten
8.1.9. Kontrolle der Dimensionen
8.1.10. Kontrolle der Etikettierung
8.1.11. Rückverfolgbarkeit
8.2. Autonome Fahrzeuge
8.2.1. Fahrerassistenz
8.2.2. Autonomes Fahren
8.3. Maschinelles Sehen für die Inhaltsanalyse
8.3.1. Nach Inhalt filtern
8.3.2. Moderation visueller Inhalte
8.3.3. Verfolgungssysteme
8.3.4. Identifizierung von Marken und Logos
8.3.5. Kennzeichnung und Klassifizierung von Videos
8.3.6. Erkennung von Szenenänderungen
8.3.7. Extraktion von Texten oder Credits
8.4. Medizinische Anwendungen
8.4.1. Erkennung und Lokalisierung von Krankheiten
8.4.2. Krebs und Röntgenanalyse
8.4.3. Fortschritte in der industriellen Bildverarbeitung auf der Covid-19
8.4.4. Assistenz im Operationssaal
8.5. Raumfahrtanwendungen
8.5.1. Analyse von Satellitenbildern
8.5.2. Maschinelles Sehen für die Erforschung des Weltraums
8.5.3. Mission zum Mars
8.6. Kommerzielle Anwendungen
8.6.1. Control stock
8.6.2. Videoüberwachung, Haussicherheit
8.6.3. Kameras zum Parken
8.6.4. Kameras zur Bevölkerungskontrolle
8.6.5. Radarkameras
8.7. Bildverarbeitung in der Robotik
8.7.1. Drohnen
8.7.2. AGV
8.7.3. Vision in kollaborierenden Robotern
8.7.4. Die Augen der Roboter
8.8. Erweiterte Realität
8.8.1. Funktionsweise
8.8.2. Geräte
8.8.3. Anwendungen in der Industrie
8.8.4. Kommerzielle Anwendungen
8.9. Cloud Computing
8.9.1. Plattformen für Cloud Computing
8.9.2. Des Cloud Computing zur Produktion
8.10. Forschung und Stand der Technik
8.10.1. Die wissenschaftliche Gemeinschaft
8.10.2. Woran wird gearbeitet?
8.10.3. Die Zukunft des maschinellen Sehens
Modul 9. Techniken des Maschinellen Sehens in der Robotik: Bildverarbeitung und -analyse
9.1. Computer Vision
9.1.1. Computer Vision
9.1.2. Elemente eines Computer Vision Systems
9.1.3. Mathematische Werkzeuge
9.2. Optische Sensoren für die Robotik
9.2.1. Passive optische Sensoren
9.2.2. Aktive optische Sensoren
9.2.3. Nichtoptische Sensoren
9.3. Bildakquisition
9.3.1. Bilddarstellung
9.3.2. Farbraum
9.3.3. Digitalisierungsprozess
9.4. Bildgeometrie
9.4.1. Linsenmodelle
9.4.2. Kamera-Modelle
9.4.3. Kalibrierung der Kamera
9.5. Mathematische Werkzeuge
9.5.1. Histogramm eines Bildes
9.5.2. Convolution
9.5.3. Fourier-Transformation
9.6. Vorverarbeitung von Bildern
9.6.1. Rauschanalyse
9.6.2. Bildglättung
9.6.3. Bildverbesserung
9.7. Bildsegmentierung
9.7.1. Kontur-basierte Techniken
9.7.2. Histogramm-basierte Techniken
9.7.3. Morphologische Operationen
9.8. Erkennung von Bildmerkmalen
9.8.1. Erkennung von Points of Interest
9.8.2. Merkmal-Deskriptoren
9.8.3. Merkmalsabgleich
9.9. 3D-Vision-Systeme
9.9.1. 3D-Wahrnehmung
9.9.2. Merkmalsabgleich zwischen Bildern
9.9.3. Geometrie mit mehreren Ansichten
9.10. Computer Vision basierte Lokalisierung
9.10.1. Das Problem der Roboterlokalisierung
9.10.2. Visuelle Odometrie
9.10.3. Sensorische Fusion
Modul 10. Visuelle Wahrnehmungssysteme für Roboter mit maschinellem Lernen
10.1. Unüberwachte Lernmethoden angewandt auf Computer Vision
10.1.1. Clustering
10.1.2. PCA
10.1.3. Nearest Neighbors
10.1.4. Similarity and Matrix Decomposition
10.2. Methoden des überwachten Lernens, angewandt auf Computer Vision
10.2.1. „Bag of Words"-Konzept
10.2.2. Support-Vektor-Maschine
10.2.3. Latent Dirichlet Allocation
10.2.4. Neuronale Netze
10.3. Tiefe neuronale Netze: Strukturen, Backbones und Transfer Learning
10.3.1. Feature-Erzeugungsschichten
10.3.1.1. VGG
10.3.1.2. Densenet
10.3.1.3. ResNet
10.3.1.4. Inception
10.3.1.5. GoogLeNet
10.3.2. Transfer Learning
10.3.3. Die Daten. Vorbereitung für das Training
10.4. Maschinelles Sehen mit Deep Learning I: Erkennung und Segmentierung
10.4.1. Unterschiede und Gemeinsamkeiten zwischen YOLO und SSD
10.4.2. Unet
10.4.3. Andere Strukturen
10.5. Maschinelles Sehen mit Deep Learning II: Generative Adversarial Networks
10.5.1. Bild-Superauflösung mit GAN
10.5.2. Realistische Bilder erstellen
10.5.3. Scene Understanding
10.6. Lerntechniken für Lokalisierung und Kartierung in der mobilen Robotik
10.6.1. Erkennung von Schleifenschlüssen und Re-Lokalisierung
10.6.2. Magic Leap. Super Point und Super Glue
10.6.3. Depth from Monocular
10.7. Bayessche Inferenz und 3D-Modellierung
10.7.1. Bayessche Modelle und „klassisches" Lernen
10.7.2. Implizite Oberflächen mit Gaußschen Prozessen (GPIS)
10.7.3. 3D-Segmentierung mit GPIS
10.7.4. Neuronale Netzwerke für die 3D-Oberflächenmodellierung
10.8. End-to-End-Anwendungen von tiefen neuronalen Netzwerken
10.8.1. End-to-End-System. Beispiel für die Identifizierung von Personen
10.8.2. Objektmanipulation mit visuellen Sensoren
10.8.3. Bewegungserzeugung und -planung mit visuellen Sensoren
10.9. Cloud-Technologien zur Beschleunigung der Entwicklung von Deep Learning-Algorithmen
10.9.1. Verwendung von GPUs für Deep Learning
10.9.2. Agile Entwicklung mit Google IColab
10.9.3. Ferngesteuerte GPUs, Google Cloud und AWS
10.10. Einsatz von Neuronalen Netzwerken in realen Anwendungen
10.10.1. Eingebettete Systeme
10.10.2. Einsatz von neuronalen Netzwerken. Nutzung
10.10.3. Netzwerkoptimierungen beim Einsatz, Beispiel mit TensorRT
Modul 11. Visuelle SLAM. Simultane Positionsbestimmung und Kartierung von Robotern mit Hilfe von Computer Vision Techniken
11.1. Simultane Positionsbestimmung und Kartierung (SLAM)
11.1.1. Simultane Positionsbestimmung und Kartierung. SLAM
11.1.2. SLAM-Anwendungen
11.1.3. Funktionsweise von SLAM
11.2. Projektive Geometrie
11.2.1. Pin-Hole-Modell
11.2.2. Schätzung der intrinsischen Kammerparameter
11.2.3. Homographie, Grundprinzipien und Schätzung
11.2.4. Grundlegende Matrix, Prinzipien und Schätzung
11.3. Gaußsche Filter
11.3.1. Kalman-Filter
11.3.2. Informationsfilter
11.3.3. Abstimmung und Parametrisierung des Gauß-Filters
11.4. Stereo EKF-SLAM
11.4.1. Geometrie der Stereokamera
11.4.2. Merkmalsextraktion und Suche
11.4.3. Kalman-Filter für Stereo-SLAM
11.4.4. Stereo EKF-SLAM Parameterabstimmung
11.5. Monokulares EKF-SLAM
11.5.1. Parametrisierung von Landmarks in EKF-SLAM
11.5.2. Kalman-Filter für monokulares SLAM
11.5.3. Monokulare EKF-SLAM Parameterabstimmung
11.6. Erkennung von Schleifenverschlüssen
11.6.1. Brute-Force-Algorithmus
11.6.2. FABMAP
11.6.3. Abstraktion mit GIST und HOG
11.6.4. Deep Learning-Erkennung
11.7. Graph-SLAM
11.7.1. Graph-SLAM
11.7.2. RGBD-SLAM
11.7.3. ORB-SLAM
11.8. Direct Visual SLAM
11.8.1. Analyse des Direct Visual SLAM Algorithmus
11.8.2. LSD-SLAM
11.8.3. SVO
11.9. Visual Inertial SLAM
11.9.1. Integration von Inertialmessungen
11.9.2. Geringe Kopplung: SOFT-SLAM
11.9.3. Hohe Kopplung: Vins-Mono
11.10. Andere SLAM-Technologien
11.10.1. Anwendungen jenseits des visuellen SLAM
11.10.2. Lidar-SLAM
11.10.3. Range-Only SLAM
Modul 12. Anwendung von Technologien der virtuellen und erweiterten Realität auf die Robotik
12.1. Immersive Technologien in der Robotik
12.1.1. Virtuelle Realität in der Robotik
12.1.2. Erweiterte Realität in der Robotik
12.1.3. Gemischte Realität in der Robotik
12.1.4. Unterschied zwischen Realitäten
12.2. Konstruktion von virtuellen Umgebungen
12.2.1. Materialien und Texturen
12.2.2. Beleuchtung
12.2.3. Virtueller Klang und Geruch
12.3. Robotermodellierung in virtuellen Umgebungen
12.3.1. Geometrische Modellierung
12.3.2. Physikalische Modellierung
12.3.3. Standardisierung von Modellen
12.4. Modellierung der Roboterdynamik und -kinematik: Virtuelle Physik-Engines
12.4.1. Physik-Engines. Typologie
12.4.2. Konfiguration einer Physik-Engine
12.4.3. Physik-Engines in der Industrie
12.5. Die in der virtuellen Realität am häufigsten verwendeten Plattformen, Peripheriegeräte und Tools
12.5.1. Virtual Reality-Betrachter
12.5.2. Peripheriegeräte für die Interaktion
12.5.3. Virtuelle Sensoren
12.6. Erweiterte Realitätssysteme
12.6.1. Einfügen von virtuellen Elementen in die Realität
12.6.2. Arten von visuellen Markern
12.6.3. Technologien der erweiterten Realität
12.7. Metaversum: virtuelle Umgebungen mit intelligenten Agenten und Menschen
12.7.1. Avatar-Erstellung
12.7.2. Intelligente Agenten in virtuellen Umgebungen
12.7.3. Aufbau von VR/AR-Umgebungen für mehrere Benutzer
12.8. Erstellung von Virtual Reality-Projekten für die Robotik
12.8.1. Entwicklungsphasen von Virtual Reality-Projekten
12.8.2. Einsatz von Virtual Reality-Systemen
12.8.3. Ressourcen für die Virtual Reality
12.9. Erstellung von Augmented Reality-Projekten für die Robotik
12.9.1. Entwicklungsphasen von Augmented Reality-Projekten
12.9.2. Einsatz von Augmented Realityy-Projekten
12.9.3. Augmented Reality-Ressourcen
12.10. Roboter-Teleoperation mit mobilen Geräten
12.10.1. Mobile Mixed Reality
12.10.2. Immersive Systeme mit Sensoren für mobile Geräte
12.10.3. Beispiele für mobile Projekte
Modul 13. Roboterkommunikation und Interaktionssysteme
13.1. Spracherkennung: stochastische Systeme
13.1.1. Akustische Modellierung von Sprache
13.1.2. Verdecktes Markowmodell
13.1.3. Linguistische Modellierung von Sprache: N-Grammatiken, BNF-Grammatiken
13.2. Spracherkennung: Deep Learning
13.2.1. Tiefe neuronale Netze
13.2.2. Rekurrente neuronale Netze
13.2.3. LSTM-Zellen
13.3. Spracherkennung: Prosodie und Umgebungseffekte
13.3.1. Umgebungsgeräusche
13.3.2. Erkennung mehrerer Partner
13.3.3. Sprachpathologien
13.4. Verstehen natürlicher Sprache: Heuristische und probabilistische Systeme
13.4.1. Syntaktisch-semantisches Parsing: linguistische Regeln
13.4.2. Heuristisches regelbasiertes Verstehen
13.4.3. Probabilistische Systeme: logistische Regression und SVMs
13.4.4. Verstehen auf der Grundlage von neuronalen Netzen
13.5. Dialogmanagement: Heuristische/probabilistische Strategien
13.5.1. Absicht des Gesprächspartners
13.5.2. Vorlagenbasierter Dialog
13.5.3. Stochastisches Dialogmanagement: Bayessches Netz
13.6. Dialogmanagement: Fortgeschrittene Strategien
13.6.1. Verstärkungsbasierte Lernsysteme
13.6.2. Auf neuronalen Netzen basierende Systeme
13.6.3. Von der Sprache zur Absicht in einem einzigen Netz
13.7. Antwortgenerierung und Sprachsynthese
13.7.1. Eine Antwort verfassen: von der Idee zum kohärenten Text
13.7.2. Sprachsynthese durch Verkettung
13.7.3. Stochastische Sprachsynthese
13.8. Dialoganpassung und Kontextualisierung
13.8.1. Dialogische Initiative
13.8.2. Anpassung an den Sprecher
13.8.3. Anpassung an den Kontext des Dialogs
13.9. Roboter und soziale Interaktionen: Erkennung, Synthese und Ausdruck von Emotionen
13.9.1. Paradigmen der künstlichen Stimme: Roboterstimme und natürliche Stimme
13.9.2. Emotionserkennung und Stimmungsanalyse
13.9.3. Emotionale Sprachsynthese
13.10. Roboter und soziale Interaktionen: Fortgeschrittene multimodale Schnittstellen
13.10.1. Kombination von Sprach- und Berührungsschnittstellen
13.10.2. Erkennung und Übersetzung von Gebärdensprache
13.10.3. Visuelle Avatare: Übersetzung von Sprache in Gebärdensprache
Modul 14. Digitale Bildverarbeitung
14.1. Entwicklungsumgebung für Computer Vision
14.1.1. Bibliotheken für Computer Vision
14.1.2. Programmierumgebung
14.1.3. Visualisierungstools
14.2. Digitale Bildverarbeitung
14.2.1. Pixel-Beziehungen
14.2.2. Bildbearbeitung
14.2.3. Geometrische Transformationen
14.3. Pixel-Operationen
14.3.1. Histogramm
14.3.2. Transformationen von Histogrammen
14.3.3. Operationen an Farbbildern
14.4. Logische und arithmetische Operationen
14.4.1. Additionen und Subtraktionen
14.4.2. Produkt und Bereich
14.4.3. And/Nand
14.4.4. Or/Nor
14.4.5. Xor/Xnor
14.5. Filter
14.5.1. Masken und Faltung
14.5.2. Lineare Filterung
14.5.3. Gefiltert nach Linie
14.5.4. Fourier-Analyse
14.6. Morphologische Operationen
14.6.1. Erodieren und Dilatieren
14.6.2. Schließen und Öffnen
14.6.3. Top hat und Black hat
14.6.4. Kontur-Erkennung
14.6.5. Skelett
14.6.6. Füllen von Löchern
14.6.7. Konvexe Hülle
14.7. Werkzeuge zur Bildanalyse
14.7.1. Kantenerkennung
14.7.2. Erkennung von blobs
14.7.3. Kontrolle der Dimensionen
14.7.4. Farbprüfung
14.8. Segmentierung von Objekten
14.8.1. Bildsegmentierung
14.8.2. Klassische Segmentierungstechniken
14.8.3. Echte Anwendungen
14.9. Bild-Kalibrierung
14.9.1. Bild-Kalibrierung
14.9.2. Kalibrierungsmethoden
14.9.3. Kalibrierungsprozess in einem 2D-Kamera-Roboter-System
14.10. Bildverarbeitung in realer Umgebung
14.10.1. Problemanalyse
14.10.2. Bildbearbeitung
14.10.3. Merkmalsextraktion
14.10.4. Endgültiges Ergebnis
Modul 15. Fortgeschrittene digitale Bildverarbeitung
15.1. Optische Zeichenerkennung (OCR)
15.1.1. Vorverarbeitung von Bildern
15.1.2. Erkennung von Text
15.1.3. Texterkennung
15.2. Code-Lesung
15.2.1. 1D-Codes
15.2.2. 2D-Codes
15.2.3. Anwendungen
15.3. Suche nach Mustern
15.3.1. Suche nach Mustern
15.3.2. Muster auf Basis von Graustufen
15.3.3. Konturbasierte Muster
15.3.4. Muster auf der Grundlage geometrischer Formen
15.3.5. Andere Techniken
15.4. Objektverfolgung mit konventionellem Sehen
15.4.1. Hintergrund-Extraktion
15.4.2. Meanshift
15.4.3. Camshift
15.4.4. Optical flow
15.5. Gesichtserkennung
15.5.1. Facial Landmark Detection
15.5.2. Anwendungen
15.5.3. Gesichtserkennung
15.5.4. Erkennung von Emotionen
15.6. Überblick und Ausrichtungen
15.6.1. Stitching
15.6.2. Bildkomposition
15.6.3. Fotomontage
15.7. High Dinamic Range (HDR) and Photometric Stereo
15.7.1. Erhöhter Dynamikbereich
15.7.2. Bildkomposition zur Konturverbesserung
15.7.3. Techniken für den Einsatz von dynamischen Anwendungen
15.8. Bildkompression
15.8.1. Bildkompression
15.8.2. Kompressortypen
15.8.3. Techniken zur Bildkomprimierung
15.9. Videoverarbeitung
15.9.1. Bildsequenzen
15.9.2. Videoformate und Codecs
15.9.3. Lesen eines Videos
15.9.4. Rahmenverarbeitung
15.10. Reale Anwendung der Bildverarbeitung
15.10.1. Problemanalyse
15.10.2. Bildbearbeitung
15.10.3. Merkmalsextraktion
15.10.4. Endgültiges Ergebnis
Modul 16. 3D-Bildverarbeitung
16.1. 3D Bild
16.1.1. 3D Bild
16.1.2. 3D-Bildverarbeitungssoftware und Visualisierungen
16.1.3. Metrologie-Software
16.2. Open 3D
16.2.1. Bibliothek für 3D-Datenverarbeitung
16.2.2. Eigenschaften
16.2.3. Installation und Nutzung
16.3. Daten
16.3.1. 2D-Bildtiefenkarten
16.3.2. Pointclouds
16.3.3. Normalitäten
16.3.4. Oberflächen
16.4. Visualisierung
16.4.1. Datenvisualisierung
16.4.2. Kontrollen
16.4.3. Web-Visualisierung
16.5. Filter
16.5.1. Abstand zwischen Punkten, Outliers eliminieren
16.5.2. Paso-Alto-Filter
16.5.3. Downsampling
16.6. Geometrie und Merkmalsextraktion
16.6.1. Extrahieren eines Profils
16.6.2. Messung der Tiefe
16.6.3. Volumen
16.6.4. Geometrische 3D-Formen
16.6.5. Pläne
16.6.6. Projektion eines Punktes
16.6.7. Geometrische Abstände
16.6.8. Kd Tree
16.6.9. Features 3D
16.7. Registrierung und Meshing
16.7.1. Verkettung
16.7.2. ICP
16.7.3. Ransac 3D
16.8. 3D-Objekterkennung
16.8.1. Suche nach einem Objekt in der 3D-Szene
16.8.2. Segmentierung
16.8.3. Bin picking
16.9. Oberflächenanalyse
16.9.1. Smoothing
16.9.2. Einstellbare Oberflächen
16.9.3. Octree
16.10. Triangulation
16.10.1. Von Mesh zu Point Cloud
16.10.2. Triangulation von Tiefenkarten
16.10.3. Triangulation von ungeordneten PointClouds
Modul 17. Faltungsnetzwerke und Bildklassifizierung
17.1. Faltungsneuronale Netze
17.1.1. Einführung
17.1.2. Faltung
17.1.3. CNN Building Blocks
17.2. Arten von CNN-Bezügen
17.2.1. Convolutional
17.2.2. Activation
17.2.3. Batch normalization
17.2.4. Polling
17.2.5. Fully connected
17.3. Metriken
17.3.1. Confusion Matrix
17.3.2. Accuracy
17.3.3. Präzision
17.3.4. Recall
17.3.5. F1 Score
17.3.6. ROC Curve
17.3.7. AUC
17.4. Wichtigste Architekturen
17.4.1. AlexNet
17.4.2. VGG
17.4.3. Resnet
17.4.4. GoogleLeNet
17.5. Klassifizierung von Bildern
17.5.1. Einführung
17.5.2. Analyse der Daten
17.5.3. Vorbereitung der Daten
17.5.4. Training des Modells
17.5.5. Modell-Validierung
17.6. Praktische Überlegungen zum CNN-Training
17.6.1. Auswahl des Optimierers
17.6.2. Learning Rate Scheduler
17.6.3. Überprüfung der Trainings-Pipeline
17.6.4. Training mit Regularisierung
17.7. Bewährte Verfahren beim Deep Learning
17.7.1. Transfer Learning
17.7.2. Fine Tuning
17.7.3. Data Augmentation
17.8. Statistische Auswertung der Daten
17.8.1. Anzahl der Datensätze
17.8.2. Anzahl der Etiketten
17.8.3. Anzahl der Bilder
17.8.4. Datenausgleich
17.9. Deployment
17.9.1. Speichern und Laden von Modellen
17.9.2. Onnx
17.9.3. Inferenz
17.10. Fallstudie: Bildklassifizierung
17.10.1. Datenanalyse und -aufbereitung
17.10.2. Testen der Trainings-Pipeline
17.10.3. Training des Modells
17.10.4. Modell-Validierung
Modul 18. Erkennung von Objekten
18.1. Objekterkennung und -verfolgung
18.1.1. Erkennung von Objekten
18.1.2. Anwendungsbeispiele
18.1.3. Objektverfolgung
18.1.4. Anwendungsbeispiele
18.1.5. Oclusiones,Rigid and No Rigid Poses
18.2. Bewertungsmetriken
18.2.1. IOU - Intersection Over Union
18.2.2. Confidence Score
18.2.3. Recall
18.2.4. Präzision
18.2.5. Recall–Precision Curve
18.2.6. Mean Average Precision (mAP)
18.3. Traditionelle Methoden
18.3.1. Sliding window
18.3.2. Viola Detector
18.3.3. HOG
18.3.4. Non Maximal Supresion (NMS)
18.4. Datasets
18.4.1. Pascal VC
18.4.2. MS Coco
18.4.3. ImageNet (2014)
18.4.4. MOTA Challenge
18.5. Two Shot Object Detector
18.5.1. R-CNN
18.5.2. Fast R-CNN
18.5.3. Faster R-CNN
18.5.4. Mask R-CNN
18.6. Single Shot Object Detector
18.6.1. SSD
18.6.2. YOLO
18.6.3. RetinaNet
18.6.4. CenterNet
18.6.5. EfficientDet
18.7. Backbones
18.7.1. VGG
18.7.2. ResNet
18.7.3. Mobilenet
18.7.4. Shufflenet
18.7.5. Darknet
18.8. Object Tracking
18.8.1. Klassische Ansätze
18.8.2. Partikelfilter
18.8.3. Kalman
18.8.4. Sorttracker
18.8.5. Deep Sort
18.9. Bereitstellung
18.9.1. Plattform für Datenverarbeitung
18.9.2. Backbone Auswahl
18.9.3. Framework Auswahl
18.9.4. Optimierung des Modells
18.9.5. Modellversionierung
18.10. Studie: Erkennung und Überwachung von Personen
18.10.1. Erkennung von Personen
18.10.2. Verfolgung von Personen
18.10.3. Re-Identifizierung
18.10.4. Zählen von Menschen in Menschenmengen
Modul 19. Bildsegmentierung mit Deep Learning
19.1. Objekterkennung und Segmentierung
19.1.1. Semantische Segmentierung
19.1.1.1. Anwendungsfälle von Semantische Segmentierung
19.1.2. Instanziierte Segmentierung
19.1.2.1. Anwendungsfälle instanziierte Segmentierung
19.2. Bewertungsmetriken
19.2.1. Ähnlichkeiten mit anderen Methoden
19.2.2. Pixel Accuracy
19.2.3. Dice Coefficient (F1 Score)
19.3. Kostenfunktionen
19.3.1. Dice Loss
19.3.2. Focal Loss
19.3.3. Tversky Loss
19.3.4. Andere Funktionen
19.4. Traditionelle Segmentierungsmethoden
19.4.1. Schwellenwertanwendung mit Otsu und Riddlen
19.4.2. Selbstorganisierte Karten
19.4.3. GMM-EM algorithm
19.5. Semantische Segmentierung mit Deep Learning: FCN
19.5.1. FCN
19.5.2. Architektur
19.5.3. FCN Applikationen
19.6. Semantische Segmentierung mit Deep Learning: U-NET
19.6.1. U-NET
19.6.2. Architektur
19.6.3. Applikation U-NET
19.7. Semantische Segmentierung mit Deep Learning: Deep Lab
19.7.1. Deep Lab
19.7.2. Architektur
19.7.3. Deep Lab Applikation
19.8. Instantiierte Segmentierung mit Deep Learning: Mask RCNN
19.8.1. Mask RCNN
19.8.2. Architektur
19.8.3. Implementierung eines Mas RCNN
19.9. Video-Segmentierung
19.9.1. STFCN
19.9.2. Semantisches Video CN
19.9.3. Clockwork Convnets
19.9.4. Low-Latency
19.10. Segmentierung von Punktwolken
19.10.1. Punktwolke
19.10.2. PointNet
19.10.3. A-CNN
Modul 20. Fortgeschrittene Bildsegmentierung und fortgeschrittene Computer Vision Techniken
20.1. Datenbank für allgemeine Segmentierungsprobleme
20.1.1. Pascal Context
20.1.2. CelebAMask-HQ
20.1.3. Cityscapes Dataset
20.1.4. CCP Dataset
20.2. Semantische Segmentierung in der Medizin
20.2.1. Semantische Segmentierung in der Medizin
20.2.2. Datasets für medizinische Probleme
20.2.3. Praktische Anwendung
20.3. Anmerkungswerkzeuge
20.3.1. Computer Vision Annotation Tool
20.3.2. LabelMe
20.3.3. Andere Werkzeuge
20.4. Segmentierungstools mit verschiedenen Frameworks
20.4.1. Keras
20.4.2. Tensorflow v2
20.4.3. Pytorch
20.4.4. Andere
20.5. Projekt antischen Segmentierung. Die Daten, Phase 1
20.5.1. Problemanalyse
20.5.2. Eingabequelle für Daten
20.5.3. Analyse der Daten
20.5.4. Vorbereitung der Daten
20.6. Projekt antischen Segmentierung. Training, Phase 2
20.6.1. Auswahl des Algorithmus
20.6.2. Training
20.6.3. Bewertung
20.7. Projekt antischen Segmentierung. Ergebnisse, Phase 3
20.7.1. Feineinstellung
20.7.2. Präsentation der Lösung
20.7.3. Schlussfolgerungen
20.8. Autokodierer
20.8.1. Autokodierer
20.8.2. Architektur eines Autokodierer
20.8.3. Rauschunterdrückungs-Autoencoder
20.8.4. Automatischer Einfärbe-Autoencoder
20.9. Generative adversarische Netze (GANs)
20.9.1. Generative adversarische Netze (GAN)
20.9.2. DCGAN-Architektur
20.9.3. Bedingte GAN-Architektur
20.10. Verbesserte generative adversarische Netze
20.10.1. Überblick über das Problem
20.10.2. WGAN
20.10.3. LSGAN
20.10.4. ACGAN

Verbessern Sie Ihre Fähigkeiten in den Bereichen Roboterdesign, -programmierung und -steuerung mithilfe von Algorithmen für maschinelles Sehen und maschinelles Lernen"
Weiterbildender Masterstudiengang in Robotik und Maschinelles Sehen
Robotik und Computer Vision sind zwei Bereiche, die sich ständig weiterentwickeln und die Art und Weise revolutioniert haben, wie wir heute mit Technologie interagieren. An der TECH Technologischen Universität haben wir in Zusammenarbeit mit der Fakultät für Informatik einen Weiterbildenden Masterstudiengang in Robotik und Maschinelles Sehen entwickelt, um Fachleute auf die neuesten Trends und Fortschritte in diesen Bereichen vorzubereiten. Dieses virtuelle Weiterbildungsprogramm bietet ein breites Spektrum an Inhalten, von den theoretischen Grundlagen bis hin zur praktischen Anwendung von Techniken und Algorithmen bei der Entwicklung von Robotik- und Bildverarbeitungssystemen.
Mit einem interdisziplinären Ansatz bildet unser Weiterbildender Masterstudiengang in Robotik und Maschinelles Sehen die Teilnehmer darin fort, die wichtigsten Prinzipien und Konzepte der Robotik und des maschinellen Sehens zu verstehen sowie die Anwendung fortgeschrittener Techniken bei der Lösung von Problemen in der realen Welt. Die Teilnehmer werden die Möglichkeit haben, Themen wie visuelle Wahrnehmung, autonome Navigation, maschinelles Lernen und Mensch-Roboter-Interaktion zu erforschen, um nur einige zu nennen. Darüber hinaus verfügt unser Programm über ein hoch qualifiziertes Dozententeam mit Erfahrung in der Forschung und Anwendung von Robotik und Computer Vision in verschiedenen industriellen und technologischen Bereichen.