Machine Learning und Deep Learning mit Design Thinking
alfatraining Bildungszentrum GmbH
100% kostenlos für Arbeitslose - finanziert durch das Arbeitsamt
Inhalt der Weiterbildung
Bei Machine Learning wird künstliches Wissen aus Erfahrung generiert. Der Kurs erläutert dir zudem die Methoden des Deep Learnings auf Basis von neuronalen Netzen. Auch stellt der Kurs mit Design Thinking einen Ansatz zum Lösen von Problemen und zur Entwicklung neuer Ideen vor.
Design Thinking
Einführung in Design Thinking (ca. 1 Tag)
Design Thinking Prozess im Überblick
Die wichtigsten Regeln und Phasen des Design Thinking
Praxisorientierte Ansätze und Anwendungen
Methodischer Input zu qualitativem Research
Umsetzung durch praktische Übungen am realen Projekt
Methodischer Input zu Analyse und Synthese
Umsetzung durch praktische Übung am realen Projekt
Methodischer Input zu Kreativtechniken und Ideenentwicklung
Umsetzung durch praktische Übung am realen Projekt
Methodischer Input zu Visualisierung und Protoyping (u. a. Mockups, Click Dummys, 3D-Printing und Rapid Prototyping)
Umsetzung durch praktische Übung am realen Projekt
Methodischer Input zu Testmethoden und Iteration, agiles Vorgehen
Umsetzung durch praktische Übung am realen Projekt
Vorstellung von konkreten KI‐Technologien
sowie Anwendungsmöglichkeiten im beruflichen Umfeld
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Machine Learning
Einführung in Machine Learning (ca. 5 Tage)
Warum Machine Learning?
Anwendungsbeispiele
Überwachtes Lernen, Unüberwachtes Lernen, Teilüberwachtes Lernen, Reinforcement Lernen
Beispiele für Datenbestände
Daten kennenlernen
Trainings-, Validierungs- und Testdaten
Daten sichten
Vorhersagen treffen
Klassifikation und Regression
Verallgemeinerung, Overfitting und Underfitting
Größe des Datensatzes
Algorithmen zum überwachten Lernen
Lineare Modelle
Bayes-Klassifikatoren
Entscheidungsbäume
Random Forest
Gradient Boosting
k-nächste-Nachbarn
Support Vector Machines
Conditional Random Field
Neuronale Netze und Deep Learning
Wahrscheinlichkeiten
Arten unüberwachten Lernens
Vorverarbeiten und Skalieren
Datentransformationen
Trainings- und Testdaten skalieren
Dimensionsreduktion
Feature Engineering
Manifold Learning
Hauptkomponentenzerlegung (PCA)
Nicht-negative-Matrix-Faktorisierung (NMF)
Manifold Learning mit t-SNE
Clusteranalyse
k-Means-Clustering
Agglomeratives Clustering
Hierarchische Clusteranalyse
DBSCAN
Clusteralgorithmen
Modellauswahl und Modellevaluation
Abstimmung der Hyperparameter eines Schätzers
Kreuzvalidierung
Gittersuche
Evaluationsmetriken
Klassifikation
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Deep Learning
Einführung Deep Learning (ca. 1 Tag)
Deep Learning als eine Art von Machine Learning
Perceptron
Berechnung neuronaler Netze
Optimierung der Modellparameter, Backpropagation
Deep‐Learning‐Bibliotheken
Regression vs. Klassifikation
Lernkurven, Überanpassung und Regularisierung
Hyperparameteroptimierung
Stochastischer Gradientenabstieg (SGD)
Momentum, Adam Optimizer
Lernrate
Bildklassifizierung
Convolutional‐Schichten, Pooling‐Schichten
Reshaping‐Schichten, Flatten, Global‐Average‐Pooling
CNN‐Architekturen ImageNet‐Competition
Tiefe neuronale Netze, Vanishing Gradients, Skip‐Verbindungen, Batch‐Normalization
Anpassen von Modellen
Unüberwachtes Vortrainieren
Image‐Data‐Augmentation, Explainable AI
Objektlokalisierung
Regressionsprobleme
Verzweigte neuronale Netze
Generative Adversarial Networks (GAN)
Deepfakes
Diffusionsmodelle
Sequenzanalyse
Rekurrente Schichten
Backpropagation through time (BPTT)
Analyse von Zeitreihen
Exploding und Vanishing Gradient Probleme
LSTM (Long Short‐Term Memory)
GRU (Gated Recurrent Unit)
Deep RNN
Deep LSTM
Text‐Preprocessing
Embedding‐Schichten
Text‐Klassifizierung
Sentimentanalyse
Transfer‐Learning in NLP
Übersetzungen
Seqence‐to‐Sequence‐Verfahren, Encoder‐Decoder‐Architektur
BERT, GPT
Attention‐Schichten, Transformers
Textgeneration‐Pipelines
Summarization
Chatbots
Steuerung dynamischer Systeme
Agentensysteme
Training durch Belohnungen
Policy Gradients
Deep‐Q‐Learning
Unsicherheiten in neuronalen Netzen
Statistische Bewertung von Prognosen
Konfidenz, Standardabweichung
Unbalancierte Daten
Sampling‐Methoden
Zur Vertiefung der gelernten Inhalte
Präsentation der Projektergebnisse
Änderungen möglich. Die Lehrgangsinhalte werden regelmäßig aktualisiert.
Termine
Beginn
28.04.2025
Dauer
mehr als 1 Monat bis 3 Monate
Ort
Gießen
Kosten
5.000 - 10.000 €
Beginn
28.04.2025
Dauer
mehr als 1 Monat bis 3 Monate
Ort
Halle (Saale)
Kosten
5.000 - 10.000 €
Beginn
28.04.2025
Dauer
mehr als 1 Monat bis 3 Monate
Ort
Gau-Algesheim
Kosten
5.000 - 10.000 €
Beginn
28.04.2025
Dauer
mehr als 1 Monat bis 3 Monate
Ort
Münster
Kosten
5.000 - 10.000 €
Beginn
28.04.2025
Dauer
mehr als 1 Monat bis 3 Monate
Ort
Füssen
Kosten
5.000 - 10.000 €
Beginn
28.04.2025
Dauer
mehr als 1 Monat bis 3 Monate
Ort
Suhl
Kosten
5.000 - 10.000 €
Beginn
28.04.2025
Dauer
mehr als 1 Monat bis 3 Monate
Ort
Koblenz am Rhein
Kosten
5.000 - 10.000 €
Beginn
28.04.2025
Dauer
mehr als 1 Monat bis 3 Monate
Ort
Reutlingen
Kosten
5.000 - 10.000 €
Beginn
28.04.2025
Dauer
mehr als 1 Monat bis 3 Monate
Ort
Wiesbaden
Kosten
5.000 - 10.000 €
Beginn
28.04.2025
Dauer
mehr als 1 Monat bis 3 Monate
Ort
Kaiserslautern
Kosten
5.000 - 10.000 €