1. Grundlagen und explorative Analyse
2. Datenvorverarbeitung und Feature Engineering
3. Baseline- und traditionelle Modelle
4. Forecasting mit Deep-Learning-Methoden
5. Evaluierung und Interpretierbarkeit
6. Deployment und Monitoring
7. Praxis-Challenge
Ganzheitlicher Prognose-Workflow: Lerne alle Schritte im datenbasierten Forecasting-Workflow kennen – vom Rohdatensatz zur belastbaren Prognose inklusive Unsicherheitsabschätzung.
Modellauswahl sicher beherrschen: Du erfährst, wann Statistik, Machine Learning und Deep Learning den größten Mehrwert liefern.
Zukunftsfähige Architekturen: Verstehe Deployment-, Retrain- und Monitoring-Optionen, um Modelle stabil in Produktion zu halten.
Bessere Geschäftsentscheidungen: Übersetze Prognosemetriken in konkrete KPIs und Risikobetrachtungen.
Erweiterbares Skill-Set: Framework-Vergleiche und Best Practices geben dir eine Roadmap für eigene Projekte.
Unterstützung beim Lerntransfer: Cloud-Lab, Quellcode, Jupyter Notebooks und Deploy-Blueprint sichern den Transfer in deinen Arbeitsalltag.
Dieses Online-Seminar wird in einer Gruppe von maximal 12 Teilnehmenden mit der Videokonferenz-Software Zoom durchgeführt.
Du arbeitest in einer cloudbasierten Laborumgebung, die dir von den Referent:innen bereitgestellt wird. Webbrowser und Internetanbindung genügen, es muss keine Software installiert werden.
Interaktive Jupyter Notebooks dienen als Lernmaterial und Arbeitsumgebung. Du erhältst Zugriff auf Quellcode, Dokumentation, Referenzen und Links.
Der Kurs wird in deutscher Sprache durchgeführt, die Kursunterlagen liegen durch den Fokus auf die Programmierung größtenteils auf Englisch vor.
Die bekommst Raum für deine Fragen – die individuelle Betreuung durch die Referent:innen ist garantiert.
Daten-Analyst:innen, BI-Spezialist:innen, Data Scientists, ML-Engineers und Fachanwender:innen, die mit Zeitreihen-Daten arbeiten und Forecast-Pipelines konzipieren. Python-Grundkenntnisse und Basiswissen in Statistik werden vorausgesetzt.
Lernform
Learning form
Keine Filterergebnisse