Der Inhalt dieses Trainings leitet sich aus der Prüfung «PL-400: Microsoft Power Platform Developer» ab. Beginne schon jetzt auf Microsoft Learn mit der Vorbereitung auf den Kurs. Während der intensiven Trainingstage mit unseren Trainern arbeitest du mit den offiziellen Microsoft-Kursunterlagen.
Modul 1: Deine erste modellgesteuerte App mit Dataverse erstellen
Du möchtest schnell mit möglichst wenig bzw. ohne Code Apps erstellen? In diesem Modul werden die Bausteine von Dataverse und modellgesteuerten Apps behandelt. Diese wichtigen Komponenten helfen dir beim schnellen Erstellen von Geschäftsanwendungen in deiner Organisation.
Modul 2: Erste Schritte mit modellgesteuerten Apps in Power Apps
Der Entwurf einer modellgesteuerten App ist ein Ansatz, der sich auf das schnelle Hinzufügen von Komponenten zu deinen Apps konzentriert. Zu diesen Komponenten gehören Dashboards, Formulare, Ansichten und Diagramme. Mit wenig oder keinem Code kannst du Apps erstellen, die einfach oder komplex sind.
Modul 3: Tabellen in Dataverse verwalten
Dataverse-Tabellen sind vergleichbar mit Tabellen in einer Datenbank. Jede Instanz einer Dataverse-Datenbank enthält einen Basissatz von Tabellen, welche die Struktur für Daten bereitstellen, die üblicherweise von Geschäftsanwendungen verwendet werden.
Modul 4: Spalten in einer Tabelle in Dataverse erstellen und verwalten
Möchtest du neue Datenspalten erstellen oder vorhandene standardisierte Spalten für deine Geschäftslösungen nutzen? In diesem Modul erfährst du, wie du neue Spalten in einer Tabelle in Dataverse verwaltest oder erstellst.
Modul 5: Mit Auswahlmöglichkeiten in Dataverse arbeiten
Möchtest du standardisierte Auswahllisten erstellen, die du in allen Power Apps verwenden kannst? In diesem Modul erfährst du, wie du in Dataverse neue Standardauswahllisten, die als Auswahlmöglichkeiten bezeichnet werden, erstellst und verwendest.
Modul 6: Eine Beziehung zwischen Tabellen in Dataverse erstellen
Musst du Beziehungen zwischen Tabellen erstellen? In diesem Modul wird gezeigt, wie und warum du Daten in Tabellen aufteilen und wie du Beziehungen zwischen Tabellen herstellen kannst, um komplexe und robuste Geschäftslösungen zu erstellen. Außerdem werden die verschiedenen Arten von Beziehungen erläutert, die du zwischen Tabellen in Dataverse definieren kannst.
Modul 7: Geschäftsregeln in Dataverse definieren und erstellen
Die Möglichkeit zur Erstellung von Geschäftsregeln, die unabhängig von der App, die auf den jeweiligen Datensatz zugreift, eine konsistente Geschäftslogik gewährleisten, ist für erfolgreiche Geschäftsvorgänge unabdingbar. Dieses Modul zeigt, wie du Geschäftsregeln erstellen kannst, die bei jeder Verwendung innerhalb von Dataverse ausgelöst werden.
Modul 8: Berechnungs- und Rollupspalten in Dataverse erstellen und definieren
Möchtest du Rollup- oder Berechnungsspalten verwenden? In diesem Modul erfährst du, wie du Berechnungen oder Rollups erstellst, die in den Daten in Dataverse definiert und ausgelöst werden, unabhängig von der App, die auf das jeweilige Dataset zugreift.
Modul 9: Erste Schritte mit Sicherheitsrollen in Dataverse
Möchtest du Sicherheitsrollen verwenden, um Benutzerberechtigungen einzuschränken? In diesem Modul erfährst du, wie du Berechtigungen festlegen kannst, um den Zugriff auf eine Umgebung einzuschränken. Du kannst auch die Benutzer beschränken, die Daten in einer Umgebung in Dataverse anzeigen, bearbeiten oder löschen können.
Modul 10: Erste Schritte mit Power-Apps-Canvas-Apps
Lerne die Grundlagen von Power Apps kennen, und erfahre, wie du das Tool in deiner Organisation einsetzen kannst.
Modul 11: Canvas-App in Power Apps anpassen
Lerne, wie du eine App anpasst, indem du Steuerelemente, Bilder und Logik hinzufügst.
Modul 12: Apps in Power Apps verwalten
Verwalte App-Versionen, App-Freigaben und Umgebungen in Power Apps.
Modul 13: Navigation in einer Canvas-App in Power Apps
App-Benutzer können nur mithilfe der Navigationsoptionen navigieren, die von einem App-Entwickler bereitgestellt werden. Dieses Modul ist darauf ausgelegt, dir beim Erstellen einer guten Navigationserfahrung für deine Canvas-App zu helfen.
Modul 14: Die Benutzeroberfläche in einer Canvas-App in Power Apps erstellen
Möchtest du eine bessere Benutzeroberfläche für deine App-Benutzer erstellen? Dieses Modul hilft dir dabei mit Designs, Symbolen, Bildern, Personalisierung, verschiedenen Formfaktoren und Steuerelementen.
Modul 15: Grundlegendes zu Steuerelementen in einer Canvas-App in Power Apps und deren Verwendung
Steuerelemente helfen, dem Benutzer eine bessere Erfahrung zu verschaffen und erfassen die entsprechenden Daten. Dieses Modul vermittelt die Grundlagen zum Konzept und der Verwendung von Steuerelementen.
Modul 16: Deine Power-Apps-Anwendung dokumentieren und testen
In diesem Modul lernst du bewährte Methoden rund um das Testen und Dokumentieren deiner Power Apps-Anwendung kennen.
Modul 17: Imperative Entwicklungsverfahren für Canvas-Apps in Power Apps verwenden
Imperative Entwicklungsverfahren können dir helfen, das angestrebte Ziel für deine App zu realisieren. Erfahre mehr über die verschiedenen Entwicklungsmethoden und Variablen in Power Apps.
Modul 18: Formeln erstellen, die Tabellen, Datensätze und Sammlungen in einer Canvas-App in Power Apps verwenden
Benötigst du in deiner App komplexe Formeln? Dieses Modul hilft dir dabei, diese Formeln zu schreiben.
Modul 19: Benutzerdefinierte Updates in einer Power-Apps-Canvas-App ausführen
Bei einigen Power-Apps-Canvas-Apps helfen Formulare nicht weiter. Im Rahmen dieses Moduls erfährst du, wie du benutzerdefinierte Updates ausführen kannst, wenn sich deine Daten nicht in einem Formular befinden.
Modul 20: Tests und Leistungsprüfungen in einer Power-Apps-Canvas-App durchführen
Möchtest du deine App testen und ihre Leistung verbessern? In diesem Modul erfährst du, wie du eine App testen und die Leistung verbessern kannst.
Modul 21: Mit relationalen Daten in einer Power-Apps-Canvas-App arbeiten
Möchtest du die Benutzerfreundlichkeit deiner Canvas-App verbessern? In diesem Modul wird veranschaulicht, wie du mit relationalen Daten die Benutzerfreundlichkeit deiner App verbessern kannst.
Modul 22: Mit Datenquellen-Grenzwerten (Delegations-Grenzen) in einer Power-Apps-Canvas-App arbeiten
Es ist wichtig, die Grundlagen zur Arbeit mit Datenquellen-Grenzwerten kennenzulernen. Du musst die unterschiedlichen Grenzwerte und Variablen verinnerlichen, um optimal mit Daten in Power Apps arbeiten zu können. Dadurch kannst du deinen Anforderungen entsprechend die beste Datenquelle für eine App auswählen.
Modul 23: Verbindung mit anderen Daten in einer Power-Apps-Canvas-App herstellen
Musst du eine Verbindung mit nicht tabellarischen Daten herstellen? In diesem Modul wird die entsprechende Vorgehensweise erläutert. Auch aktionsbasierte Konnektoren, Flows und Benutzerdaten werden behandelt.
Modul 24: Benutzerdefinierte Konnektoren in einer Power-Apps-Canvas-App verwenden
Benutzerdefinierte Konnektoren können in deinen Canvas-Apps verwendet werden, wenn kein integrierter Konnektor verfügbar ist. Der Schwerpunkt dieses Moduls liegt auf der Verwendung benutzerdefinierter Konnektoren.
Modul 25: Erste Schritte mit Power Automate
Power Automate ist ein Online-Workflowdienst, der Aktionen für die häufigsten Apps und Dienste automatisiert.
Modul 26: Genehmigungsflows mit Power Automate erstellen
In diesem Modul erstellst du Genehmigungsflows, um dein Geschäft zu optimieren, Zeit zu sparen und effizienter zu arbeiten.
Modul 27: Einführung in Ausdrücke in Power Automate
Hole das Beste aus deinen Daten heraus, indem du Funktionen zum Erstellen von Ausdrücken verwendest.
Modul 28: Einführung in Microsoft-Power-Platform-Entwicklerressourcen
Ziel dieses Moduls ist es, einen umfassenden Überblick über die Entwicklungserfahrung in Bezug auf die Microsoft Power Platform zu geben. Es wird eine abstrakte Einführung in die Darstellung des Ökosystems geben, wobei als Zielgruppe Softwareentwickler:innen mit begrenzter Erfahrung in der Arbeit mit der Microsoft Power Platform vorgegeben sind.
Modul 29: Entwicklertools zur Erweiterung der Power Platform verwenden
Dieses Modul konzentriert sich auf die verfügbaren Entwicklungstools, mit denen du Entwicklungsaktivitäten mit der Microsoft Power Platform durchführen kannst.
Modul 30: Einführung in die Erweiterung der Power Platform
Dieses Modul befasst sich schwerpunktmäßig mit der zugrunde liegenden Lösungsarchitektur aus technischer Sicht und den verfügbaren Erweiterungsoptionen. Es wird auch ein immer wieder wichtiges Element der Microsoft-Power-Platform-Entwicklung behandelt, nämlich der Entscheidungsprozess, bei dem festgelegt wird, wann Konfiguration und wann Code verwendet wird.
Modul 31: Einführung in Dataverse für Entwickler:innen
Ziel dieses Moduls ist es, einen einführenden Überblick über die Microsoft Power Platform SDKs zu geben, die bei Microsoft über NuGet erhältlich sind.
Modul 32: Plug-Ins in Power Platform erweitern
Ziel dieses Moduls ist es, einen detaillierten Überblick über Plug-Ins in Zusammenhang mit der Microsoft-Power-Platform-Entwicklung zu geben. In diesem Modul wird überprüft, wie und wann Plug-Ins implementiert werden, wie sie registriert und bereitgestellt werden und welche verschiedenen Konfigurationsoptionen während der Plug-In-Registrierung verfügbar sind.
Modul 33: Gemeinsame Aktionen mit dem Clientskript in Power Platform durchführen
In diesem Modul wird erörtert, wie gängige Verfahren zur Automatisierung der Benutzererfahrung durch das Clientskript erreicht werden können. Dieses Modul soll als praktische Anleitung für die Lösung von realen Szenarien dienen, die häufig bei Microsoft-Power-Platform-Implementierungen auftreten.
Modul 34: Geschäftsprozessflüsse mit Clientskripts automatisieren
In diesem Modul werden Entwickler:innen darin geschult, allgemeine Techniken zur Automatisierung von Geschäftsprozessflows mit Client-Skripts anzuwenden. Darüber hinaus wird der Kontext erläutert, in dem diese Szenarien angewendet werden können.
Modul 35: Erste Schritte mit dem Power Apps Component Framework
Erfahre mehr über die ersten Schritte mit dem Microsoft Power Apps Component Framework.
Modul 36: Eine Power-Apps-Komponente erstellen
Erstelle eine benutzerdefinierte Power-Apps-Komponente sowie ein Lösungspaket für Codekomponenten und teste und debugge anschließend eine Codekomponente.
Modul 37: Erweiterte Funktionen im Power Apps Component Framework nutzen
Erfahre im Detail, wie komplexere Szenarien in einem Power Apps Component Framework behandelt werden können. In diesem Modul wird die Nutzung von Client-Frameworks (z. B. React und Angular) innerhalb einer Komponente und die Bewältigung von Szenarien wie das Hochladen von Dateien, die Lokalisierung und die Integration in die Microsoft Dataverse-Web-API erläutert.
Modul 38: Mit der Dataverse-Web-API arbeiten
Erfahre mehr über das Arbeiten mit der Dataverse-Web-API.
Modul 39: Dataverse-Azure-Lösungen integrieren
Verschaffe dir einen detaillierten Überblick über die Optionen, die in Dataverse zum Integrieren von Daten und Ereignissen in Azure verfügbar sind.
Dieses intensive Training bereitet dich vor auf:
Prüfung: "PL-400: Microsoft Power Platform Developer" für die Zertifizierung:
"Microsoft Certified: Power Platform Developer Associate".
1. Einführung in Tanzu Kubernetes Grid
2. CLI-Tools und Cluster-API
3. Authentifizierung
4. Load Balancer
5. VMware Tanzu Kubernetes Grid auf vSphere
6. VMware Tanzu Kubernetes Grid in Public Clouds
7. Tanzu Kubernetes Grid Workload Clusters
8. Tanzu Kubernetes Grid Pakete
9. Konfiguration und Management von Tanzu Kubernetes Grid Netzwerk-Paketen
10. Konfiguration und Management von Tanzu Kubernetes Grid Operations- und Analyse-Paketen
11. Tanzu Kubernetes Grid Day 2 Operations
12. Fehlerbehebung bei Tanzu Kubernetes Grid
Dieses Training vermittelt dir die notwendigen Kenntnisse, um eine Organisation bei der effektiven Planung, Umsetzung, Verwaltung, Überwachung und Aufrechterhaltung eines Informationssicherheitsmanagementsystems (ISMS) zu unterstützen.
Besteht aus folgenden Modulen
Für die Teilnahme an diesem Training werden allgemeine Kenntnisse des ISMS-Konzepts und der ISO/IEC 27001 vorausgesetzt. Solltest du noch nicht über diese Kenntnisse verfügen, empfehlen wir dir den vorherigen Besuch des folgenden Kurses: OSP/IEC 27001:2022 Foundation
Die Prüfung «PECB Certified ISO/IEC 27001 Lead Implementer» entspricht den Anforderungen des PECB Examination and Certification Program (ECP). Sie umfasst die folgenden Kompetenzbereiche:
Prüfungsformat
Online, über den Erhalt eines Prüfungsvouchers, Multiple-Choice-Fragen, Anzahl Fragen: 80, Dauer: 180 Minuten, Sprache: Englisch, open book
Artificial intelligence and machine learning (AI/ML) are becoming mainstream. In this course, you will spend a day in the life of a data scientist so that you can collaborate efficiently with data scientists and build applications that integrate with ML. You will learn the basic process data scientists use to develop ML solutions on Amazon Web Services (AWS) with Amazon SageMaker. You will experience the steps to build, train, and deploy an ML model through instructor-led demonstrations and labs.
1. Introduction to Machine Learning
2. Preparing a Dataset
3. Training a Model
4. Evaluating and Tuning a Model
5. Deploying a Model
6. Operational Challenges
7. Other Model-Building Tools
Künstliche Intelligenz und maschinelles Lernen (KI/ML) sind auf dem Vormarsch. In diesem Kurs wirst du einen Tag im Leben einer/eines Datenwissenschaftlers/Datenwissenschaftlerin verbringen, damit du effizient mit Datenwissenschaftler:innen zusammenarbeiten und Anwendungen erstellen können, die mit ML integriert werden. Du lernst den grundlegenden Prozess kennen, den Datenwissenschaftler:innen zur Entwicklung von ML-Lösungen auf Amazon Web Services (AWS) mit Amazon SageMaker verwenden. Du wirst die Schritte zum Erstellen, Trainieren und Bereitstellen eines ML-Modells anhand von Demonstrationen und Übungen unter Anleitung des Kursleiters erleben.
1. Einführung in das maschinelle Lernen
2. Vorbereiten eines Datensatzes
3. Trainieren eines Modells
4. Evaluierung und Abstimmung eines Modells
5. Einsetzen eines Modells
6. Betriebliche Herausforderungen
7. Andere Werkzeuge für die Modellerstellung
Die Lernenden werden auf vorhandenen Analyse-Erfahrungen aufbauen und erfahren, wie sie Microsoft Fabric-Komponenten verwenden, einschließlich Lakehouses, Data Warehouses, Notebooks, Dataflows, Datenpipelines und semantischer Modelle, um Analyseressourcen zu erstellen und bereitzustellen.
Die Datenerfassung ist bei der Analyse von entscheidender Bedeutung. Die Data Factory von Microsoft Fabric bietet Dataflows (Gen2) zum Erstellen und Visualisieren einer mehrstufigen Datenerfassung und -transformation mithilfe von Power Query Online.
Du erfährst, wie du Apache Spark und Python für die Datenerfassung in einem Microsoft Fabric-Lakehouse verwendest. Fabric-Notebooks bieten eine skalierbare und systematische Lösung.
Microsoft Fabric beinhaltet Data Factory-Funktionen, einschließlich der Möglichkeit, Pipelines zu erstellen, die Datenerfassungs- und Transformationstasks orchestrieren.
Lakehouses vereinen die Flexibilität von Data Lake Storage mit Data-Warehouse-Analysen. Microsoft Fabric ist eine Lakehouselösung für umfassende Analysen auf einer einzigen SaaS-Plattform.
Erkunde das Potenzial des Medallion-Architekturentwurfs in Microsoft Fabric. Organisiere und transformiere deine Daten in den Bronze-, Silber- und Goldebenen bzw. -schichten eines Lakehouse, um optimierte Analysen zu ermöglichen.
Apache Spark ist eine Kerntechnologie für umfassende Datenanalysen. Microsoft Fabric unterstützt Spark-Cluster, sodass du selbst große Datenmengen in einem Lakehouse analysieren und verarbeiten kannst.
Die Tabellen in einem Microsoft Fabric Lakehouse basieren auf dem Delta Lake-Speicherformat, das üblicherweise in Apache Spark verwendet wird. Mithilfe der erweiterten Funktionen von Deltatabellen kannst du komplexe Analyselösungen erstellen.
Data Warehouses sind Analysespeicher, die auf einem relationalen Schema basieren, damit SQL-Abfragen unterstützt werden. Mit Microsoft Fabric kannst du ein relationales Data Warehouse in deinem Arbeitsbereich erstellen und es problemlos in andere Elemente deiner End-to-End-Analyselösung integrieren.
Das Data Warehouse in Microsoft Fabric ist eine umfassende Plattform für Daten und Analysen, die erweiterte Abfrageverarbeitung und vollständige transaktionale T-SQL-Funktionen für eine einfache Datenverwaltung und -analyse bietet.
Das Data Warehouse in Microsoft Fabric ist eine umfassende Plattform für Daten und Analysen, die erweiterte Abfrageverarbeitung und vollständige transaktionale T-SQL-Funktionen für eine einfache Datenverwaltung und -analyse bietet.
Ein Data Warehouse ist eine wichtige Komponente einer Unternehmensanalyselösung. Es ist wichtig zu erfahren, wie du ein Data Warehouse überwachst, damit du die darin auftretende Aktivität besser verstehen kannst.
Skalierbare Datenmodelle ermöglichen unternehmensweite Analysen in Power BI. Du implementierst Best Practices für die Datenmodellierung, verwendest große Speicherformate für Datasets und übst die Erstellung eines Sternschemas, um skalierbare Analyselösungen zu entwerfen.
Power BI-Modellbeziehungen bilden die Grundlage eines tabellarischen Modells. Definieren von Power-BI-Modellbeziehungen, Einrichten von Beziehungen, Erkennen von DAX-Beziehungsfunktionen und Beschreiben der Beziehungsauswertung.
Entwickle, verwalte und optimiere mit Tools Power-BI-Datenmodelle und die Leistung von DAX-Abfragen.
Erzwingen der Modellsicherheit in Power BI mithilfe von Sicherheit auf Zeilen- und Objektebene.
1. Der Weg bis zur Transformer-Technologie
2. Voraussetzungen zum Verständnis von Transformern
3. Die Transformer-Architektur im Detail erklärt
4. Anwendung von Transformer-Modellen
Du erfährst alles über die technischen und mathematischen Grundlagen der neuen Transformer-Technologie und der Modelle, die damit entwickelt werden.
Du bekommst einen fundierten Eindruck davon, welche Möglichkeiten Transformer bieten und wo ihre Grenzen liegen.
Du verstehst, wie generative KI im Detail funktioniert und wie du generative KI in den Bereichen Text- und Bildgenerierung entwickelst.
Du lernst mit Retrieval Augmented Generation (RAG) ein Verfahren kennen, mit dem du mit Transformern externe Informationen verarbeiten kannst.
Du erhältst Einsichten in das Training, in die Evaluation, in die Anwendung und Integration von Transformer-Modellen.
1. Grundlagen des maschinellen Lernens mit Python
2. Fortgeschrittene Modelle und Techniken
3. Datenvorbereitung mit scikit-learn und pandas
4. Techniken der Datenverdichtung und -klassifikation
5. Deep Learning und industrielle Anwendungen
6. Eine vollständige Pipeline am Beispiel erklärt
Praxisübungen zum Mitprogrammieren
Durch das ganze Seminar hindurch löst du selbst praxisnahe Aufgaben mit Python, die dir helfen, das Gelernte sofort anzuwenden und zu festigen. Bereitgestellt werden die Aufgaben in Jupyter Notebooks, die du lokal auf dem Rechner ausführen kannst – du benötigst also keine komplexen Programmierumgebungen.
Grundlegende Programmierkenntnisse als Voraussetzung
In diesem Seminar wird die Programmiersprache Python eingesetzt. Es ist daher von Vorteil, wenn du grundlegende Programmierkenntnisse, etwa zur Arbeit mit Variablen, Listen, Arrays und Schleifen, mitbringst oder dir vor dem Seminar erstes Wissen darüber aneignest.
Du erfährst alles über die technischen und mathematischen Grundlagen im Machine-Learning.
Du lernst den vollständigen Ablauf von Machine-Learning-Projekten kennen – von der Datenvorbereitung über die Erstellung und das Training von Modellen bis zu Evaluation und Deployment.
Du bekommst einen Überblick über viele wichtige Python-Bibliotheken und lernst, sie in eigenen Projekten einzusetzen.
Du wirst eigene Machine-Learning-Modelle vorbereiten, erstellen, trainieren und evaluieren können.
Die technischen Einstiegshürden werden durch den Einsatz von Jupyter Notebooks minimiert, welche es dir erlauben, ohne Installation von Programmierumgebungen direkt mit den Programmieraufgaben zu beginnen.
1. Generative KI und LLMs in a Nutshell
2. Generative KI im Coding
3. Generative KI in Softwareprojekten
4. Generative KI kreativ eingesetzt
5. Was es sonst noch unbedingt zu beachten gilt
Praxisübungen zum Mitmachen
In diesem Seminar übst du den Umgang mit KI-Assistenten anhand praktischer Beispiele. Dabei werden vor allem GitHub Copilot und ChatGPT eingesetzt. Für einige der eingesetzten Funktionen werden die jeweils kostenpflichtigen Versionen benötigt. Wenn du alle Übungen selbst ausprobieren möchtest, empfehlen wir dir, dir Zugang dazu zu verschaffen. Bei beiden Tools sind auf den Hersteller-Websites in monatlich kündbaren Abonnements verfügbar.
Du erfährst, wie dir KI-Assistenten bei Coding-Aufgaben Arbeit abnehmen und wie du viel Zeit sparen kannst.
Du lernst konkrete Techniken, mit denen du generative KI-Tools in deine Arbeitsabläufe und in die Abläufe deines Teams einbinden kannst – zum Coden, Testen, Refactoring und vielem mehr.
Du bekommst einen Überblick über fortgeschrittene Funktionen von GitHub Copilot und lernst neue mächtige Tools wie GitHub Codespaces und Devin AI kennen.
Du erweiterst deinen Horizont und lernst neue Anwendungsbereiche für die KI-assistierte Softwareentwicklung.
Du bekommst fortgeschrittene Insights, wie du KI-Assistenten customizen, eigene Workflows erstellen und verschiedene KI-Modelle einbinden kannst.
Du kannst bewerten, welche rechtlichen Implikationen und Haftungsfragen betroffen sind, wenn Du Code durch KI generieren lässt.
Modul 1: Erste Schritte zur DevOps-Transformation
Lab: Versionskontrolle mit Git in Azure Repos
Modul 2: Arbeiten mit Git für DevOps in Unternehmen
Modul 3: Implementieren von CI mit Azure Pipelines und GitHub Actions
Modul 4: Entwerfen und Implementieren einer Releasestrategie
Lab: Steuern von Bereitstellungen mithilfe von Releasegates
Lab: Erstellen eines Releasedashboards
Lab: Verwalten von Featureflags mit LaunchDarkly und Azure DevOps
Modul 5: Implementieren eines sicheren Continuous-Deployment-Prozesses mit Azure Pipelines
Lab: Einrichten und Ausführen von Funktionstests
Lab: Konfigurieren von Pipelines-as-Code mit YAML
Modul 6: Verwalten von Infrastructure-as-Code mithilfe von Azure, DSC und Drittanbietertools
Lab: Bereitstellungen mithilfe von Azure Resource Manager-Vorlagen
Lab: Ansible mit Azure
Lab: Automatisieren von Infrastrukturbereitstellungen in der Cloud mit Terraform und Azure Pipelines
Modul 7: Implementieren der Sicherheit und Überprüfen von Codebasen auf Compliance
Lab: Verwalten technischer Schulden mit SonarQube und Azure DevOps
Lab: Implementieren von Sicherheit und Compliance in Azure DevOps-Pipelines
Modul 8: Entwerfen und Implementieren einer Strategie für die Abhängigkeitsverwaltung
Lab: Paketverwaltung mit Azure Artifacts
Modul 9: Erstellen und Verwalten von Containern mit Docker und Kubernetes
Lab: Bereitstellen von Docker-Containern für Azure App Service-Web-Apps
Lab: Bereitstellen einer Anwendung mit mehreren Containern in Azure Kubernetes Service
Modul 10: Implementieren eines kontinuierlichen Feedbacks
Lab: Integration zwischen Azure DevOps und Microsoft Teams
Lab: Überwachen der Anwendungsleistung mit Application Insights
Dieses Intensive-Training bereitet dich vor auf:
Prüfung: «Designing and Implementing Microsoft DevOps Solutions» für die
Zertifizierung: «Microsoft Certified: DevOps Engineer Expert»
Bitte beachte: Um die Zertifizierung «Microsoft Certified: DevOps Engineer Expert» zu erhalten, musst du entweder «Microsoft Certified: Azure Administrator Associate» oder «Microsoft Certified: Azure Developer Associate» bestanden haben.
Das Zusammenspiel der verschiedenen IT-Systeme und Services wird erst durch Daten ermöglicht. Diese Daten sind omnipräsent, sei es, dass sie in verschiedensten Systemen oft redundant gespeichert oder über unzählige Schnittstellen ausgetauscht werden. Hier die Übersicht und die Kontrolle zu behalten, ist für einen nachhaltigen Betrieb der IT unerlässlich und auch die Voraussetzung dafür, um aus den Daten für das Unternehmen nutzbare Informationen zu bilden.
1. Einleitung
2. Selektoren
3. Kombinatoren
4. Farben
5. Transparenz
6. Aufzählungen
7. Einheiten
8. Dimensionen
9. Rahmen
10. Schriften
11. Positionen
12. Layouts
13. Effekte
14. Transformationen
15. Transitionen
16. Animationen
Überblick über die wichtigsten Eigenschaften von CSS3
Einführung in den Kurs
Zugang zu den Ressourcen (Hands-on-Lab-Schnittstelle, Anleitungen)
Modul 1: Einführung und Überblick über Amazon QuickSight
Modul 2: Erste Schritte mit Amazon QuickSight
Modul 3: Verbessern und Hinzufügen von Interaktivität zu deinem Dashboard
Modul 4: Daten für die Analyse vorbereiten
Modul 5: Nachbereitung
Modul 1: Erste Schritte mit Transact-SQL
In diesem Modul lernst du die Grundlagen der Sprache Transact-SQL (T-SQL) sowie allgemeine Eigenschaften und Begriffe von relationalen Datenbanken kennen. In diesem Modul wird auch die grundlegende SELECT-Anweisung zum Abrufen von Daten aus einer Tabelle vorgestellt.
Lektionen:
Übung: Erste Schritte mit den SQL Server-Abfragetools und das Schreiben von Abfragen in T-SQL
Modul 2: Sortieren und Filtern von Abfrageergebnissen
In diesem Modul lernst du, wie du steuern kannst, welche Daten in welcher Reihenfolge zurückgegeben werden. Du wirst die ORDER BY-Klausel verwenden, mit und ohne Paging. Du lernst verschiedene Arten von Filtern kennen, die in der WHERE-Klausel verwendet werden können, um zu steuern, welche Datenzeilen zurückgegeben werden. Du wirst auch lernen, wie du die Ergebnisse verwaltest, indem du Duplikate mit DISTINCT entfernst.
Lektionen:
Übung: Sortieren und Filtern von Daten, die von SELECT-Abfragen zurückgegeben werden
Modul 3: Joins und Unterabfragen verwenden
In diesem Modul wirst du T-SQL-Abfragen kennenlernen, die mit verschiedenen Arten von JOIN-Operationen und einfachen Unterabfragen auf Daten aus mehreren Tabellen zugreifen.
Lektionen:
Übung:
Modul 4: Eingebaute Funktionen verwenden
In diesem Modul lernst du die Verwendung von eingebauten Funktionen kennen, um berechnete oder spezielle Werte in der SELECT-Liste oder in der WHERE-Klausel zurückzugeben. Zu den Funktionen gehören mathematische Funktionen, Stringfunktionen und Systemfunktionen. Es gibt noch andere Arten von Funktionen, die zwar erwähnt, aber nicht im Detail besprochen werden. Du wirst auch lernen, wie du Datenzeilen zu einer Gruppe zusammenfassen und für die Gruppe zusammenfassende Informationen wie SUMME, MIN oder MAX bereitstellst.
Lektionen:
Übung: Eingebaute Funktionen
Modul 5: Ändern von Daten
In diesem Modul lernst du die T-SQL-Anweisungen zum Ändern von Tabellendaten einschließlich UPDATE, DELETE und MERGE sowie verschiedene Optionen für INSERT einschließlich des Erstellens einer neuen Tabelle mit Daten aus einer vorhandenen Tabelle kennen. Außerdem siehst du dir an, wie das System beim Einfügen von Daten automatisch Werte für Spalten liefern kann.
Lektionen:
Übung: Daten modifizieren
Module 1: Introduction to AI
In this module, you'll learn about common uses of artificial intelligence (AI), and the different types of workload associated with AI. You'll then explore considerations and principles for responsible AI development.
Lessons
Module 2: Machine learning
Machine learning is the foundation for modern AI solutions. In this module, you'll learn about some fundamental machine learning concepts, and how to use the Azure Machine Learning service to create and publish machine learning models.
Lessons
Module 3: Computer Vision
Computer vision is a area of AI that deals with understanding the world visually, through images, video files, and cameras. In this module you'll explore multiple computer vision techniques and services.
Lessons
Module 4: Natural language processing
This module describes scenarios for AI solutions that can process written and spoken language. You'll learn about Azure services that can be used to build solutions that analyze text, recognize and synthesize speech, translate between languages, and interpret commands.
Module 5: Conversation AI
Conversational AI enables users to engage in a dialog with an AI agent, or *bot*, through communication channels such as email, webchat interfaces, social media, and others. This module describes some basic principles for working with bots and gives you an opportunity to create a bot that can respond intelligently to user questions.
Lessons
Tag 1
Modul 1: Sicherheit auf AWS
Modul 2: Identifizierung von Einstiegspunkten in AWS
Modul 3: Sicherheitserwägungen: Webanwendungsumgebungen
Modul 4: Anwendungssicherheit
Modul 5: Datensicherheit
Tag 2
Modul 6: Absicherung der Netzwerkkommunikation
Modul 7: Überwachung und Erfassung von Protokollen auf AWS
Modul 8: Verarbeitung von Protokollen auf AWS
Modul 9: Sicherheitsbetrachtungen: Hybride Umgebungen
Modul 10: Out-of-Region-Schutz
Tag 3
Modul 11: Sicherheitsüberlegungen: Serverlose Umgebungen
Modul 12: Erkennung und Untersuchung von Bedrohungen
Modul 13: Verwaltung von Geheimnissen in AWS
Modul 14: Automatisierung und Sicherheit durch Design
Modul 15: Kontoverwaltung und -bereitstellung in AWS
Dieser Kurs bereitet dich darauf vor, die folgende offizielle AWS-Zertifizierung zu erlangen:
AWS Certified Security – Specialty.
AWS JAM Day
Der AWS JAM Day ist eine spielerische Veranstaltung, bei der die Teilnehmenden in Teams aufgeteilt werden, um in einer Reihe von Best-Practice-Herausforderungen auf der Grundlage der im Kurs "Developing on AWS" behandelten Konzepte gegeneinander anzutreten. Zusätzlich zu den praktischen Übungen des Kurses "Developing on AWS" bietet der zusätzliche Jam-Tag mit angeleiteten Herausforderungen den Teilnehmenden die Möglichkeit, AWS Jam zu nutzen, um reale Szenarien zu bewältigen, die allgemeine Betriebs- und Fehlerbehebungsaufgaben darstellen, die für ihre Job-Rolle relevant sind. Du kannst dein Wissen in einer sicheren und realen AWS-Umgebung anwenden. Das Ziel eines AWS Jam ist es, die Fähigkeiten in der AWS-Cloud zu entwickeln, zu verbessern und zu validieren und sich darauf vorzubereiten, die praktischen Fähigkeiten nach der Rückkehr in den Arbeitsalltag zu nutzen.
1. Python kennenlernen und erste eigene Schritte
2. Python entdecken und in Praxisbeispielen anwenden
3. Ein Ausblick in die weitere Python-Welt
In dem Seminar werden Sie unter Anleitung der Referierenden selbst Programmieraufgaben ausführen und die Programmiersprache direkt im praktischen Einsatz kennenlernen. Die vorbereiteten Aufgaben werden Ihnen in praktischen Jupyter Notebooks bereitgestellt, die Sie auf Ihrem eigenen Rechner laufen lassen können.
Mit diesem Seminar erhalten Sie fundierte Kenntnisse in der Programmiersprache Python. Der Kurs legt dabei einen starken Fokus auf die praktische Anwendung und ermöglicht es Ihnen, von Anfang an eigenen Code zu schreiben und so die Sprache auf kurzweilige Art und Weise effektiv zu erlernen.
Die technischen Einstiegshürden werden durch den Einsatz von Jupyter Notebooks minimiert, welche den Teilnehmenden erlauben, ohne Installation großer Programmierumgebungen direkt mit den Programmieraufgaben zu beginnen.
Nach diesem Seminar werden Sie die grundlegenden Konzepte der Programmierung verstehen und Python-Code lesen und schreiben können. Unter anderem werden Sie Python für Automatisierungen und Datenanalysen einsetzen und Python-Bibliotheken einsetzen können.
Modul 1: Einführung in KI auf Azure
Künstliche Intelligenz (KI) bildet zunehmend den Kern moderner Apps und Dienste. In diesem Modul lernst du einige gängige KI-Funktionen kennen, die du in deinen Apps nutzen kannst, und erfährst, wie diese Funktionen in Microsoft Azure implementiert werden. Außerdem lernst du einige Überlegungen zum verantwortungsvollen Entwurf und zur Implementierung von KI-Lösungen kennen.
Lektionen:
Modul 2: Entwickeln von KI-Apps mit Cognitive Services
Cognitive Services sind die Kernbausteine für die Integration von KI-Funktionen in deine Apps. In diesem Modul lernst du, wie du kognitive Dienste bereitstellst, sicherst, überwachst und einsetzt.
Lektionen:
Übungen:
Modul 3: Erste Schritte mit Natural Language Processing
Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein Zweig der künstlichen Intelligenz, der sich mit der Extraktion von Erkenntnissen aus geschriebener oder gesprochener Sprache beschäftigt. In diesem Modul lernst du, wie du kognitive Dienste verwendest, um Texte zu analysieren und zu übersetzen.
Lektionen:
Übungen:
Modul 4: Erstellen von sprachgesteuerten Anwendungen
Viele moderne Anwendungen und Dienste akzeptieren gesprochene Eingaben und können darauf mit der Synthese von Text reagieren. In diesem Modul setzt du deine Erkundung der Funktionen zur Verarbeitung natürlicher Sprache fort, indem du lernst, wie du sprachfähige Anwendungen erstellst.
Lektionen:
Übungen:
Modul 5: Erstellen von Lösungen zum Sprachverstehen
Um eine Anwendung zu erstellen, die natürliche Spracheingaben intelligent verstehen und darauf reagieren kann, musst du ein Modell für das Sprachverständnis definieren und trainieren. In diesem Modul lernst du, wie du den Sprachverstehens-Dienst verwendest, um eine Anwendung zu erstellen, die die Absicht des Benutzers anhand von Eingaben in natürlicher Sprache erkennen kann.
Lektionen:
Übungen:
Modul 6: Erstellen einer QnA-Lösung
Eine der häufigsten Arten der Interaktion zwischen Anwender:innen und KI-Software-Agenten besteht darin, dass Anwender:innen Fragen in natürlicher Sprache stellen und der KI-Agent intelligent mit einer passenden Antwort antwortet. In diesem Modul erfährst du, wie der QnA Maker-Dienst die Entwicklung dieser Art von Lösung ermöglicht.
Lektionen:
Übung:
Modul 7: Konversationelle KI und der Azure Bot Service
Bots sind die Grundlage für eine zunehmend verbreitete Art von KI-Anwendungen, bei denen Benutzer:innen mit KI-Agenten in Konversationen treten, oft so, wie sie es mit einem menschlichen Agenten tun würden. In diesem Modul lernst du das Microsoft Bot Framework und den Azure Bot Service kennen, die zusammen eine Plattform für die Erstellung und Bereitstellung von konversationellen Erlebnissen bieten.
Lektionen:
Übungen:
Modul 8: Erste Schritte mit Computer Vision
Computer Vision ist ein Bereich der künstlichen Intelligenz, in dem Softwareanwendungen visuelle Eingaben aus Bildern oder Videos interpretieren. In diesem Modul beginnst du deine Erkundung der Computer Vision, indem du lernst , wie du kognitive Dienste zur Analyse von Bildern und Videos verwendest.
Lektionen:
Übungen:
Modul 9: Entwickeln eigener Bildverarbeitungslösungen
Es gibt zwar viele Szenarien, in denen vordefinierte allgemeine Computer Vision-Funktionen nützlich sein können, aber manchmal musst du ein benutzerdefiniertes Modell mit deinen eigenen visuellen Daten trainieren. In diesem Modul lernst du den Custom Vision-Dienst kennen und erfährst, wie du damit benutzerdefinierte Modelle zur Bildklassifizierung und Objekterkennung erstellen kannst.
Lektionen:
Übungen:
Modul 10: Erkennen, Analysieren und Wiedererkennen von Gesichtern
Die Erkennung, Analyse und Erkennung von Gesichtern sind häufige Szenarien der Computer Vision. In diesem Modul lernst du den Einsatz von kognitiven Diensten zur Erkennung menschlicher Gesichter kennen.
Lektionen:
Übung:
Modul 11: Lesen von Text in Bildern und Dokumenten
Optische Zeichenerkennung (OCR) ist ein weiteres häufiges Computer Vision-Szenario, bei dem Software Text aus Bildern oder Dokumenten extrahiert. In diesem Modul lernst du kognitive Dienste kennen, die zum Erkennen und Lesen von Text in Bildern, Dokumenten und Formularen verwendet werden können.
Lektionen:
Übungen:
Modul 12: Erstellen einer Knowledge-Mining-Lösung
Letztlich geht es in vielen KI-Szenarien um die intelligente Suche nach Informationen auf Basis von Benutzeranfragen. KI-gestütztes Knowledge Mining ist ein zunehmend wichtiger Weg, um intelligente Suchlösungen zu erstellen, die KI nutzen, um Erkenntnisse aus großen Beständen digitaler Daten zu extrahieren und es den Benutzer:innen zu ermöglichen, diese Erkenntnisse zu finden und zu analysieren.
Lektionen:
Übungen:
Erweiterte Funktionen
Verwenden des .NET-Framework und REST API in Windows PowerShell
Fernsteuern von COM-Objekten
JEA
Verwaltung des Server-Netzwerks
Verwendung von C#, VB und C++ Code in Windows PowerShell
Umgang mit Skriptfehlern
Datenbereiche und Datendateien
Einsatz von XML-, JSON- und formatierten Daten
Einführung in Microsoft Graph
Ordnerfreigaben und Freigabeberechtigungen in Windows PowerShell
Workshop mit Aufgabenstellungen
1. Einführung in vSAN
2. Planung eines vSAN Clusters
3. Wichtigkeit der Hardwarekompatibilität
4. vSAN Storage Policies
5. vSAN Resilience und Datenverfügbarkeit
6. Verwaltung der Speicherplatzeffizienz von vSAN
7. vSAN Security Operations
8. vSAN HCI Mesh
9. vSAN File Service und iSCSI Target Service
10. vSAN Stretched und Two Node Clusters
11. Wartung von vSAN Clustern
12. Überwachung von vSAN Clustern
13. vSAN Troubleshooting
14. vSAN Express Storage Architecture
1. Erstellung und Konfiguration von Management-Clustern
2. Erstellung und Konfiguration von Produktions-Clustern
3. Fehlerbehebung bei vSphere und Sicherung von Konfigurationen
4. Lifecycle Management
5. vSphere Security
1. Überblick über vRealize Automation und vRealize Orchestrator
2. Erstellen von Schema-Elementen
3. Arbeiten mit Variablen
4. Fehlerbehandlung, Logging und Debugging
5. Verzweigungen und Schleifen
6. Arbeiten mit Assets
7. Arbeiten mit Plug-ins
8. Arbeiten mit Versionierung und Git
9. Planung, Schlafen und Warten
10. Einführung in die Erweiterbarkeit von vRealize Automation
11. Erweiterung von vRealize Automation mit Event Broker
12. Verwendung von ABX Actions
13. Arbeiten mit Services, Custom Resources und Resource Actions
14. Verwendung von vSphere Client Code Capture
1. Course Introduction
2. Custom Groups and Applications
3. Custom Dashboard Design
4. Custom Policies
5. Alerts, Symptoms and Troubleshooting workbench
6. Capacity Models and What-if Scenarios
7. vRealize Operations integration
8. Super Metrics
1. Course Introduction
2. Running a vRealize Operations Instance
3. vRealize Operations Troubleshooting Tools
4. vRealize Operations Troubleshooting Scenarios
5. Maintaining vRealize Operations
1. Course Introduction
2. Introduction to vRealize Operations
3. vRealize Operations Concepts
4. vRealize Operations Policies
5. Capacity Optimization
6. Costing in vRealize Operations
7. Performance Optimization
8. Troubleshooting and Managing Configuration
9. Operating System and Application Monitoring
10. Managing a vRealize Operations Deployment
1. Virtualization and vSphere Concepts
2. Navigation im vSphere Client
3. Lifecycle von Virtual Machines
4. vSphere Networking
5. vSphere Storage
6. Virtual Machine Management
7. Resource Monitoring
8. vSphere Clusters
1. Course Introduction
2. Introduction to vRealize Operations
3. vRealize Operations Architecture
4. Deploying vRealize Operations
5. vRealize Operations Concepts
6. vRealize Operations Policies and Certificate Management
7. Capacity Optimization
8. What-If Scenarios and Costing in vRealize Operations
9. Performance Optimization
10. Troubleshooting and Managing Configurations
11. Operating System and Application Monitoring
12. Custom Alerts
13. Custom Views and Reports
14. Custom Dashboards
15. Super Metrics
16. User Access Control
17. Extending and managing a vRealize Operations Deployment
Dieser Kurs behandelt NSX 4.x, den direkten Nachfolger von NSX-T 3.2. Hier erhältst du weitere Infos zur Namensänderung des Produkts und den Release Notes.
1. NSX Design: Konzepte
2. NSX Architektur und Komponenten
3. NSX Edge Design
4. NSX Logical Switching Design
5. NSX Logical Routing Design
6. NSX Security Design
7. NSX Network Services
8. Physical Infrastructure Design
9. NSX Multilocation Design
10. NSX Optimization und DPU-Based Acceleration
1. Einführung in NSX-T Data Center
2. Migrationsansätze
3. Feste Topologien für die Migration
4. End-to-End Migration
5. Andere Migrationsmodi
6. Lift-and-Shift-Migration
7. Fehlerbehebung bei Migrationen
8. Cross-vCenter NSX zu NSX Federation Migration
1. Einführung in VMware Aria Suite Lifecycle
2. Konfiguration von VMware Aria Suite Lifecycle
3. Hinzufügen von VMware Aria Suite Produkten
4. VMware Aria Suite Lifecycle Day 2 Operations
5. Migration von VMware Aria Suite Lifecycle
6. Fehlerbehebung bei VMware Aria Suite Lifecycle
This course covers NSX 4.x, the direct successor to NSX-T 3.2.
1. Security Basics
2. VMware Intrinsic Security
3. Implementing Zero-Trust Security
4. User and Role Management
5. Distributed Firewall
6. Gateway Security
7. Operating Internal Firewalls
8. Network Introspection
9. Endpoint Protection
10. Intrusion Detection and Prevention
11. NSX Application Platform
12. NSX Malware Prevention
13. NSX Intelligence and NSX NDR
1. VMware Cloud Foundation+ und VMware Cloud Konnektivität
2. Day-Zero-Aufgaben
3. Den Onboarding-Assistenten abschließen
4. VMware Cloud Foundation: Netzwerkanbindung mit NSX
5. Verwaltung von Workload-Domänen
6. vSphere mit Tanzu in VMware Cloud Foundation
7. VMware Cloud Foundation Speicherverwaltung
8. Verfügbarkeit und Geschäftskontinuität
9. VMware Cloud Foundation Zertifikatsverwaltung
10. VMware Cloud Foundation: Lifecycle Management
11. VMware Cloud Foundation: Fehlerbehebung
1. Einführung in Container und Kubernetes
2. Einführung in vSphere mit Tanzu
3. vSphere mit Tanzu: Infrastruktur
4. vSphere mit Tanzu: Architektur
5. vSphere mit Tanzu: Workloads und Services
1. Advanced VMware Cloud Director Architecture
2. NSX for vSphere Versus NSX-T Data Center and Migration
3. NSX Advanced Load Balancer
4. VMware Cloud Director Availability
5. vRealize Operations Manager and Tenant App
6. VMware Cloud Director Orchestration
1. Introduction to VMware Aria Operations for Networks
2. VMware Aria Operations for Networks Architecture and Components
3. VMware Aria Operations for Networks Installation
4. VMware Aria Operations for Networks Use Cases
5. Operations and Troubleshooting Common Issues
1. Einführung in VMware Aria Operations for Logs
2. VMware Aria Operations for Logs: Architektur und Bereitstellung
3. Analysieren von Logs
4. Dashboards, Warnungen und Berichten
5. VMware Aria Operations for Logs: Administration
6. Content Packs, Zertifikate und Agents
7. Integration von VMware Aria Operations for Logs
1. Overview of VMware Aria Automation and VMware Aria Automation Orchestrator
2. Using Schema Elements
3. Working with Variables
4. Handling Exceptions, Logging, and Debugging
5. Branching and Looping
6. Working with Assets
7. Working with Plug-Ins
8. Working with Versioning and Git
9. Working with Time-Related Schema Elements
10. Introduction to Extensibility
11. Using the Event Broker
12. Using ABX Actions
13. Working with Services, Custom Resources, and Resource Actions
14. Capturing the vSphere Client Code
1. VMware Aria Automation Clustered Deployment
2. Advanced VMware Aria Automation Templates
3. Advanced Networking
4. Advanced Orchestrator Workflows
5. Using ABX Actions
6. Kubernetes Integration
7. Aria Automation Pipelines
8. Aria Automation and Configuration Management
1. Introduction to VMware HCX
2. HCX Architecture
3. HCX Deployment
4. Service Mesh Deployment
5. HCX+
6. HCX Network Extension
7. Traffic Engineering and WAN Optimization
8. Workload Mobility
9. Business Continuity and Disaster Recovery
10. HCX Lifecycle Management
An AWS expert will help you understand how to build applications with complex data characteristics and millisecond-level performance requirements for your databases. You will learn how to use purpose-built databases to create typical modern applications with different access patterns and real-time scaling requirements. Through a series of presentations, guided tours, group discussions, and hands-on exercises, you will get to know the advanced features of Amazon DynamoDB, Amazon DocumentDB (with MongoDB compatibility), and Amazon ElastiCache for Redis.
1. Analyzing Use Cases for NoSQL Databases
2. Advanced Amazon DynamoDB Concepts
3. Advanced Amazon DocumentDB Concepts
4. Advanced Amazon ElastiCache for Redis Concepts
The course provides an overview of generative AI, planning a generative AI project, getting started with Amazon Bedrock, the basics of prompt engineering, and architectural patterns for building generative AI applications with Amazon Bedrock and LangChain.
1. Introduction to Generative AI - The Art of the Possible
2. Planning a Generative AI Project
3. Getting Started with Amazon Bedrock
4. Basics of Prompt Engineering
5. Amazon Bedrock Application Components
6. Amazon Bedrock Foundation Models
7. LangChain
8. Architectural Patterns
Learn about AWS storage services and solutions for storing, accessing, and protecting your data. An AWS expert will help you understand where, how, and when to take advantage of the various storage services.
Discover how to best evaluate the appropriate AWS storage service options for your use case and business requirements. The course delves into how to store, manage, and protect your data in the cloud. Through presentations, demonstrations, group exercises, and a series of hands-on labs, you will learn how to deploy powerful storage solutions in minutes.
1. Introduction to Cloud Storage
2. Designing Object Storage Solutions in AWS
3. Implementing Object Storage Solutions with S3
4. Designing Block Storage Solutions in AWS
5. Implementing Block Storage Solutions with Amazon EBS
6. File Storage and Amazon EFS
7. Cloud File Storage with Amazon FSx
8. Hybrid and Edge Cloud Storage
9. Moving Data to AWS
10. Backup and Disaster Recovery with AWS
11. Monitoring, Automating, and Optimizing Your AWS Storage
1. Übersicht über Windows 11
2. Installieren von Windows 11
3. Upgrading / Updating von Windows 11
4.Verwalten von Apps in Windows 11
5. Implementierung und Verwaltung der Sicherheit
6. Speicherverwaltung
7. Die Überwachung von Windows 11
8. Eine Einführung in Windows PowerShell
Eine Public-Key-Infrastruktur (PKI) ist ein wirksames Werkzeug für den Schutz von Systemen und Diensten im Internet. PKI ist, obwohl seit über 20 Jahren in Entwicklung, erst in den letzten paar Jahren bei Sicherheitsverantwortlichen zum Thema geworden. Ein wesentlicher Markttreiber sind die neuen Möglichkeiten der Digitalen Signaturen, die eine PKI voraussetzen.
Public-Key-Kryptografie ist eine ausgereifte Technologie, die die Basis bildet für sichere Protokolle. Ein Standardmechanismus für die Verteilung von Public Keys war lange Zeit nicht verfügbar. Heute sind jedoch auf beiden Seiten Fortschritte erzielt worden. Du musst kein Experte in Public-Key-Kryptografie mehr sein, um deren Vorteile zu erkennen. Denn heute sind verschiedenste Produkte im Markt verfügbar. Dieser Kurs hilft dir, von den vielen Möglichkeiten die für dich richtigen auszuwählen und erfolgreich einzusetzen.
Tag 1: Theorietag
1. Einleitung
2. Kryptografische Grundlagen
3. Authentisierung
4. PKI-Basis
5. PKI-Komponenten
6. PKI-Architekturen
7. Verifikation
8. Certificate Revocation List (CRL)
9. Directories
10. X.509-Zertifikate
11. Vertrauen, Abläufe, Policies
12.Anwendungen
Tag 2: Praxistag
Aufbau einer zweistufigen Certification-Authority-Umgebung mit einer Stand-alone Offline Root Certification Authority
Am Ende des Theorieteils bist du in der Lage,
Nach dem Public-Key-Infrastructure-Praxistag wirst du in der Lage sein, alle notwendigen Komponenten einer vollständigen PKI-Umgebung einzurichten, richtig zu konfigurieren, zu verwalten, zu sichern und ein Troubleshooting durchzuführen.
Power BI Desktop
Power BI Service
Lerne die verschiedenen Möglichkeiten zur Erweiterung von Copilot kennen, einschließlich der Erstellung von Plugins und Konnektoren, und wie du die richtige Option für deinen Anwendungsfall auswählst. Der Kurs behandelt auch Best Practices für die Erstellung von hochqualitativen Plugins und Konnektoren sowie Überlegungen zu Daten, Datenschutz und Sicherheit. Unabhängig davon, ob du ein Pro-Code- oder Low-/No-Code-Entwickler:in bist, wird dieser Kurs dir helfen, deinen Weg zur Erweiterung und Anpassung von Copilot für Microsoft 365 zu finden.
1. Microsoft-Copilot-Erweiterbarkeitsgrundlagen
Erfahre, wie du eine Strategie entwickelst, um Copilot für Microsoft 365 mit benutzerdefinierten Fähigkeiten und organisationsbezogenen Kenntnissen zu verbessern und dich auf Plug-Ins und Connectors zu konzentrieren, um die Effizienz und Produktivität anwendungsübergreifend zu verbessern. Es beschreibt die Optionen für die Erweiterung von Copilot und betont die Integration dieser Erweiterungen, um das Potenzial des Tools zu maximieren.
2. Auswählen eines Copilot-Erweiterbarkeitsentwicklungspfads
Erfahre, wie du eine Strategie entwickelst, um Copilot für Microsoft 365 mit benutzerdefinierten Fähigkeiten und organisationsbezogenen Kenntnissen zu verbessern und dich auf Plug-Ins und Connectors zu konzentrieren, um die Effizienz und Produktivität anwendungsübergreifend zu verbessern. Es beschreibt die Optionen für die Erweiterung von Copilot und betont die Integration dieser Erweiterungen, um das Potenzial des Tools zu maximieren.
3. Geführtes Projekt: Erstellen eines Nachrichtenerweiterungs-Plug-Ins mit TypeScript (TS) für Microsoft Copilot
In diesem geführten Projekt geht es um das Erstellen von Nachrichtenerweiterungs-Plug-Ins für Microsoft Copilot für Microsoft 365 mithilfe von TypeScript und dem Teams Toolkit.
Der Kurs bietet einen Überblick über generative KI, die Planung eines generativen KI-Projekts, den Einstieg in Amazon Bedrock, die Grundlagen des Prompt-Engineerings und die Architekturmuster zur Erstellung generativer KI-Anwendungen mit Amazon Bedrock und LangChain.
Tag 1
Modul 1: Einführung in generative KI - Die Kunst des Möglichen
Modul 2: Planung eines generativen KI-Projekts
Modul 3: Erste Schritte mit Amazon Bedrock
Modul 4: Grundlagen des Prompt Engineering
Tag 2
Modul 5: Amazon-Bedrock-Anwendungskomponenten
Modul 6: Amazon Bedrock-Grundmodelle
Modul 7: LangChain
Modul 8: Architekturmuster (Patterns)
Lerne die AWS-Speicherservices und Lösungen zum Speichern, Zugreifen und Schützen deiner Daten kennen. Ein AWS-Experte hilft dir zu verstehen, wo, wie und wann du die Vorteile der verschiedenen Speicherservices nutzen kannst.
Erfahre, wie du die geeigneten AWS-Speicherservice-Optionen für deinen Anwendungsfall und deine Geschäftsanforderungen am besten bewertest. Der Kurs befasst sich eingehend damit, wie du deine Daten in der Cloud speichern, verwalten und schützen kannst. Anhand von Präsentationen, Demonstrationen, Gruppenübungen und einer Reihe praktischer Übungen lernst du, wie du in wenigen Minuten leistungsstarke Speicherlösungen bereitstellen kannst.
Tag 1
1. Einführung in die Cloud-Speicherung
2. Entwerfen von Objektspeicher-Lösungen in AWS
3. Implementieren von Objektspeicher-Lösungen mit S3
4. Entwerfen von Blockspeicher-Lösungen in AWS
Tag 2
5. Implementierung von Blockspeicher-Lösungen mit Amazon EBS
6. Dateispeicher und Amazon EFS
7. Cloud-Dateispeicherung mit Amazon FSx
Tag 3
8. Hybride und Edge-Cloud-Speicher
9. Verschieben von Daten zu AWS
10. Sicherung und Notfallwiederherstellung mit AWS
11. Überwachen, Automatisieren und Optimieren Ihres AWS-Speichers
1. Course Introduction
Introductions and objectives
2. Containers
3. Kubernetes Overview
4. Beyond Kubernetes Basics
5. Kubernetes Networking
6. Stateful Applications in Kubernetes
7. Additional Kubernetes Considerations
8. Security
9. Logging and Monitoring
10. Cluster Operations
1. Einleitung
2. Einfaches Skript
3. Werte
4. Operatoren
5. Datentypen
6. Textvorlagen
7. Arrays
8. Verzweigungen
9. Schleifen
10. Sprünge
11. Funktionen
12. JavaScript Object Notation (JSON)
13. Formulare
14. Ereignisse
15. Browser
1. Grundlagen von Atlassian und Jira
2. Jira Service Management vs. Jira Software vs. Jira Work Management
3. Kundenfunktionalität Agenten
4. Agentenfunktionalität
5. Projektverwaltung
6. Automation
7. Zulassungen
8. Globale Verwaltungsanwendungen
9. ITSM-Funktionen
10. Einführung von Opsgenie
11. Einführung von Assets
12. Einführung von Statuspage
1. Erstellen deines Kernels
In diesem Modul wird Semantic Kernel SDK vorgestellt. Erfahre, wie der Kernel Code mit großen Sprachmodellen verbindet, um Funktionen um generative künstlicher Intelligenz zu erweitern.
2. Erstellen von Plug-Ins für Semantic Kernel
In diesem Modul werden Plug-Ins für Semantic Kernel SDK untersucht. Erfahre, wie Plug-Ins für SDK verwendet werden, um angepasste Aufgaben auszuführen und intelligente Anwendungen zu erstellen.
3. Erweitern Ihrer AI-Agents mit Skills
In diesem Modul werden native Funktionen im Semantic Kernel SDK untersucht. Erfahre, wie native Funktionen angepasste Aufgaben ausführen können, wodurch dein AI-Agent effektiv eine „Fähigkeit“ erhält.
4. Verwenden intelligenter Plane
In diesem Modul werden verschiedene Möglichkeiten zum automatischen Aufrufen von Funktionen mithilfe von Semantic Kernel SDK eingeführt. Erfahre, wie Planer Pläne zum Ausführen von Aufgaben erstellen können und wie du Planer optimieren kannst, um die Leistung zu optimieren.
5. Geführtes Projekt – Erstellen eines AI-Reiseagenten
Dieses Modul führt dich durch die Schritte, die erforderlich sind, um ein Proof of Concept für einen AI-Reiseassistenten mit dem Semantic Kernel SDK zu entwickeln. Am Ende dieses Moduls stellst du eine kleine Chatbot-Anwendung fertig.
1. Tabellen in Dataverse erstellen
Dataverse ermöglicht dir das sichere Speichern und Verwalten von Daten, die von Geschäftsanwendungen verwendet werden. Standardentitäten und benutzerdefinierte Tabellen in Dataverse bieten eine sichere und cloudbasierte Speicheroption für deine Daten.
2. Erste Schritte mit modellgesteuerten Apps in Power Apps
Der Entwurf einer modellgesteuerten App ist ein Ansatz, der sich auf das schnelle Hinzufügen von Komponenten zu deinen Apps konzentriert. Zu diesen Komponenten gehören Dashboards, Formulare, Ansichten und Diagramme. Mit wenig oder keinem Code kannst du Apps erstellen, die einfach oder komplex sind.
3. Formulare, Diagramme und Dashboards in modellgesteuerten Apps konfigurieren
In diesem Modul lernst du Formulare, Raster, Ansichten, Diagramme und Dashboards kennen, die in modellgesteuerten Apps verwendet werden können.
4. Lösungen in Power Apps und Power Automate verwalten
Microsoft Power Apps und Power Automate beinhalten Funktionen wie Apps aus Microsoft Power Apps, Siteübersichten, Flows, Entitäten, Konnektoren für Kunden und mehr. In diesem Modul erfährst du, wie du Lösungen in Power Automate verwaltest.
5. Angeleitetes Projekt – Modellgesteuerte Apps mit Power Apps und Dataverse erstellen und verwalten
In diesem Modul übst du die Erstellung modellgesteuerter Apps mit Microsoft Power Apps, einschließlich der Erstellung von Dataverse-Tabellen, der Änderung von Formularen und Ansichten sowie der Konfiguration von Apps. Die Übung bietet interaktive Übungen mit realen Szenarien für unternehmensspezifische Herausforderungen.
1. Erste Schritte mit Power Apps-Canvas-Apps
Dieses Modul bietet Lernenden eine Einführung in Power Apps. Es beginnt mit einem Einführungsvideo, das kurz das „Warum“ (Fall für Power Apps) und das „Was“ beschreibt, was Benutzer:innen mit Power Apps tun können. Die Lerneinheiten führen die Benutzer:innen dann durch das „Wie“ und vermitteln ihnen das Vertrauen, dass sie Power Apps für die Interaktion mit ihren Daten nutzen können.
2. Canvas-App in Power Apps anpassen
In diesem Modul zeigen wir den Lernenden, wie sie ihre App anpassen können, eine notwendige Fähigkeit, um die Funktionen von Power Apps verwenden zu können. Diese Lerneinheit baut auf der in der ersten Lerneinheit erstellten App auf.
3. Die Benutzeroberfläche in einer Canvas-App in Power Apps erstellen
In diesem Modul erfahren die Lernenden, wie sie eine Benutzeroberfläche für ihre App erstellen, einschließlich Themen, Symbolen, Bildern, Personalisierung, Formfaktoren und Steuerelementen. Auf ihrem bisherigen Lernpfad haben die Lernenden grundlegende Steuerelemente mit wenig bis gar keinen Anpassungen verwendet. In dieser Lerneinheit wird gezeigt, wie du eine App persönlicher gestaltest und sie an das Branding oder persönliche Anforderungen anpassen kannst.
4. Mit externen Daten in einer Power Apps-Canvas-App arbeiten
Möchtest du eine App verbinden, um auf Daten zugreifen zu können? Dann ist dieses Modul genau richtig. Der Schwerpunkt liegt auf der Verbindung deiner App mit einer Datenquelle.
5. Daten in eine Power Apps-Canvas-App schreiben
Formulare können zum Anzeigen, Bearbeiten und Erstellen von Datensätzen verwendet werden. Dieses Modul zeigt, wie du mithilfe von Formularen Daten in deine Ihre Datenquelle schreiben. Folgende Themen werden behandelt: Einrichten von Formularen, die verschiedenen Formularmodi und Konfigurieren einer Schaltfläche zum Übermitteln.
6. Eine Canvas-App veröffentlichen, teilen und warten
Du hast deine erste App erstellt. Jetzt ist es an der Zeit, sie zu veröffentlichen, mit anderen zu teilen und nachfolgende Versionen der App zu warten.
7. Angeleitetes Projekt – Canvas-Apps mit Power Apps erstellen und verwalten
Erstelle dein eigenes Datenmodell, deine eigene Canvas-App und einen eigenen Flow, um ein Szenario für ein fiktives Unternehmen zu unterstützen. Du erhältst allgemeine Spezifikationen zu den benutzerdefinierten Tabellen, Spalten und der Canvas-App, die erforderlich sind, um dieses Projekt abzuschließen.
8. Erste Schritte mit Power Automate
Power Automate ist ein Online-Workflowdienst, der Aktionen für die häufigsten Apps und Dienste automatisiert.
9. Genehmigungsflows mit Power Automate erstellen
Power Automate ist ein Online-Workflowdienst, der Aktionen für die häufigsten Apps und Dienste automatisiert. In diesem Modul erstellst du Genehmigungsflows, um dein Geschäft zu optimieren, Zeit zu sparen und effizienter zu arbeiten.
10. Flows erstellen, um Benutzerinformationen zu verwalten
Power Automate ist ein Online-Workflowdienst, der Aktionen für die häufigsten Apps und Dienste automatisiert. In diesem Modul erstellst du weitere Flows zum Verwalten von Benutzerinformationen.
11. Die tiefe Integration von Power Automate über mehrere Datenquellen hinweg
Power Automate ist ein Online-Workflowdienst, der Aktionen für die häufigsten Apps und Dienste automatisiert. In diesem Modul erstellst du Flows über mehrere Datenquellen hinweg.
12. Angeleitetes Projekt – Automatisierte Prozesse mit Power Automate erstellen und verwalten
Erstelle dein eigenes Datenmodell und einen eigenen Flow, um ein Szenario für ein fiktives Unternehmen zu unterstützen. Sie erhalten allgemeine Spezifikationen zu den benutzerdefinierten Tabellen, Spalten und dem Flow, die erforderlich sind, um dieses Projekt abzuschließen.
Absichern von mobilen Geräten – Einführung
Plattform-Überblick
Application Management / App Protection / Data Protection
Verwalten von Android
Verwalten von iOS
Absichern und Verwalten von Geräten
1. Bereitstellen von Containern mithilfe von Azure Kubernetes Service (AKS)
In diesem Modul übst du die Bereitstellung von Containern, Container-Orchestrierung und Verwaltung von Clustern im Azure Kubernetes Service. Zu den besprochenen Fähigkeiten gehören das Bereitstellen, Konfigurieren und Skalieren eines Azure-Kubernetes-Serviceclusters. Du stellst außerdem eine Azure-Container-Registry-Instanz und eine Anwendung in einem Azure Kubernetes-Servicecluster bereit.
2. Konfigurieren des sicheren Zugriffs auf Ihre Workloads mithilfe virtueller Azure-Netzwerke
Dieses Modul behandelt die Konfiguration des sicheren Zugriffs auf Workloads mithilfe von Azure-Netzwerken.
3. Sicherer Speicher für Azure Files und Azure Blob Storage
Lerne das sichere Speichern von Geschäftsdaten mithilfe von Azure Blob Storage und Azure Files. Die überprüften Fähigkeiten umfassen das Erstellen von Speicherkonten, Speichercontainern und Dateifreigaben. Außerdem konfigurierst du die Verschlüsselung und das Netzwerk, um den Sicherheitsstatus zu verbessern.
4. Bereitstellen und Konfigurieren von Azure Monitor
Übe das Implementieren von Azure Monitor, um Telemetriedaten der Überwachung aus Azure-Umgebungen zu sammeln, zu analysieren und darauf zu reagieren. Du lernst, die Überwachung für VMs, Netzwerke und Webanwendungen zu konfigurieren und zu interpretieren.
5. Bereitstellen von cloudnativen Apps mit Azure Container Apps
Du enwickelst die erforderlichen Fertigkeiten, um eine sichere Bereitstellungslösung für cloudnative Apps zu konfigurieren. Erfahre, wie du containerisierte cloudnative Apps mit Azure Container Apps, Azure Container Registry und Azure-Pipelines erstellst, bereitstellst, skalierst und verwaltest.
1. Konfigurieren einer Projekt- und Repository-Struktur zur Unterstützung sicherer Pipelines
Dieses Modul soll Lernenden dabei helfen, die Bedeutung der Konfiguration einer sicheren Projekt- und Repositorystruktur zur Unterstützung von Pipelines in Azure DevOps zu verstehen. Das Modul behandelt grundlegende Konzepte und Best Practices zum Organisieren der Projekt- und Repositorystruktur und zum Verschieben des Sicherheitsrepositorys aus dem Anwendungsprojekt.
2. Konfigurieren des sicheren Zugriffs auf Pipelineressourcen
Dieses Modul soll Lernenden dabei helfen, die Bedeutung der Pipelinesicherheit und das Schützen von Pipelineressourcen mithilfe von Azure DevOps zu verstehen. Das Modul behandelt grundlegende Konzepte und Best Practices für sichere Agentpools, Geheimnisvariablen, geheime Dateien und Speicher, Dienstverbindungen, Umgebungen und Repositorys.
3. Verwalten von Identitäten für Projekte, Pipelines und Agents
Dieses Modul soll Lernenden helfen, die Bedeutung der Identitätsverwaltung für Projekte, Pipelines und Agents in Azure DevOps zu verstehen. Das Modul behandelt grundlegende Konzepte und Best Practices für das Konfigurieren eines von Microsoft gehosteten Pools, das Konfigurieren von Agents für Projekte, das Konfigurieren von Agentidentitäten, das Konfigurieren des Geltungsbereichs einer Dienstverbindung und die Konvertierung in eine verwaltete Identität.
4. Konfigurieren und Überprüfen von Berechtigungen
Dieses Modul behandelt grundlegende Konzepte und Best Practices zum Konfigurieren und Überprüfen von Benutzerberechtigungen, Pipelineberechtigungen, Genehmigungs- und Branchüberprüfungen sowie zum Überwachen und Verwalten von Berechtigungen.
5. Erweitern einer Pipeline für die Verwendung mehrerer Vorlagen
Dieses Modul soll Lernenden dabei helfen, die Bedeutung der Erweiterung einer Pipeline auf mehrere Vorlagen und die Verwendung von Azure DevOps zu verstehen. Das Modul behandelt grundlegende Konzepte und Best Practices zum Erstellen geschachtelter Vorlagen, zum erneuten Schreiben der Hauptbereitstellungspipeline, zum Konfigurieren der Pipeline und der Anwendung für die Verwendung der Tokenisierung, zum Entfernen von Nur-Text-Geheimnissen, zum Einschränken der Agentprotokollierung sowie zum Identifizieren und bedingten Entfernen von Skriptaufgaben.
6. Konfigurieren des sicheren Zugriffs auf Azure Repos aus Pipelines
Dieses Modul soll Lernenden dabei helfen, die Bedeutung der Sicherung des Zugriffs auf Azure Repos aus Pipelines und die Verwendung von Azure DevOps dafür zu verstehen. Das Modul behandelt grundlegende Konzepte und Best Practices zum Sichern des Zugriffs auf Pakete, Geheimnisse für Anmeldeinformationen, Geheimnisse für Dienste und Azure Key Vault.
7. Konfigurieren von Pipelines für die sichere Verwendung von Variablen und Parametern
Dieses Modul soll Lernenden dabei helfen, die Bedeutung der Konfiguration von Pipelines für die sichere Verwendung von Variablen und Parametern in Azure DevOps zu verstehen. Das Modul behandelt grundlegende Konzepte und Best Practices zu Folgendem: Sicherstellen, dass Parameter und Variablen ihren Typ beibehalten, Identifizieren und Einschränken einer unsicheren Verwendung von Parametern und Variablen, Verschieben von Parametern in eine YAML-Datei, die ihren Typ schützt, Einschränken von Variablen, die zur Warteschlangenzeit festgelegt werden können, und Überprüfen, dass obligatorische Variablen vorhanden und richtig festgelegt sind.
1. Nutzen von AI-Tools und Ressourcen für dein Geschäft
Dieses Modul bietet einen allgemeinen Überblick über die Hauptkonzepte von künstlicher Intelligenz (AI) und der zugrunde liegenden Technologien. Du erfährst, wie Microsoft künstliche Intelligenz (AI) in Tools, Produkte und Dienste einbindet, die von Organisationen genutzt werden können.
2. Schaffen von Geschäftswerten durch AI
Dieses Modul soll dir helfen, deine AI-Strategie zu planen und eine AI-orientierte Kultur einzuführen. Es wird ein Framework vorgeschlagen, um die Änderung in deiner Organisation voranzutreiben.
3. Anwenden von Prinzipien und Verfahren für verantwortungsvolle AI
Dieses Modul soll dich dabei unterstützen, Verfahren für verantwortungsvolle AI einzuführen. Du erhältst einen Überblick über die Grundsätze, das Governancesystem und die Verfahren, die bei Microsoft angewendet werden, aber wir empfehlen dir, eine eigene AI-Strategie zu entwickeln.
4. Skalieren von AI in Ihrer Organisation
Dieses Modul bietet Erkenntnisse für eine umfassende Einführung von AI in deiner Organisation. Es behandelt die AI-Strategie, das Zuweisen von Verantwortungsbereichen sowie die Unterstützung von Geschäftskund:innen und fachlichen Ansprechpartner:innen bei der eigenen Nutzung von AI.
1. Einführung in Azure KI Studio
Microsoft Azure bietet mehrere Dienste, mit denen Entwickler:innen spannende AI-basierte Lösungen erstellen können. Azure KI Studio vereint diese Dienste auf einer zentralen einheitlichen Benutzeroberfläche für die AI-Entwicklung auf der Azure-Cloudplattform.
2. Erste Schritte mit Prompt Flow zum Entwickeln von Sprachmodell-Apps in Azure AI Studio
Hier erfährst du, wie du mithilfe von prompt flow Anwendungen entwickelst, die Sprachmodelle in Azure KI Studio nutzt.
3. Erstellen einer RAG-basierten Copilot-Lösung mit deinen eigenen Daten mithilfe von Azure AI Studio
Copilots können dir Vorschläge bereitstellen, Inhalte generieren oder helfen, Entscheidungen zu treffen. Copilots verwenden Sprachmodelle als Form der generativen künstlichen Intelligenz (AI) und beantworten deine Fragen anhand der Daten, mit denen sie trainiert wurden. Um sicherzustellen, dass ein Copilot Informationen aus einer bestimmten Quelle abruft, kannst du beim Erstellen eines Copilots mit Azure KI Studio deine eigenen Daten hinzufügen.
4. Verantwortungsvolle generative AI in AI Studio
Mit generativer AI sind erstaunlich kreative Lösungen möglich, sie muss jedoch verantwortungsbewusst implementiert werden, um das Risiko zu minimieren, dass schädliche Inhalte generiert werden.
1. Einführung in Microsoft 365 und SharePoint Online
2. Richtlinien für SharePoint und OneDrive
3. Diverse Admin Centers
4. Technischer Hintergrund und Aufbau von Website-Sammlungen
5. Websites und deren Komponenten
6. Benutzerprofile
7. Verwaltete Metadaten und Inhaltstypen
8. Kurzübersicht über Microsoft Search
9. Sicherheit & Compliance
10. Troubleshooting SharePoint Online
Wichtigste Kursthemen auf einen Blick:
1. Vorstellung SharePoint Online
2. Vorstellung Umsetzungsprozess / Checkliste (Change & Adoption)
3. Tipps und Tricks, um ein Konzept und Struktur zu erarbeiten
4. Design von Pages und News
5. Dokumenten-Management und Arbeiten in Bibliotheken
6. Arbeiten mit Listen
7. Funktionen und Best Practices zum Arbeiten mit integrierten Apps wie Listen, PowerAutomate, Forms, etc.
8. Integration von SharePoint Online in Teams
9. Best Practices für einen Datenmigrations-Prozess
1. Einleitung
Zuerst wird eine Übersicht über das HTML5-Framework gegeben und die Struktur von Webseiten untersucht. Außerdem lernst du die Syntax von HTML5 genauer kennen.
2. Dokumente
In diesem Modul wird der Aufbau einer Webseite genauer untersucht. Dabei wird jedes Element einzeln mit seinen Funktionen vorgestellt.
3. Metainformationen
Die Metainformationen einer Webseite werden zwar nicht dem Betrachter angezeigt, sie liefern aber wichtige Informationen an Browser, Server und Robots. Hier lernst du, wie du alles richtig einstellst.
4. Überschriften
Die Überschriften einer Website sind maßgeblich für die Struktur der Seite, sowohl für die Benutzer:innen als auch für Robots, die die Webseiten maschinell erfassen.
5. Abschnitte
Auch wenn das Layout einer Webseite mit anderen Mitteln vorgenommen wird, gibt es grundlegende Elemente, mit denen Abschnitte und Absätze dargestellt werden können. Die Möglichkeiten und Grenzen zeigt dieser Teil des Kurses auf.
6. Zitate
Für die Hervorhebung von Text gibt es mehrere Optionen. Du erfährst, wann welches Element richtig ist und was das für die Darstellung bedeutet.
7. Definitionen
Die Definitionen in HTML5 dienen der Auszeichnung von semantischer Bedeutung, Stil und Lesbarkeit des Codes. Hier werden die Elemente vorgestellt und gezeigt, wann sie eingesetzt werden..
8. Texte
Die Gestaltung von Textelementen erfolgt mit CSS. Trotzdem gibt es viele Elemente, mit der die Darstellung von Text verändert werden kann.
9. Annotationen
Das ruby-Element wird verwendet, um Text mit Anmerkungen anzuzeigen, die typischerweise über oder neben dem Haupttext erscheinen. Es wird hauptsächlich für ostasiatische Schriftsysteme wie Chinesisch und Japanisch verwendet, um Aussprachehinweise (Furigana) oder Übersetzungen für Schriftzeichen bereitzustellen.
10. Listen
Lerne die verschiedenen Listentypen in HTML kennen und erfahre, wie man Listenelemente verwendet und Listen verschachtelt.
11. Verweise
Erfahre, wie Hyperlinks zur Navigation in der Webseite erstellt werden und wie iframe-Elemente zur Einbettung von Inhalten verwendet werden. Entdecke auch, wie du Links zu internen und externen Quellen setzen kannst.
12. Bilder
Erkunde die Verwendung des img-Elements zum Einfügen von Bildern in Webseiten. Lerne dabei auch weitere Elemente kennen, mit denen du interaktive und responsive Bilder erstellen kannst.
13. Grafiken
Verstehe, wie du die meter- und progress-Elemente für Messanzeigen verwendest, und entdecke die Möglichkeiten von Vektorgrafiken mit svg und die Erstellung von Zeichnungen und Animationen mit canvas.
14. Multimedia
Erfahre, wie Audio- und Video-Inhalte in die Webseite integriert werden und sogar sogar Untertitel und Textspuren in der Seite hinzufügen kannst.
15. Abbildungen
Lerne, wie du das figure-Element einsetzt, um Abbildungen und Diagramme zu strukturieren und wie du mit figcaption Beschreibungen und Legenden für Abbildungen hinzufügen kannst.
16. Tabellen
Tabellen sind ein wichtiges Werkzeug in HTML5, es lassen sich auch komplexe Konstruktionen darstellen. Erfahre, wie du Tabellen erstellst und wie du die erweiterten Techniken anwendest.
17. Layouts
Entdecke, mit welchen Layoutelementen du die Struktur deiner Webseite gestaltest, und lerne, wie diese Elemente zur semantischen Gliederung und besseren Zugänglichkeit beitragen.
18. Formulare
Erfahre alles über die Erstellung von Formularen mit dem form-Element und den vielen verschiedenen Eingabeelementen. Dabei erfährst du auch, wie du benutzerfreundliche und interaktive Formulare gestaltest.
1. Fortgeschrittene Techniken
2. ASP.NET Core Request Life Cycle
3. Diagnose
4. Security
5. Deployment
6. Bundling und Minification
7. Einführung in Betrieb und Überwachung von Applikationen
8. Ausblick Blazor
9. Ausblick TypeScript
1. MLOps – was es ist und warum es ohne nicht geht
2. Datenversionierung und Experiment Tracking
3. Data Pipeline Orchestration
4. Experiment Tracking
5. CI/CD für Machine Learning
6. Deployment und Serving
7. Monitoring
8. MLOps in der Cloud
9. Machine-Learning-Plattformen
10. Exkurs: LLMOps
Mit diesem Seminar erhältst du tiefgehendes Wissen über die Konzepte und Methoden von MLOps (Machine Learning Operations). Du lernst die grundlegenden Konzepte und Werkzeuge kennen und erlernst die praktische Arbeit mit den wichtigsten Tools (DVC, Dagster, MLflow, FastAPI, ONNX u.v.m.).
Du bekommst wertvolles Rüstzeug an die Hand, um skalierbare Data- und Machine-Learning-Pipelines zu konzipieren, zu planen, umzusetzen und zu betreuen.
Nach Abschluss dieses Trainings wirst du nicht nur fundierte theoretische Kenntnisse in der Sprachverarbeitung mit Künstlicher Intelligenz besitzen, sondern auch praktische Erfahrung in der Anwendung der Methoden und Tools. Du wirst fähig sein, eigene Machine-Learning-Pipelines zu entwickeln, anzupassen, zu überwachen und produktiv einzusetzen. Dies qualifiziert dich für fortgeschrittene Aufgaben in ML Engineering und KI-Entwicklung.
1. Einführung in Python für Data Science
2. Deskriptive Statistik mit pandas
3. Einstieg in das Machine Learning
4. Lineare Regression: Modelle, Training, Erweiterungen
5. Modellbewertung und Optimierung
6. Arbeiten mit relationalen Daten
7. Wichtige Klassifikationsverfahren
8. Optimierung und Bewertung von Modellen
9. Methoden im Unsupervised Learning
10. Überblick über Neuronale Netze
Praktische Übungen zum Mitprogrammieren
Durch das ganze Seminar hindurch löst du selbst praxisnahe Aufgaben mit Python, die dir helfen, das Gelernte sofort anzuwenden und zu festigen. Diese Übungen sind so konzipiert, dass sie Herausforderungen simulieren, mit denen Data Scientists in der realen Welt konfrontiert sind. Bereitgestellt werden die Aufgaben in Jupyter Notebooks – du benötigst also keine komplexen Programmierumgebungen.
Grundlegende Programmierkenntnisse von Vorteil
In diesem Seminar wird die Programmiersprache Python eingesetzt. Auch wenn das Seminar mit einem kurzen Crashkurs zu wichtigen Python-Anweisungen beginnt, ist es von Vorteil, wenn du schon grundlegende Programmierkenntnisse, etwa zu Variablen, Listen, Arrays und for-Schleifen, mitbringst oder dir vor dem Seminar erstes Wissen darüber aneignest. Damit kannst du die vermittelten Konzepte schneller erfassen und die praktischen Übungen effektiver umsetzen. Du kannst das Seminar auch ohne Vorkenntnisse erfolgreich belegen. Bitte richte dich dann auf eine etwas steilere Lernkurve ein. Ob mit oder ohne Vorwissen, die Referent:innen werden dich bestmöglich unterstützen und durch die Inhalte begleiten.
Du lernst alle Stufen im Data-Mining- und Machine-Learning-Prozess im Detail kennen – von der Datenvorbereitung bis zum Training und zur Anwendung von Datenmodellen.
Mit diesem Kurs erschließt du dir ein neues, gefragtes Kompetenzfeld und qualifizierst dich für Aufgaben in den Bereichen Datenanalyse, Machine Learning und Künstliche Intelligenz.
Nach Abschluss des Seminars bist du mit soliden Kenntnissen und praktischen Fähigkeiten ausgestattet, um Data Science-Projekte zu planen, zu konzipieren und selbst durchführen zu können.
Du entwickelst eine klare Vorstellung davon, wie du maschinelles Lernen in deinem beruflichen Alltag effektiv einsetzen kannst, um gezielt Anwendungsfälle zu unterstützen und Mehrwerte für dein Unternehmen zu schaffen.
1. Python-Techniken für das Text Processing
2. Einführung in Natural Language Processing (NLP)
3. Textklassifikation und Textanalyse
4. Topic Modelling und Long Short-Term Memory
5. Transformer und Attention
6. Transfer Learning und Finetuning mit Hugging Face
7. Praxisprojekt: Trainieren eines eigenen Chatbots
Mit diesem Seminar erhältst du tiefgehendes Wissen über Konzepte und Methoden zum Einsatz sprachbasierter Künstlicher Intelligenz. Du lernst die grundlegenden Technologien kennen und erarbeitest dir dabei dabei umfassendes Wissen über die Transformator-Architektur, die Schlüsseltechnologie für die moderne generative KI ist.
Du erlernst die praktische Arbeit mit den wichtigsten Python-Frameworks und mit vortrainierten Modellen auf Hugging Face kennen und weißt, wie du sie in eigenen Projekten einsetzen kannst.
Die technischen Hürden für den Einstieg sind minimal – durch den Einsatz von Jupyter Notebooks und kostenfreier Cloud-GPUs.
Nach Abschluss dieses Trainings wirst du nicht nur fundierte theoretische Kenntnisse in der Sprachverarbeitung mit Künstlicher Intelligenz besitzen, sondern auch praktische Erfahrung in der Anwendung von Methoden und Frameworks. Du wirst fähig sein, eigene, auf Machine Learning basierende Sprachsysteme und -modelle zu entwickeln, anzupassen und produktiv einzusetzen. Zudem lernst du, wie du die Technologien in eigenen Projekten nutzen kannst. Dies qualifiziert dich für fortgeschrittene Aufgaben in der KI-Entwicklung.
1. Einführung in das Deep Learning
2. Datenvorbereitung und Feature Extraction
3. Spezialisierte neuronale Netze
4. Modelle deployen und Transfer-Learning
Mit diesem Seminar erhältst du tiefgehendes Wissen über Konzepte und Methoden des Deep Learnings. Du lernst die Möglichkeiten und Grenzen der Technologie kennen und erstellst, trainierst und optimierst selbst eigene Datenmodelle und neuronale Netze.
Du lernst die praktische Arbeit den wichtigsten Python-Frameworks kennen und weißt, wie du sie in eigenen Projekten einsetzen kannst.
Die technischen Hürden für den Einstieg sind minimal – durch den Einsatz von Jupyter Notebooks und kostenfreier Cloud-GPUs.
Nach Abschluss dieses Trainings wirst du nicht nur fundierte theoretische Kenntnisse in Deep Learning besitzen, sondern auch praktische Erfahrung in der Anwendung moderner KI-Technologien gewinnen. Du wirst fähig sein, neuronale Netze zu evaluieren, anzupassen und produktiv einzusetzen. Zudem erlernst du, wie du die Technologien in eigenen Projekten nutzt. Dies qualifiziert dich für fortgeschrittene Aufgaben in der KI-Entwicklung.
Dieser AWS JAM Day baut auf dem offiziellen Kurs Security Engineering on AWS auf
Der AWS JAM Day ist eine spielerische Veranstaltung, bei der die Teilnehmenden in Teams gegeneinander antreten, um eine Reihe von Best-Practice-Herausforderungen zu bewältigen, die auf den im Kurs behandelten Konzepten basieren. Zusätzlich zu den praktischen Übungen, die in den ILT-Kursen angeboten werden, bietet ein zusätzlicher Tag mit vom Trainer geleiteten Herausforderungen den Teilnehmenden die Möglichkeit, AWS Jam zu nutzen, um reale Szenarien zu bewältigen, die allgemeine Betriebs- und Fehlerbehebungsaufgaben darstellen, die für deine Job-Rolle relevant sind.
Du kannst dein Wissen in einer sicheren und realen AWS-Umgebung anwenden und erhältst Punkte, wenn du die Aufgabe richtig löst. Das Ziel eines AWS Jam ist es, die Fähigkeiten in der AWS-Cloud zu entwickeln, zu verbessern und zu validieren und sich darauf vorzubereiten, die praktischen Fähigkeiten nach der Rückkehr in den Arbeitsalltag zu nutzen.
Es wird empfohlen, den Kurs Security Engineering on AWS with JAM zu buchen, in dem der JAM Day bereits enthalten ist, wenn du den Kurs Security Engineering on AWS noch nicht besucht hast.
AWS Jam Day
AWS JAM Day is a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly.
The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
Day 1
Module 1: Security on AWS
Module 2: Identifying Entry Points on AWS
Module 3: Security Considerations: Web Application Environments
Module 4: Application Security
Module 5: Data Security
Day 2
Module 6: Securing Network Communications
Module 7: Monitoring and Collecting Logs on AWS
Module 8: Processing Logs on AWS
Module 9: Security Considerations: Hybrid Environments
Module 10: Out-Of-Region Protection
Day 3
Module 11: Security Considerations: Serverless Environments
Module 12: Threat Detection and Investigation
Module 13: Secrets Management on AWS
Module 14: Automation and Security by Design
Module 15: Account Management and Provisioning on AWS
This course prepares you to achieve the following official AWS Certification:
AWS Certified Security – Specialty.
Day 1
Day 2
Day 3
This course prepares you to achieve the following official AWS Certification:
AWS Certified SysOps Administrator – Associate.
The Well-Architected Framework enables you to make informed decisions about your customers architectures in a cloud-native way and understand the impact of design decisions that are made. By using the Well-Architected Framework, you will understand the risks in your architecture and ways to mitigate them.
Module 1: Well-Architected Introduction
Module 2: Design Principles
AWS Jam Day
AWS JAM Day is a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly.
The goal of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
Day 1: Building the Foundation
Day 2: Connecting Applications and Data with Event-Driven Processing
Day 3: Developing and Deploying Secure, Scalable Applications
This course prepares you to achieve the following official AWS Certification:
AWS Certified Developer – Associate.
Currently, the average cost of a security breach can be upwards of $4 million. AWS Security Best Practices provides an overview of some of the industry best practices for using AWS security and control types. This course helps you understand your responsibilities while providing valuable guidelines for how to keep your workload safe and secure.
You will learn how to secure your network infrastructure using sound design options. You will also learn how you can harden your compute resources and manage them securely. Finally, by understanding AWS monitoring and alerting, you can detect and alert on suspicious events to help you quickly begin the response process in the event of a potential compromise.
Module 1: AWS Security Overview
Module 2: Securing the Network
Lab 1: Controlling the Network
Module 3: Amazon EC2 Security
Lab 2: Securing the starting point (EC2)
Module 4: Monitoring and Alerting
Lab 3: Security Monitoring
AWS Jam Day
AWS JAM Day is a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly. The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
ML data platform engineers, DevOps engineers, and developers/operations staff with responsibility for operationalizing ML models will learn to address the challenges associated with handoffs between data engineers, data scientists, software developers, and operations through the use of tools, automation, processes, and teamwork. By the end of the course, go from learning to doing by building an MLOps action plan for your organization.
Day 1
Module 0: Welcome
Module 1: Introduction to MLOps
Module 2: MLOps Development
Day 2
Module 3: MLOps Deployment
Day 3
Module 4: Model Monitoring and Operations
Module 5: Wrap-up
This course can be used as preparation for the following official AWS Certification:
AWS Certified Machine Learning – Specialty.
Day 1
Module 0: Introduction to Migrating to AWS
Module 1: What Is a Cloud Migration?
Module 2: Assessing Migration Readiness
Module 3: Preparing for a Migration and Understanding Related Workstreams
Module 4: Discovering Landing Zones and Their Benefits
Module 5: Building a Landing Zone
Module 6: Discovering the Portfolio and Understanding Migration Strategies
Day 2
Module 7: Understanding and Choosing Portfolio Discovery Tools
Module 8: Planning and Designing a Migration
Module 9: Performing the Migration to AWS
Module 10: Understanding Database and Data Migration Services
Day 3
Module 11: Understanding Additional Migration Support Options
Module 12: Integrating, Validating, and Cutting Over Applications
Module 13: Modernizing and Optimizing an Application Migration
Module 14: Understanding Operations Tools, Integration Testing, and Automation
Module 15: Migration Best Practices
This course focuses on data collection, ingestion, cataloging, storage, and processing components of the analytics pipeline. You will learn to integrate Amazon Redshift with a data lake to support both analytics and machine learning workloads. You will also learn to apply security, performance, and cost management best practices to the operation of Amazon Redshift.
Module 1: Overview of Data Analytics and the Data Pipeline
Module 2: Using Amazon Redshift in the Data Analytics Pipeline
Module 3: Introduction to Amazon Redshift
Module 4: Ingestion and Storage
Module 5: Processing and Optimizing Data
Module 6: Security and Monitoring of Amazon Redshift Clusters
Module 7: Designing Data Warehouse Analytics Solutions
Module 8: Developing Modern Data Architectures on AWS
This course prepares you for AWS Data Analytics certification, among other courses of the AWS Data Analytics job role track.
In this course, you will learn the components and functionality of AWS services involved in creating a data lake. You will use AWS Lake Formation to build a data lake, AWS Glue to build a data catalog, and Amazon Athena to analyze data. Lectures and labs enhance your learning by exploring several common data lake architectures.
Module 1: Introduction to data lakes
Module 2: Data ingestion, cataloging, and preparation
Module 3: Data processing and analytics
Module 4: Building a data lake with AWS Lake Formation
Module 5: Additional Lake Formation configurations
Module 6: Architecture and course review
This course prepares you for AWS Data Analytics certification, among other courses of the AWS Data Analytics job role track.
You will learn how to implement architectural best practices, explore cost optimization strategies, and design patterns while developing cost-efficient solutions on AWS.
Module 1: Introduction to Cloud Financial Management
Module 2: Resource Tagging
Module 3: Pricing and Cost
Module 4: AWS Billing, Reporting, and Monitoring
Module 5: Architecting for Cost: Compute
Module 6: Architecting for Cost: Networking
Module 7: Architecting for Cost: Storage
Module 8: Architecting for Cost: Databases
Module 9: Cost Governance
Module 10: Course Summary
This course will teach you how to use workload requirements to define database design considerations and also explore the features and capabilities of the eight AWS database services. By the end of the course, you will be able to determine which AWS database service is right for your workloads, and design the database to meet your requirements.
1. Database concepts and general guidelines
2. Database planning and design
3. Databases on Amazon EC2
4. Purpose-built databases databases on Amazon EC2 and Amazon RDS
5. Amazon RDS
6. Amazon Aurora
7. Amazon DocumentDB (with MongoDB compatibility)
8. Amazon DynamoDB
9. Databases in Amazon Neptune
10. Databases in Amazon Quantum Ledger Database (Amazon QLDB)
11. Databases in Amazon ElastiCache
12. Data warehousing in Amazon Redshift
ML-Datenplattform-Ingenieur:innen, DevOps-Ingenieur:innen und Entwickler:innen/Betriebsmitarbeiter:innen, die für die Operationalisierung von ML-Modellen verantwortlich sind, werden lernen, die Herausforderungen bei der Übergabe zwischen Dateningenieur:innen, Datenwissenschaftler:innen, Softwareentwickler:innen und Betriebsmitarbeiter:innen durch den Einsatz von Tools, Automatisierung, Prozessen und Teamarbeit zu bewältigen. Am Ende des Kurses kannst du vom Lernen zum Handeln übergehen, indem du einen MLOps-Aktionsplan für dein Unternehmen erstellst.
Tag 1
Modul 0: Begrüßung
Modul 1: Einführung in MLOps
Modul 2: MLOps-Entwicklung
Tag 2
Modul 3: MLOps-Bereitstellung
Tag 3
Modul 4: Modellüberwachung und Betrieb
Modul 5: Nachbereitung
Durch die Teilnahme am Kurs «Migrating to AWS» erwirbst du das Wissen und die Fähigkeiten, die erforderlich sind, um erfolgreiche Migrationen zu AWS durchzuführen und das volle Potenzial von Cloud Computing zu erschließen.
Tag 1
Modul 0: Einführung in die Migration zu AWS
Modul 1: Was ist eine Cloud-Migration?
Modul 2: Bewertung der Migrationsbereitschaft
Modul 3: Vorbereiten einer Migration und Verstehen der damit verbundenen Arbeitsabläufe
Modul 4: Entdeckung von Landing Zones und deren Vorteile
Modul 5: Erstellen einer Landing Zone
Modul 6: Erkennen des Portfolios und Verstehen von Migrationsstrategien
Tag 2
Modul 7: Verstehen und Auswählen von Portfolio Discovery Tools
Modul 8: Planen und Entwerfen einer Migration
Modul 9: Durchführen der Migration zu AWS
Modul 10: Verstehen von Datenbank- und Datenmigrationsdiensten
Tag 3
Modul 11: Verstehen zusätzlicher Optionen für die Migrationsunterstützung
Modul 12: Integrieren, Validieren und Überschreiben von Anwendungen
Modul 13: Modernisieren und Optimieren einer Anwendungsmigration
Modul 14: Verstehen von Betriebstools, Integrationstests und Automatisierung
Modul 15: Bewährte Verfahren für die Migration
AWS JAM Day
Der AWS JAM Day ist eine spielerische Veranstaltung, bei der die Teilnehmenden in Teams aufgeteilt werden, um in einer Reihe von Best-Practice-Herausforderungen auf der Grundlage der im Kurs "Cloud Operations on AWS" behandelten Konzepte gegeneinander anzutreten. Zusätzlich zu den praktischen Übungen der ILT-Kurse ermöglicht dieser zusätzliche Tag mit kuratierten und von der Kursleitung geleiteten Herausforderungen den Lernenden, AWS Jam zu nutzen, um reale Szenarien zu bewältigen, die allgemeine Betriebs- und Fehlerbehebungsaufgaben darstellen, die für ihre berufliche Rolle relevant sind. Du kannst dein Wissen in einer sicheren und realen AWS-Umgebung anwenden und üben. Das Ziel eines AWS Jams ist es, deine Fähigkeiten in der AWS-Cloud zu entwickeln, zu verbessern und zu validieren. So kannst du deine praktischen Fähigkeiten an deinem realen Arbeitsplatz optimal nutzen.
Tag 1
Tag 2
Tag 3
Dieser Kurs bereitet dich darauf vor, die folgenden offiziellen AWS-Zertifizierungen zu erlangen:
Du wirst die Komponenten und Funktionen der Services kennenlernen, die an der Erstellung eines Data Lake beteiligt sind. Du wirst AWS Lake Formation zum Aufbau eines Data Lake, AWS Glue zum Aufbau eines Datenkatalogs und Amazon Athena zum Analysieren von Daten verwenden. Die Kursvorträge und Übungen vertiefen deine Kenntnisse durch die Erkundung verschiedener gängiger Data Lake-Architekturen.
Modul 1: Einführung in Data Lakes
Beschreiben des Wertes von Data Lakes
Modul 2: Datenerfassung, Katalogisierung und Vorbereitung
Modul 3: Datenverarbeitung und Analytik
Modul 4: Aufbau eines Data Lake mit AWS Lake Formation
Modul 5: Zusätzliche Lake Formation-Konfigurationen
Modul 6: Architektur und Kursüberprüfung
Dieser Kurs zielt darauf ab, den Teilnehmenden einen guten Überblick über die grundlegenden AWS-Services und deren korrekte Nutzung zu geben und gleichzeitig die besten Praktiken innerhalb des AWS Well-Architected Frameworks zu vermitteln. Dabei liegt der Schwerpunkt auf der Verbesserung der Fähigkeiten der Teilnehmer:innen, Architekturen zu erstellen, die verständlich sind und gleichzeitig die besten Praktiken berücksichtigen.
Erlebe mit uns drei Tage intensives Lernen und Kommunikation, die dich in die Lage versetzen werden, bessere Karten für die Navigation in der komplexen Welt der Cloud-Architektur zu erstellen.
Tag 1
Modul 0: Kurseinführung
Modul 1: Grundlagen der Architektur
Modul 2: Kontosicherheit
Modul 3: Networking 1
Modul 4: Compute
Tag 2
Rückblick auf Tag 1
Modul 5: Speicherung
Modul 6: Datenbankdienste
Modul 7: Überwachung und Skalierung
Modul 9: Container
Modul 10: Networking 2
Modul 11: Serverless
Modul 12: Edge-Dienste
Modul 13: Backup und Wiederherstellung
Tag 3
Rückblick auf Tag 2
Modul 14: Einführung in eine gute Architektur
Modul 15: Betriebliche Exzellenz mit Übung
Modul 16: Verlässlichkeit mit Übung
Modul 17: Sicherheit mit Übung
Modul 18: Leistungseffizienz mit Übung
Dieser Kurs reduziert den Umfang des 3-tägigen Kurses Architecting on AWS auf die Aspekte, die für die Rolle des AWS Architects tatsächlich relevant sind.
Amazon EKS macht es dir leicht, Kubernetes auf AWS auszuführen, ohne dass du deine eigene Kubernetes-Kontrollebene installieren, betreiben und warten musst. In diesem Kurs lernst du die Container-Verwaltung und Orchestrierung für Kubernetes mit Amazon EKS kennen.
Du wirst einen Amazon-EKS-Cluster aufbauen, die Umgebung konfigurieren, den Cluster bereitstellen und dann Anwendungen zu deinem Cluster hinzufügen. Du wirst Container-Images mit Amazon Elastic Container Registry (ECR) verwalten und lernen, wie du die Bereitstellung von Anwendungen automatisieren kannst. Du wirst Anwendungen mit CI/CD-Tools bereitstellen. Du lernst, wie du deine Umgebung mit Hilfe von Metriken, Logging, Tracing und horizontaler/vertikaler Skalierung überwachen und skalieren kannst. Du lernst, wie du eine große Container-Umgebung entwirfst und verwaltest, indem du auf Effizienz, Kosten und Ausfallsicherheit achtest. Du konfigurierst AWS-Netzwerkdienste zur Unterstützung des Clusters und lernst, wie du deine Amazon-EKS-Umgebung sicherst.
Tag 1
Modul 0: Kurseinführung
Modul 1: Kubernetes-Grundlagen
Modul 2: Amazon-EKS-Grundlagen
Modul 3: Aufbau eines Amazon-EKS-Clusters
Modul 4: Bereitstellen von Anwendungen auf deinem Amazon-EKS-Cluster
Tag 2
Modul 5: Konfigurieren der Beobachtbarkeit in Amazon EKS
Modul 6: Gleichgewicht zwischen Effizienz, Ausfallsicherheit und Kostenoptimierung in Amazon EKS
Modul 7: Verwaltung von Netzwerken in Amazon EKS
Tag 3
Modul 8: Verwalten von Authentifizierung und Autorisierung in Amazon EKS
Modul 9: Sichere Workflows implementieren
Modul 10: Verwaltung von Upgrades in Amazon EKS
Du lernst, wie du architektonische Best Practices implementieren, Strategien zur Kostenoptimierung erforschen und Entwurfsmuster entwickelst, die dich bei der Entwicklung kosteneffizienter Lösungen auf AWS unterstützen.
Tag 1
Modul 1: Einführung in das Cloud-Finanzmanagement
Modul 2: Markierung von Ressourcen
Modul 3: Preisgestaltung und Kosten
Modul 4: AWS-Abrechnung, Berichterstattung und Überwachung
Tag 2
Modul 5: Architektur für Kosten: Berechnen
Modul 6: Architektur für Kosten: Vernetzung
Tag 3
Modul 7: Architektur für Kosten: Lagerung
Modul 8: Architekt für Kosten: Datenbanken
Modul 9: Kostenkontrolle
Modul 10: Kurszusammenfassung
Das Well-Architected Framework ermöglicht es dir, fundierte Entscheidungen über die Cloud-native Architektur deiner Kunden zu treffen und die Auswirkungen der getroffenen Designentscheidungen zu verstehen. Durch die Verwendung des Well-Architected Frameworks verstehst du die Risiken in deiner Architektur und wie du diese reduzieren kannst.
Modul 1: Einführung in Well-Architected
Modul 2: Gestaltungsprinzipien mit Übungen
Dieser Kurs bietet dir einen umfassenden Überblick über branchenübliche Techniken zur Verwendung von AWS-Sicherheits- und Kontrolltypen. Dabei lernst Du, deine Verantwortlichkeiten zu verstehen, und erfährst, wie du deine AWS-Workloads gezielt vor Eingriffen von außen absicherst.
Lerne, wie du deine Netzwerkinfrastruktur mit soliden Designoptionen sichern kannst und wie du deine Rechenressourcen härten und sicher verwalten kannst. Durch genaue Kenntnisse der AWS-Überwachung und der damit verbundenen Warnungen erkennst du verdächtige Ereignisse und lernst Strategien kennen, mit denen du auf Vorfälle adäquat reagieren kannst.
Modul 1: Überblick über die AWS-Sicherheit
Modul 2: Absicherung des Netzwerks
Modul 3: Kontrolle des Netzwerks (Übung)
Modul 4: Amazon EC2-Sicherheit
Modul 5: Sichern des Startpunkts mit EC2 (Übung)
Modul 6: Überwachung und Alarmierung
Modul 7: Sicherheitsüberwachung (Übung)
Es wird empfohlen, dass die Teilnehmenden den folgenden Kurs besucht haben (oder über entsprechende Kenntnisse verfügen):
1. iSAQB®
2. Definition und Zweck von Softwarearchitektur
3. Software-Design (Makro- und Mikroarchitektur)
4. Softwarearchitektur als Aufgabe
5. Einflüsse auf Softwarearchitektur
6. Architektursichten (Zachman-Framework, TOGAF® usw.)
7. Querschnittliche Aspekte
8. Grundlegende Softwarearchitektur-Mittel
9. Weiterführende Softwarearchitektur-Mittel
10. Methodik
11. Architektur in der IT
12. Einflüsse auf Softwarearchitektur
13. Querschnittliche Aspekte
14. Weiterführende Softwarearchitektur-Mittel
15. Methodik
16. Beispiele, Übungen und Fallstudie
Der Inhalt dieses intensiven Trainings leitet sich aus der Prüfung «SC-300: Microsoft Identity and Access Administrator» ab.
Modul 1: Erkunden der Identität in Azure AD (optional)
Dies ist ein optionales Einstiegsmodul, das die grundlegenden Konzepte der Identitäts- und Zugriffsverwaltung mit Azure AD umfasst. Hier erfährst du mehr über die Definitionen und Zweck von Zero Trust, Authentifizierung, Autorisierung, Token und anderen identitätsbezogenen Themen.
Lektionen
Modul 2: Implementieren einer Identitätsverwaltungslösung
Hier erfährst du, wie du deine Azure-Active-Directory-Implementierung (Azure AD) erstellst und verwaltest und wie du die Benutzer:innen, Gruppen und externen Identitäten konfigurierst, die du zum Ausführen der Lösung verwenden wirst. Du erfährst auch, wie du eine Hybrididentitätslösung konfigurierst und verwaltest.
Lektionen
Lab:
Modul 3: Implementieren einer Lösung für Authentifizierung und Zugriffsverwaltung
Implementiere und verwalte deine Zugriffsverwaltung mithilfe von Azure AD. Verwende MFA (die mehrstufige Authentifizierung), bedingten Zugriff und Identitätsschutz zum Verwalten deiner Identitätslösung.
Lektionen
Lab:
Modul 4: Implementieren der Zugriffsverwaltung für Apps
Hier erfährst du, wie Anwendungen mit der Anwendungsregistrierung in Azure AD deiner Identitäts- und Zugriffslösung hinzugefügt werden können und sollten. Registrieren und Verwalten neuer Anwendungen in deiner Umgebung.
Lektionen
Modul 5: Planen und Implementieren einer Identity-Governance-Strategie
Entwerfe und implementiere Identity Governance für deine Identitätslösung mithilfe einer Berechtigung, Zugriffsüberprüfungen, privilegiertem Zugriff und der Überwachung deiner Azure-Active- Directory-Instanz (Azure AD).
Lektionen
Lab:
Dieses intensive Training bereitet dich vor auf:
Prüfung: « SC-300: Microsoft Identity and Access Administrator » für die
Zertifizierung: « Microsoft Certified: Identity and Access Administrator Associate »
Modul 1: Einführung in die KI
In diesem Modul lernst du die gängigen Anwendungen der künstlichen Intelligenz (KI) und die verschiedenen Arten der Arbeitsbelastung im Zusammenhang mit KI kennen. Anschließend wirst du Überlegungen und Prinzipien für eine verantwortungsvolle KI-Entwicklung untersuchen.
Lektionen
Modul 2: Machine Learning
Machine Learning ist die Grundlage für moderne KI-Lösungen. In diesem Modul lernst du einige grundlegende Konzepte des Machine Learning kennen und erfährst, wie du den Azure Machine Learning Service zur Erstellung und Veröffentlichung von Machine-Learning-Modellen nutzen kannst.
Lektionen
Modul 3: Computer Vision
Computer Vision ist ein Bereich der KI, der sich mit dem visuellen Verständnis der Welt durch Bilder, Videodateien und Kameras befasst. In diesem Modul wirst du dich mit verschiedenen Techniken und Dienstleistungen der Computer Vision beschäftigen.
Lektionen
Modul 4: Verarbeitung natürlicher Sprache
Dieses Modul beschreibt Szenarien für KI-Lösungen, die geschriebene und gesprochene Sprache verarbeiten können. Du erfährst etwas über Azure-Dienste, die zur Erstellung von Lösungen verwendet werden können, die Text analysieren, Sprache erkennen und synthetisieren, zwischen Sprachen übersetzen und Befehle interpretieren können.
Modul 5: Konversations-KI
Die dialogorientierte KI ermöglicht es Benutzer:innen, über Kommunikationskanäle wie E-Mail, Webchat-Schnittstellen, soziale Medien und andere in einen Dialog mit einem KI-Agenten oder *Bot* zu treten. Dieses Modul beschreibt einige grundlegende Prinzipien für die Arbeit mit Bots und gibt dir die Möglichkeit, einen Bot zu erstellen, der intelligent auf Benutzerfragen antworten kann.
Lektionen
Dieses Training bereitet dich vor auf:
Prüfung: « AI-900: Microsoft Azure AI Fundamentals » für die
Zertifizierung: « Microsoft Certified: Azure AI Fundamentals »
Der Inhalt dieses intensiven Trainings leitet sich aus der Prüfung «AZ-500: Microsoft Azure Security Technologies» ab. Während den intensiven Trainingstagen mit unseren Trainern arbeitest du mit den offiziellen Microsoft-Kursunterlagen.
Modul 1: Identität und Zugang verwalten
Vorbei sind die Zeiten, in denen sich die Sicherheit auf eine starke Perimeter-Verteidigung konzentrierte, um böswillige Hacker fernzuhalten. Alles, was sich außerhalb des Perimeters befand, wurde als feindlich behandelt, während man innerhalb der Mauer den Systemen einer Organisation vertraute. Die heutige Sicherheitshaltung besteht darin, einen Bruch anzunehmen und das Zero-Trust-Modell anzuwenden. Sicherheitsexpert:innen konzentrieren sich nicht mehr auf die Verteidigung des Perimeters. Moderne Organisationen müssen den Zugang zu Daten und Diensten sowohl innerhalb als auch außerhalb der Unternehmensfirewall gleichmäßig unterstützen. Dieses Modul wird dir als Fahrplan dienen, wenn du damit beginnst, mehr Sicherheit in deine Azure-Lösungen einzubauen.
Lektionen:
Azure AD PIM konfigurieren
Konfigurieren und Verwalten von Azure Key Vault
Konfigurieren von Azure AD für Azure-Arbeitslasten
Sicherheit für ein Azure-Abonnement
Modul 2: Implementieren von Plattformschutz
Sicherheit in der Cloud ist Aufgabe Nr. 1 ist und es ist wichtig, dass du genaue und aktuelle Informationen über Azure-Sicherheit findest. Einer der besten Gründe, Azure für deine Anwendungen und Dienste zu verwenden, ist die Nutzung des breiten Spektrums an Sicherheitstools und -fähigkeiten von Azure. Diese Tools und Fähigkeiten ermöglichen es, sichere Lösungen auf der sicheren Azure-Plattform zu erstellen.
Lektionen:
Modul 3: Daten und Anwendungen sichern
Azure-Sicherheit für Daten und Anwendungen bietet eine umfassende Lösung, die Unternehmen dabei unterstützt, die Vorteile von Cloud-Anwendungen voll auszuschöpfen und gleichzeitig die Kontrolle mit verbesserter Transparenz der Aktivitäten zu behalten. Darüber hinaus erhöht sie den Schutz kritischer Daten in Cloud-Anwendungen. Mit Tools, die dabei helfen, die Schatten-IT aufzudecken, Risiken zu bewerten, Richtlinien durchzusetzen, Aktivitäten zu untersuchen und Bedrohungen zu stoppen, können Unternehmen sicher in die Cloud wechseln und gleichzeitig die Kontrolle über kritische Daten behalten.
Lektionen:
Modul 4: Security Operations verwalten
Azure bietet Sicherheitsmechanismen zur Unterstützung von Administratoren:innen, die Azure-Cloud-Dienste und virtuelle Maschinen verwalten. Diese Mechanismen umfassen: Authentifizierung und rollenbasierte Zugriffskontrolle, Überwachung, Protokollierung und Auditierung, Zertifikate und verschlüsselte Kommunikation sowie ein Web-Verwaltungsportal.
Lektionen:
Dieses intensive Training bereitet dich vor auf:
Prüfung: « AZ-500: Microsoft Azure Security Technologies » für die
Zertifizierung: « Microsoft Certified: Azure Security Engineer Associate »