In diesem Kurs erarbeitest du dir die notwendigen Kenntnisse, um tragfähige Architekturen für deine Softwaresysteme zu erstellen. Parallel dazu bereitest du dich auf die Zertifizierung zum CPSA®-Foundation Level vor.
Die Kursinhalte / Lernziele orientieren sich am offiziellen Rahmenlehrplan zum iSAQB CPSA-F®.
Besteht aus folgenden Modulen
TCP/IP ist seit langem schon der de facto Protokoll Standard für Computernetzwerke und die Basis des Internets. Fundierte TCP/IP Kenntnisse sind heute in der IT Grundvoraussetzung.
Dieser Basiskurs vermittelt fundierte Grundkenntnisse der Konzepte, der Architektur und der Funktionsweise von Computernetzwerken mit TCP/IP. Der Schwerpunkt dieses sehr praxisorientierten Kurses besteht aus vielen Übungen zum Verstehen von TCP/IP unter Verwendung moderner Geräte, Systeme, Methoden und Werkzeuge.
Themen sind:
Für die zahlreichen Übungen steht jeder/m Teilnehmer:in eine eigene, virtuelle Übungsumgebung mit mehreren VMs in unserem RZ zur Verfügung. Zum Einsatz kommen Windows 10, Windows Server 2019, Wireshark zur Analyse des Netzwerkverkehrs und zahlreiche weitere eingebaute und im Internet verfügbare Tools.
TCP/IP ist seit langem schon der de facto Protokoll Standard für Computernetzwerke und die Basis des Internets. Fundierte TCP/IP Kenntnisse sind heute in der IT Grundvoraussetzung.
Dieser Vertiefungskurs baut deine Grundkenntnisse und Fähigkeiten aus, insbesondere befähigt er dich auch, Netzwerke selbst zu planen und zu implementieren. Der Schwerpunkt dieses sehr praxisorientierten Kurses besteht aus vielen Übungen zum Aufbau eines Netzwerks unter Verwendung moderner Geräte, Systeme, Methoden und Werkzeuge.
Themen sind:
Für die zahlreichen Übungen steht jeder/m Teilnehmer:in eine eigene, virtuelle Übungsumgebung mit mehreren VMs in unserem RZ zur Verfügung.
Zum Einsatz kommen Windows 10, Windows Server 2019, Wireshark zur Analyse des Netzwerkverkehrs und zahlreiche weitere eingebaute und im Internet verfügbare Tools.
Der Kurs eignet sich auch hervorragend für die Vorbereitung auf Zertifizierungen wie CompTIA+, CCNA usw.
Durch die angemessene Inventarisierung von IT- und Geschäfts-Assets kann ein Unternehmen nicht nur seine IT optimal auf seine Bedürfnisse ausrichten, sondern auch agil auf externe und interne Veränderungen reagieren sowie deren Konsequenzen abschätzen. Zudem lässt sich auf der Grundlage dieser Assets der optimale Einsatz neuer technologischer Möglichkeiten evaluieren und planen.
Tag 1
Tag 2
Tag 3
Immer mehr Unternehmen sehen sich einer zunehmend heterogenen Systemlandschaft gegenüber. Die Ursachen dafür sind vielseitig. Alte Systeme sind bewährt und teuer abzulösen und werden deshalb so lange wie möglich betrieben. Gleichzeitig kommen neue Systeme hinzu aufgrund sich ändernder Anforderungen. Diese neuen Systeme sind aus Kostengründen oft keine Eigenentwicklungen, sondern kommerzielle Softwarepakete, die ihre eigenen Daten- und Verarbeitungsmodelle in das Unternehmen einbringen. Wobei neue Anwendungen nicht unbedingt im Unternehmen laufen müssen, sondern heute auch zunehmend aus der Cloud bezogen werden.
Obwohl nun die Systemlandschaft heterogener wird, soll die Effizienz der Geschäftsprozesse nicht leiden. Dies bedeutet im Wesentlichen, dass all diese Anwendungen ineinander integriert und inhaltliche und technologische Gräben überbrückt werden müssen.
Dieses Seminar soll aufzeigen, mit welchen Konzepten und Technologien heute versucht wird, diese Brücken zu bauen. Ein wichtiges Werkzeug dabei ist BPMN, um Integrationsprozesse zu beschreiben – und schlussendlich auch auszuführen. Entweder direkt mit BPMN Execution Engines oder auch indirekt, in dem diese Prozesse auf Implementierungswerkzeuge wie zum Beispiel Apache Camel oder einen Enterprise Service Bus (ESB) abgebildet werden.
Neben Werkzeugen wie Camel oder ESBs sollen auch allgemeine, integrationsrelevante Architekturkonzepte erklärt werden, wie zum Beispiel Messaging Patterns oder REST-Architekturen. Neben diesen Architekturthemen werden auch die Vor- und Nachteile grundlegender Integrationstechnologien wie XML, Messaging Systeme, Files oder Datenbanken behandelt.
Auf Grund von sozialen Medien, Big Data, Data Analytics und Tweets nehmen Datenvolumen sowie Datenströme massiv zu. Um diesen neuen Anforderungen gewachsen zu sein, ist der Einbezug neuer Messagingsysteme oder -plattformen notwendig. In diesem Seminar wird die Open-Source-Plattform (Enterprise Messaging System) Apache Kafka genauer betrachtet und die Bedeutung eines verteilten, skalierbaren und fehlertoleranten Systems erläutert.
1. Motivation
2. Konzepte
3. Datenformate
4. Patterns
5. Infrastruktur
6. Enterprise Messaging System (Apache Kafka)
7. Projektmanagement
8. Strategie
Das Zusammenspiel der verschiedenen IT-Systeme und Services wird erst durch Daten ermöglicht. Diese Daten sind omnipräsent, sei es, dass sie in verschiedensten Systemen oft redundant gespeichert oder über unzählige Schnittstellen ausgetauscht werden. Hier die Übersicht und die Kontrolle zu behalten, ist für einen nachhaltigen Betrieb der IT unerlässlich und auch die Voraussetzung dafür, um aus den Daten für das Unternehmen nutzbare Informationen zu bilden.
Dieser Kurs vermittelt solides Grundwissen zur Kommunikation von IT Systemen.
Anhand von Beispielen und praktischen Übungen werden die Konzepte und Architekturen in der Datenkommunikation erläutert und verständlich.
Themen sind:
Für die Übungen und das Nachvollziehen von Beispielen steht jeder/m Teilnehmer:in eine eigene, virtuelle Übungsumgebung mit mehreren VMs in unserem RZ zur Verfügung.
Zum Einsatz kommen Windows 10 und andere.
Der Kurs eignet sich auch hervorragend als Einstieg in technische Ausbildungen in der Informatik. Weiterführende Kurse sind TCN, TCL, TCA.
Dies ist kein offizieller Microsoft-Kurs. Der Inhalt dieses Kurses basiert auf dem nicht mehr erhältlichen Kurs MOC 20764 von Microsoft und wurde von der Microsoft Community entwickelt.
Modul 1: SQL-Server-Sicherheit
Der Schutz der Daten in deinen Microsoft SQL Server-Datenbanken ist von grundlegender Bedeutung und erfordert eine gute Kenntnis der Probleme und der Sicherheitsfunktionen von SQL Server. Dieses Modul beschreibt die Sicherheitsmodelle von SQL Server, Logins, Benutzer, teilweise enthaltene Datenbanken und serverübergreifende Autorisierung.
Lektionen:
Übung: Authentifizierung von Benutzern
Modul 2: Zuweisung von Server- und Datenbank-Rollen
Die Verwendung von Rollen vereinfacht die Verwaltung von Benutzer:innen-Berechtigungen. Mit Rollen kannst du den Zugriff authentifizierter Benutzer:innen auf Systemressourcen auf der Grundlage der Arbeitsfunktion jeder:s Benutzerin/Benutzers steuern. Anstatt Berechtigungen für jede:n einzelne:n Benutzer:in zuzuweisen, kannst du einer Rolle Berechtigungen erteilen und dann Benutzer:innen zu Mitglieder:innen von Rollen machen. Microsoft SQL Server bietet Unterstützung für Sicherheitsrollen, die auf Server- und Datenbankebene definiert sind.
Lektionen:
Übung: Zuweisen von Server- und Datenbankrollen
Modul 3: Benutzer:innen für den Zugriff auf Ressourcen autorisieren
In den vorangegangenen Modulen hast du gesehen, wie die Sicherheit von Microsoft SQL Server organisiert ist und wie Sätze von Berechtigungen auf Server- und Datenbankebene zugewiesen werden können, indem feste Serverrollen, benutzerdefinierte Serverrollen, feste Datenbankrollen und Anwendungsrollen verwendet werden. Der letzte Schritt bei der Autorisierung von Benutzer:innen für den Zugriff auf SQL Server-Ressourcen ist die Autorisierung von Benutzer:innen und Rollen für den Zugriff auf Server- und Datenbankobjekte. In diesem Modul wirst du sehen, wie diese Objektberechtigungen verwaltet werden. Zusätzlich zu den Zugriffsrechten auf Datenbankobjekte bietet SQL Server die Möglichkeit zu bestimmen, welche Benutzer:innen Code ausführen dürfen, z. B. gespeicherte Prozeduren und Funktionen. In vielen Fällen lassen sich diese Berechtigungen und die Berechtigungen für die Datenbankobjekte am besten auf der Schemaebene und nicht auf der Ebene des einzelnen Objekts konfigurieren. Schemabasierte Rechtevergabe kann deine Sicherheitsarchitektur vereinfachen. In der letzten Lektion dieses Moduls wirst du die Erteilung von Berechtigungen auf Schemaebene untersuchen.
Lektionen:
Übung: Benutzer:innen für den Zugriff auf Ressourcen autorisieren
Modul 4: Schutz von Daten mit Verschlüsselung und Auditing
Bei der Konfiguration der Sicherheit für deine Microsoft SQL Server-Systeme solltest du sicherstellen, dass du alle Compliance-Anforderungen deines Unternehmens in Bezug auf den Datenschutz erfüllst. Unternehmen müssen häufig branchenspezifische Compliance-Richtlinien einhalten, die eine Überprüfung aller Datenzugriffe vorschreiben. Um diese Anforderung zu erfüllen, bietet SQL Server eine Reihe von Optionen für die Implementierung von Audits. Eine weitere häufige Compliance-Anforderung ist die Verschlüsselung von Daten zum Schutz vor unbefugtem Zugriff, falls der Zugriff auf die Datenbankdateien gefährdet ist. SQL Server unterstützt diese Anforderung durch die Bereitstellung von transparenter Datenverschlüsselung (TDE). Um das Risiko eines Informationsverlustes durch Benutzer:innen mit administrativem Zugriff auf eine Datenbank zu verringern, können Spalten mit sensiblen Daten - wie Kreditkartennummern oder nationale Identitätsnummern - mit der Funktion "Always Encrypted" verschlüsselt werden. Dieses Modul beschreibt die verfügbaren Optionen für die Überwachung in SQL Server, die Verwendung und Verwaltung der SQL Server-Überwachungsfunktion und die Implementierung der Verschlüsselung.
Lektionen:
Übung: Auditing und Verschlüsselung verwenden
Modul 5: Wiederherstellungsmodelle und Backup-Strategien
Einer der wichtigsten Aspekte der Aufgabe einer:s Datenbankadministrator:in ist es, dafür zu sorgen, dass die Unternehmensdaten zuverlässig gesichert werden, so dass sie im Falle eines Ausfalls wiederhergestellt werden können. Obwohl die Computerbranche seit Jahrzehnten um die Notwendigkeit zuverlässiger Backup-Strategien weiß - und dies auch ausgiebig diskutiert - sind unglückliche Geschichten über Datenverluste immer noch an der Tagesordnung. Ein weiteres Problem besteht darin, dass selbst dann, wenn die vorhandenen Strategien so funktionieren, wie sie konzipiert wurden, die Ergebnisse dennoch regelmäßig nicht den betrieblichen Anforderungen eines Unternehmens entsprechen. In diesem Modul befasst du dich mit der Entwicklung einer Strategie, die auf die Bedürfnisse des Unternehmens abgestimmt ist und auf den verfügbaren Sicherungsmodellen basiert sowie mit der Rolle der Transaktionsprotokolle bei der Aufrechterhaltung der Datenbankkonsistenz.
Lektionen
Übung: SQL-Server-Wiederherstellungsmodelle verstehen
Modul 6: Sichern von SQL-Server-Datenbanken
Im vorherigen Modul hast du gelernt, wie man eine Backup-Strategie für ein SQL-Server-System plant. Jetzt kannst du lernen, wie man SQL Server-Backups durchführt, einschließlich vollständiger und differenzieller Datenbank-Backups, Transaktionsprotokoll-Backups und partieller Backups. In diesem Modul lernst du, wie du verschiedene Sicherungsstrategien anwenden kannst.
Lektionen
Übung: Sichern von Datenbanken
Modul 7: Wiederherstellung von SQL-Server-Datenbanken
Im vorherigen Modul hast du gelernt, wie man Backups von Microsoft-SQL-Server-Datenbanken erstellt. Eine Backup-Strategie kann viele verschiedene Arten von Backups beinhalten, daher ist es wichtig, dass du diese effektiv wiederherstellen kannst. Oft wirst du eine Datenbank in einer dringenden Situation wiederherstellen müssen. Du musst jedoch sicherstellen, dass du einen klaren Plan hast, wie du vorgehst und die Datenbank erfolgreich in den gewünschten Zustand zurückversetzen kannst. Ein guter Plan und ein gutes Verständnis des Wiederherstellungsprozesses können dazu beitragen, eine Verschlimmerung der Situation zu vermeiden. Einige Datenbankwiederherstellungen sind auf einen Systemausfall zurückzuführen. In diesen Fällen willst du das System so weit wie möglich in den Zustand zurückversetzen, in dem es sich vor dem Ausfall befand. Einige Ausfälle sind jedoch auf menschliches Versagen zurückzuführen, und du möchtest das System vielleicht zu einem Zeitpunkt wiederherstellen, der vor diesem Fehler liegt. Die Point-in-Time-Wiederherstellungs-Funktionen von SQL Server können dir dabei helfen, dies zu erreichen. Da sie in der Regel viel größer sind, sind Benutzerdatenbanken eher von Systemausfällen betroffen als Systemdatenbanken. Dennoch können auch Systemdatenbanken von Fehlern betroffen sein, und bei ihrer Wiederherstellung ist besondere Vorsicht geboten. Insbesondere musst du wissen, wie du jede einzelne Systemdatenbank wiederherstellst, da du nicht denselben Prozess für alle Systemdatenbanken verwenden kannst. In diesem Modul erfährst du, wie du Benutzer- und Systemdatenbanken wiederherstellen und wie du eine Point-in-Time-Wiederherstellung implementierst.
Lektionen
Übung: SQL-Server-Datenbanken wiederherstellen
Modul 8: Automatisierte SQL-Server-Verwaltung
Die von Microsoft SQL Server zur Verfügung gestellten Werkzeuge machen die Verwaltung im Vergleich zu einigen anderen Datenbank-Engines einfach. Doch selbst wenn Aufgaben einfach auszuführen sind, kommt es häufig vor, dass eine Aufgabe mehrmals wiederholt werden muss. Effiziente Datenbankadministrator:innen lernen, sich wiederholende Aufgaben zu automatisieren. Dies kann dazu beitragen, Situationen zu vermeiden, in denen ein:e Administrator:in vergisst, eine Aufgabe zum erforderlichen Zeitpunkt auszuführen. Vielleicht noch wichtiger ist, dass die Automatisierung von Aufgaben dazu beiträgt, dass sie jedes Mal, wenn sie ausgeführt werden, konsistent ausgeführt werden. In diesem Modul wird beschrieben, wie der SQL Server Agent zur Automatisierung von Aufgaben verwendet wird, wie Sicherheitskontexte für Aufgaben konfiguriert werden und wie Multiserver-Aufgaben implementiert werden.
Lektionen
Übung: SQL-Server-Verwaltung automatisieren
Modul 9: Konfigurieren der Sicherheit für den SQL Server Agent
In anderen Modulen dieses Kurses wurde gezeigt, wie wichtig es ist, die den Benutzer:innen gewährten Berechtigungen nach dem Prinzip der "geringsten Rechte" zu minimieren. Das bedeutet, dass Benutzer:innen nur die Berechtigungen haben, die sie für die Ausführung ihrer Aufgaben benötigen. Dieselbe Logik gilt für die Vergabe von Berechtigungen an den SQL Server Agent. Obwohl es einfach ist, alle Aufträge im Kontext des SQL Server Agent-Dienstkontos auszuführen und dieses Konto als Administratorkonto zu konfigurieren, würde dies zu einer schlechten Sicherheitsumgebung führen. Es ist wichtig zu verstehen, wie man eine Sicherheitsumgebung mit minimalen Berechtigungen für Aufträge erstellt, die in SQL Server Agent ausgeführt werden.
Lektionen
Übung: Sicherheit für SQL Server Agent konfigurieren
Modul 10: Überwachung von SQL Server mit Alarmen und Benachrichtigungen
Ein wichtiger Aspekt bei der proaktiven Verwaltung von Microsoft SQL Server ist es, sicherzustellen, dass du über Probleme und Ereignisse, die auf dem Server auftreten, informiert bist, sobald sie auftreten. SQL Server protokolliert eine Fülle von Informationen über Probleme. Du kannst ihn so konfigurieren, dass du automatisch benachrichtigt wirst, wenn diese Probleme auftreten, indem du Warnungen und Benachrichtigungen verwendest. SQL Server-Datenbankadministratoren/Datenbankadministrator:innen werden in der Regel per E-Mail über wichtige Ereignisse informiert. Dieses Modul behandelt die Konfiguration von Datenbank-Mail, Alarmen und Benachrichtigungen für eine SQL-Server-Instanz und die Konfiguration von Alarmen für Microsoft Azure SQL Database.
Lektionen
Übung: Überwachung von SQL Server mit Alarmen und Benachrichtigungen
Modul 11: Einführung in die Verwaltung von SQL Server mit der PowerShell
Dieses Modul befasst sich mit der Verwendung von Windows PowerShell mit Microsoft SQL Server. Unternehmen müssen die Effizienz und Zuverlässigkeit bei der Wartung ihrer IT-Infrastruktur ständig erhöhen. Mit PowerShell kannst du diese Effizienz und Zuverlässigkeit verbessern, indem du Skripts zur Ausführung von Aufgaben erstellst. PowerShell-Skripts können getestet und mehrfach auf mehrere Server angewendet werden, wodurch dein Unternehmen Zeit und Geld spart.
Lektionen
Übung: Verwenden von PowerShell zum Verwalten von SQL Server
Modul 12: Verfolgung des Zugriffs auf SQL Server mit erweiterten Ereignissen
Die Überwachung von Leistungsmetriken bietet eine gute Möglichkeit, die Gesamtleistung einer Datenbanklösung zu beurteilen. Es kann jedoch vorkommen, dass du eine detailliertere Analyse der Aktivitäten innerhalb einer Microsoft SQL Server-Instanz durchführen musst, um Probleme zu beheben und Möglichkeiten zur Optimierung der Workload-Leistung zu ermitteln. SQL Server Extended Events ist ein flexibles, leichtgewichtiges Ereignisverarbeitungssystem, das in die Microsoft SQL Server Database Engine integriert ist. Dieses Modul konzentriert sich auf die architektonischen Konzepte, Fehlerbehebungsstrategien und Nutzungsszenarien von Extended Events.
Lektionen
Übung: Erweiterte Ereignisse
Modul 13: Überwachung von SQL Server
Die Microsoft SQL-Server-Datenbank-Engine kann über lange Zeiträume laufen, ohne dass eine administrative Betreuung erforderlich ist. Wenn du jedoch regelmäßig die Aktivitäten auf dem Datenbankserver überwachst, kannst du potenzielle Probleme angehen, bevor sie auftreten. SQL Server stellt eine Reihe von Werkzeugen zur Verfügung, mit denen du die aktuelle Aktivität überwachst und Details zu früheren Aktivitäten aufzeichnen kannst. Du musst dich mit den Funktionen der einzelnen Tools vertraut machen und wissen, wie sie zu verwenden sind. Die Menge der von den Überwachungswerkzeugen gelieferten Daten kannst du leicht überwältigen, so dass du auch Techniken zur Analyse der Daten erlernen musst.
Lektionen
Übung: SQL Server überwachen
Modul 14: SQL-Server-Fehlerbehebung
Datenbankadministrator:innen, die mit Microsoft SQL Server arbeiten, müssen die wichtige Rolle des Troubleshooters übernehmen, wenn Probleme auftreten - insbesondere, wenn Benutzer:innen von geschäftskritischen Anwendungen, die auf SQL Server-Datenbanken angewiesen sind, an der Arbeit gehindert werden. Es ist wichtig, über eine solide Methodik zur Lösung von Problemen im Allgemeinen zu verfügen und mit den häufigsten Problemen, die bei der Arbeit mit SQL Server-Systemen auftreten können, vertraut zu sein.
Lektionen
Übung: Fehlersuche bei allgemeinen Problemen
Modul 15: Importieren und Exportieren von Daten
Obwohl ein Großteil der Daten in einem Microsoft SQL Server-System direkt von den Benutzer:innen eingegeben wird, die Anwendungsprogramme ausführen, besteht häufig die Notwendigkeit, Daten an anderen Stellen in und aus SQL Server zu verschieben. SQL Server bietet eine Reihe von Tools, mit denen du Daten ein- und auslagern kannst. Einige dieser Tools, wie z. B. das Dienstprogramm bcp (Bulk Copy Program) und die SQL Server Integration Services, befinden sich außerhalb der Datenbank-Engine. Andere Tools, wie die BULK-INSERT-Anweisung und die OPENROWSET-Funktion, sind in der Datenbank-Engine implementiert. Mit SQL Server kannst du auch Data-Tier-Anwendungen erstellen, die alle Tabellen, Ansichten und Instanzobjekte, die mit einer Benutzerdatenbank verbunden sind, in einer einzigen Bereitstellungseinheit zusammenfassen. In diesem Modul lernst du diese Tools und Techniken kennen, damit du Daten in SQL Server importieren und exportieren kannst.
Lektionen
Übung: Importieren und Exportieren von Daten
Tag 1
Modul 1: Erforschung von DevOps
Modul 2: Grundlegende DevOps-Prinzipien
Modul 3: Wichtige DevOps-Praktiken
Modul 4: Geschäfts- und Technologie-Rahmenwerke
Tag 2
Modul 5: Kulturen, Verhaltensweisen und Betriebsmodelle
Modul 6: Automatisierung und Architektur von DevOps-Toolchains
Modul 7: Messung, Metriken und Berichterstattung
Modul 8: Teilen, Beschatten und Weiterentwickeln
1. Singleton Pattern
2. Builder Pattern
3. Introspektion
4. Zahlen und Währungen
5. Daten und Zeiten
6. Listen
7. Mengen
8. Abbildungen
9. Lambda-Ausdrücke
Nach Besuch dieses Kurses ist dir das fortgeschrittene Vorgehen bei der Applikationsentwicklung mit der Programmiersprache Java bekannt.
1. Implementierungsvererbung
2. Subklassen
3. Überschreiben
4. Polymorphie
5. Sichtschutz
6. Überdecken
7. Abstraktes
8. Finales
9. Schnittstellenvererbung
10. Schnittstellen
11. Implementationsklassen
12. Rückgabetypen
Du erlernst fortgeschrittene objektorientierte Konzepte der Programmiersprache Java
1. Abstraktion und Design
2. Generisches
3. Verschachteltes
4. Enumerationen
5. Annotationen
6. Fehler und Ausnahmen
7. Zusicherungen
8. Wurzel
9. System
10. Texte
11. Wrappers
12. Boxing
Kennen der grundlegenden Vorgehensweise bei der Entwicklung von Anwendungen mit der Programmiersprache Java
1. Begriffe
2. Klassen
3. Objekte
4. Felder
5. Speicherbelegung
6. Aggregation
7. Methoden
8. Parameter und Argumente
9. Kapselung
10. Überschatten
11. Konstruktoren
12. Überladen
13. Statisches
14. Initialisierer
15. Speicherfreigabe
Nach Besuch dieses Kursteils ist dir die grundlegenden objekt-orientierten Konzepte der Programmiersprache Java bekannt.
1. Einleitung
2. Einfache Applikation
3. Bibliotheken
4. Deployment
5. Datentypen
6. Werttypen
7. Speicherverwaltung
8. Variablen
9. Arrays
10. Verbundtypen
11. Operatoren
12. Verzweigungen
13. Schleifen
14. Sprünge
Nach Besuch dieses Kurses verstehst du Javas Systemarchitektur und kennst die grundlegenden Sprachelemente der Programmiersprache Java.
Der Windows Server 2022 ist die neueste Generation eines ICT-Produktes, welches schon seit über 25 Jahren sehr erfolgreich auch in KMU-Umgebungen eingesetzt wird. Der Windows Server ist aber auch ein Produkt, welches die Basis für große und sehr große virtuelle oder Cloud-Netzwerke bildet. Aus der daraus folgenden Breite der Funktionen ergibt sich aber auch eine hohe Komplexität der damit verbundenen Möglichkeiten. Der Kurs konzentriert sich auf die gesamte Breite der Funktionen des Windows Servers, behandelt aber primär die Funktionen, welche für kleinere und mittlere Unternehmungen wichtig sind.
1. Einführung
2. Die Infrastruktur
3. Die Domäne
4. Das Netzwerk
5. Cloudintegration
6. Sichern der Daten und der Infrastruktur
7. Erweiterte Funktionen
1. Übersicht über Windows 11
2. Installieren von Windows 11
3. Upgrading / Updating von Windows 11
4.Verwalten von Apps in Windows 11
5. Implementierung und Verwaltung der Sicherheit
6. Speicherverwaltung
7. Die Überwachung von Windows 11
8. Eine Einführung in Windows PowerShell
1. Das Excel-Objektmodell
2. Arbeiten mit Zellen und Bereichen
3. Arbeiten mit Tabellen und Arbeitsmappen
4. Fehlerbehandlung
5. Ereignisgesteuerte Programmierung
6. Automatisieren mit Excel
7. Formulare
8. Textdateien
9. Verbesserung der Laufzeit und der Programmstabilität
10. Tipps und Tricks aus der Praxis
1. Einleitung
2. Der Makro-Recorder
3. VBA-Grundlagen
4. Noch mehr VBA
5. Eingebaute VBA-Funktionen
6. Fehlerbehandlung
1. Repetition der Grundbegriffe der relationalen Datenbanken
2. Grundlagen zu SQL
3. Datenabfrage, Datenauswertung und -manipulation (DML)
4. Daten hinzufügen
5. Datendefinitionssprache (DDL)
6. Datenkontrollsprache (DCL)
SharePoint ist ein Dienst von Microsoft 365, mit dem sich beispielsweise Intranets und Dokumente-Verwaltungen sehr einfach umsetzen lassen. In unserem Kurs «SharePoint für Anwender:innen» lernst du die Anwendungsmöglichkeiten und Grundsätze von SharePoint kennen und setzt dieses Wissen auch unmittelbar praktisch um. Unter Anleitung deiner/deines Trainerin/Trainers erstellst du eine eigene Website und konfigurierst diese.
1. Einführung
2. Microsoft 365
3. Features für soziale Netzwerke
4. Zusammenarbeit an Projekten
5. Einführung in Bibliotheken
6. Einführung in Listen
7. Einführung in Berechtigungen
Dieser Kurs fokussiert sich auf die Bedeutung von Scrum im SAFe Kontext und in einer Lean-Agile Organisation.
Eine Public-Key-Infrastruktur (PKI) ist ein wirksames Werkzeug für den Schutz von Systemen und Diensten im Internet. PKI ist, obwohl seit über 20 Jahren in Entwicklung, erst in den letzten paar Jahren bei Sicherheitsverantwortlichen zum Thema geworden. Ein wesentlicher Markttreiber sind die neuen Möglichkeiten der Digitalen Signaturen, die eine PKI voraussetzen.
Public-Key-Kryptografie ist eine ausgereifte Technologie, die die Basis bildet für sichere Protokolle. Ein Standardmechanismus für die Verteilung von Public Keys war lange Zeit nicht verfügbar. Heute sind jedoch auf beiden Seiten Fortschritte erzielt worden. Du musst kein Experte in Public-Key-Kryptografie mehr sein, um deren Vorteile zu erkennen. Denn heute sind verschiedenste Produkte im Markt verfügbar. Dieser Kurs hilft dir, von den vielen Möglichkeiten die für dich richtigen auszuwählen und erfolgreich einzusetzen.
Tag 1: Theorietag
1. Einleitung
2. Kryptografische Grundlagen
3. Authentisierung
4. PKI-Basis
5. PKI-Komponenten
6. PKI-Architekturen
7. Verifikation
8. Certificate Revocation List (CRL)
9. Directories
10. X.509-Zertifikate
11. Vertrauen, Abläufe, Policies
12.Anwendungen
Tag 2: Praxistag
Aufbau einer zweistufigen Certification-Authority-Umgebung mit einer Stand-alone Offline Root Certification Authority
Am Ende des Theorieteils bist du in der Lage,
Nach dem Public-Key-Infrastructure-Praxistag wirst du in der Lage sein, alle notwendigen Komponenten einer vollständigen PKI-Umgebung einzurichten, richtig zu konfigurieren, zu verwalten, zu sichern und ein Troubleshooting durchzuführen.
Das ISO/IEC 27001 Lead Auditor Training vermittelt leitenden Auditor:innen die notwendigen Fachkenntnisse, um ein ISMS (Information Security Management System) Audit unter Anwendung allgemein anerkannter Audit-Grundsätze, -Verfahren und -Techniken durchzuführen.
Die Kursinhalte orientieren sich an den offiziellen Prüfungsvorgaben von PECB.
Dieser Kurs geht über die Grundfunktionen von Power BI hinaus und bietet dir vielseitige Tipps zu verschiedenen Bereichen für deine Power-BI-Auswertung. Aus unserer Praxiserfahrung zeigen wir dir Lösungen für häufige Herausforderungen und stellen dir die neusten Funktionalitäten von Power BI vor.
Zudem besteht die Möglichkeit, auf Auswertungs-Herausforderungen in deinem Unternehmen einzugehen.
Power BI Desktop
Power BI Service
1. Kurs-Einführung
2. Einführung in das Modell der Cloud-Dienste
3. Einführung in die Virtualisierung: Die Backbone-Technologie des Cloud Computing
4. Cloud Computing - ein wichtiger Pfeiler der digitalen Transformation
5. Cloud – Sicherheit
6. Vorbereitung auf die Cloud–Einführung
Modul 1: Erste Schritte mit Transact-SQL
In diesem Modul lernst du die Grundlagen der Sprache Transact-SQL (T-SQL) sowie allgemeine Eigenschaften und Begriffe von relationalen Datenbanken kennen. In diesem Modul wird auch die grundlegende SELECT-Anweisung zum Abrufen von Daten aus einer Tabelle vorgestellt.
Lektionen:
Übung: Erste Schritte mit den SQL Server-Abfragetools und das Schreiben von Abfragen in T-SQL
Modul 2: Sortieren und Filtern von Abfrageergebnissen
In diesem Modul lernst du, wie du steuern kannst, welche Daten in welcher Reihenfolge zurückgegeben werden. Du wirst die ORDER BY-Klausel verwenden, mit und ohne Paging. Du lernst verschiedene Arten von Filtern kennen, die in der WHERE-Klausel verwendet werden können, um zu steuern, welche Datenzeilen zurückgegeben werden. Du wirst auch lernen, wie du die Ergebnisse verwaltest, indem du Duplikate mit DISTINCT entfernst.
Lektionen:
Übung: Sortieren und Filtern von Daten, die von SELECT-Abfragen zurückgegeben werden
Modul 3: Joins und Unterabfragen verwenden
In diesem Modul wirst du T-SQL-Abfragen kennenlernen, die mit verschiedenen Arten von JOIN-Operationen und einfachen Unterabfragen auf Daten aus mehreren Tabellen zugreifen.
Lektionen:
Übung:
Modul 4: Eingebaute Funktionen verwenden
In diesem Modul lernst du die Verwendung von eingebauten Funktionen kennen, um berechnete oder spezielle Werte in der SELECT-Liste oder in der WHERE-Klausel zurückzugeben. Zu den Funktionen gehören mathematische Funktionen, Stringfunktionen und Systemfunktionen. Es gibt noch andere Arten von Funktionen, die zwar erwähnt, aber nicht im Detail besprochen werden. Du wirst auch lernen, wie du Datenzeilen zu einer Gruppe zusammenfassen und für die Gruppe zusammenfassende Informationen wie SUMME, MIN oder MAX bereitstellst.
Lektionen:
Übung: Eingebaute Funktionen
Modul 5: Ändern von Daten
In diesem Modul lernst du die T-SQL-Anweisungen zum Ändern von Tabellendaten einschließlich UPDATE, DELETE und MERGE sowie verschiedene Optionen für INSERT einschließlich des Erstellens einer neuen Tabelle mit Daten aus einer vorhandenen Tabelle kennen. Außerdem siehst du dir an, wie das System beim Einfügen von Daten automatisch Werte für Spalten liefern kann.
Lektionen:
Übung: Daten modifizieren
Currently, the average cost of a security breach can be upwards of $4 million. AWS Security Best Practices provides an overview of some of the industry best practices for using AWS security and control types. This course helps you understand your responsibilities while providing valuable guidelines for how to keep your workload safe and secure.
You will learn how to secure your network infrastructure using sound design options. You will also learn how you can harden your compute resources and manage them securely. Finally, by understanding AWS monitoring and alerting, you can detect and alert on suspicious events to help you quickly begin the response process in the event of a potential compromise.
Module 1: AWS Security Overview
Module 2: Securing the Network
Lab 1: Controlling the Network
Module 3: Amazon EC2 Security
Lab 2: Securing the starting point (EC2)
Module 4: Monitoring and Alerting
Lab 3: Security Monitoring
Tag 1
Modul 1: Sicherheit auf AWS
Modul 2: Identifizierung von Einstiegspunkten in AWS
Übung 01: Kontoübergreifender Zugriff
Modul 3: Sicherheitserwägungen: Webanwendungsumgebungen
Modul 4: Anwendungssicherheit
Übung 02: Verwendung von AWS Systems Manager und Amazon Inspector
Modul 5: Datensicherheit
Tag 2
Modul 6: Absicherung der Netzwerkkommunikation
Modul 7: Überwachung und Erfassung von Protokollen auf AWS
Übung 03: Überwachen und Reagieren mit AWS Config
Modul 8: Verarbeitung von Protokollen auf AWS
Modul 9: Sicherheitsbetrachtungen: Hybride Umgebungen
Modul 10: Out-of-Region-Schutz
Tag 3
Modul 11: Sicherheitsüberlegungen: Serverlose Umgebungen
Modul 12: Erkennung und Untersuchung von Bedrohungen
Modul 13: Verwaltung von Geheimnissen in AWS
Übung 05: Verwendung von AWS KMS
Modul 14: Automatisierung und Sicherheit durch Design
Übung 06: Sicherheitsautomatisierung auf AWS mit AWS Service Catalog
Modul 15: Kontoverwaltung und -bereitstellung in AWS
Übung 07: Föderierter Zugriff mit ADFS
Tag 4: AWS Jam Day
Löse in einer sicheren AWS-Umgebung unter Anleitung deiner/deines Trainerin/Trainers als Team reale Herausforderungen.
Trete gegen andere Teams an, um die Herausforderung mit deinen Kolleg:innen zu gewinnen und deine AWS-Fähigkeiten unter Beweis zu stellen.
Alle Herausforderungen basieren auf dem Kursumfang und unterstützen deine Lernkurve auf sehr effektive Weise
Besteht aus folgenden Modulen:
Security Engineering on AWS – JAM Day («AWSSJ4»)
Security Engineering on AWS – Intensive Training («AWSS04»)
Dieser Kurs zeigt, wie du die AWS Security Services effizient nutzen kannst, um in der AWS Cloud sicher zu bleiben. Er fokussiert auf den Sicherheitspraktiken, die AWS empfiehlt, um die Sicherheit deiner Systeme und Daten in der Cloud zu erhöhen. Du wirst die Sicherheitsmerkmale der AWS-Schlüsseldienste wie Rechen-, Speicher-, Netzwerk- und Datenbankdienste kennenlernen. Darüber hinaus nutzt du AWS-Dienste und -Tools für die Automatisierung, die kontinuierliche Überwachung und Protokollierung sowie die Reaktion auf Sicherheitsvorfälle.
Tag 1
Tag 2
Tag 3
Tag 4
AWS JAM Day
Besteht aus folgenden Modulen:
DevOps Engineering on AWS – JAM Day («AWSSJ2»)
DevOps Engineering on AWS – Intensive Training («AWSS02»)
Tag 1
Modul 1: Die Reise in die Cloud
Demo: Gehen Sie durch die Erstellung der Basisinfrastruktur mit AWS CloudFormation in der AWS-Konsole
Praktische Übung: Bereitstellen Ihrer monolithischen Anwendung mit AWS Elastic Beanstalk
Modul 2: Agilität erlangen
Demo: AWS-Geheimnis-Manager
Tag 2
Modul 3: Von Monolithen zu MicroServices
Praktische Übung: Verwendung von AWS Lambda zur Entwicklung von Microservices
Modul 4: Polyglotte Persistenz und verteilte Komplexität
Tag 3
Modul 5: Ausfallsicherheit und Skalierung
Praktische Übung: Erkunden der AWS-Messaging-Optionen
Modul 6: Sicherheit und Beobachtungsfähigkeit
Tag 4
AWS Jam Day
Löst gemeinsam als Team reale Herausforderungen in einer sicheren AWS-Umgebung, angeleitet von eurem Instruktor. Tretet gegen andere Teams an, um die Herausforderung mit euren Kollegen zu gewinnen und eure AWS-Fähigkeiten in die Tat umzusetzen. Alle Herausforderungen basieren auf dem Umfang des Kurses und werden eure Lernkurve auf sehr effektive Weise unterstützen.
Besteht aus folgenden Modulen
Advanced Developing on AWS – JAM Day («AWSDJ2»)
Advanced Developing on AWS – Intensive Training («AWSD02»)
Tag 1
Tag 2
Tag 3
Tag 4
AWS JAM Day
Löst gemeinsam als Team reale Herausforderungen in einer sicheren AWS-Umgebung, angeleitet von eurem Ausbilder tretet ihr gegen andere Teams an, um die Herausforderung mit den Kolleg:innen zu gewinnen und eure AWS-Fähigkeiten in die Tat umzusetzen. Alle Herausforderungen basieren auf dem Umfang des Kurses und werden eure Lernkurve auf sehr effektive Weise unterstützen
Besteht aus folgenden Modulen
Cloud Operations on AWS – Intensive Training («AWSS01»)
Cloud Operations on AWS – JAM Day («AWSSJ1»)
Module 1: Prepare to develop AI solutions on Azure
Module 2: Create and consume Azure AI services
Module 3: Secure Azure AI services
Module 4: Monitor Azure AI services
Module 5: Deploy Azure AI services in containers
Module 6: Analyze images
Module 7: Classify images
Module 8: Detect, analyze, and recognize faces
Module 9: Read Text in Images and Documents with the Azure AI Vision Service
Module 10: Analyze video
Module 11: Analyze text with Azure AI Language
Module 12: Build a question answering solution
Module 13: Build a conversational language understanding model
Module 14: Create a custom text classification solution
Module 15: Create a custom named entity extraction solution
Module 16: Translate text with Azure AI Translator service
Module 17: Create speech-enabled apps with Azure AI services
Module 18: Translate speech with the Azure AI Speech service
Module 19: Create an Azure Cognitive Search solution
Module 20: Create a custom skill for Azure Cognitive Search
Module 21: Create a knowledge store with Azure Cognitive Search
Module 22: Plan an Azure AI Document Intelligence solution
Module 23: Use prebuilt Azure AI Document Intelligence models
Module 24: Extract data from forms with Azure Document Intelligence
Module 25: Get started with Azure OpenAI Service
Module: Build natural language solutions with Azure OpenAI Service
Module 26: Apply prompt engineering with Azure OpenAI Service
Module 27: Generate code with Azure OpenAI Service
Module 28: Generate images with Azure OpenAI Service
Module 29: Use your own data with Azure OpenAI Service
Module 30: Fundamentals of Responsible Generative AI
Module 1: Introduction to AI
In this module, you'll learn about common uses of artificial intelligence (AI), and the different types of workload associated with AI. You'll then explore considerations and principles for responsible AI development.
Lessons
Module 2: Machine learning
Machine learning is the foundation for modern AI solutions. In this module, you'll learn about some fundamental machine learning concepts, and how to use the Azure Machine Learning service to create and publish machine learning models.
Lessons
Module 3: Computer Vision
Computer vision is a area of AI that deals with understanding the world visually, through images, video files, and cameras. In this module you'll explore multiple computer vision techniques and services.
Lessons
Module 4: Natural language processing
This module describes scenarios for AI solutions that can process written and spoken language. You'll learn about Azure services that can be used to build solutions that analyze text, recognize and synthesize speech, translate between languages, and interpret commands.
Module 5: Conversation AI
Conversational AI enables users to engage in a dialog with an AI agent, or *bot*, through communication channels such as email, webchat interfaces, social media, and others. This module describes some basic principles for working with bots and gives you an opportunity to create a bot that can respond intelligently to user questions.
Lessons
Dieser AWS JAM Day baut auf dem offiziellen Kurs Security Engineering on AWS auf
Der AWS JAM Day ist eine spielerische Veranstaltung, bei der die Teilnehmenden in Teams gegeneinander antreten, um eine Reihe von Best-Practice-Herausforderungen zu bewältigen, die auf den im Kurs behandelten Konzepten basieren. Zusätzlich zu den praktischen Übungen, die in den ILT-Kursen angeboten werden, bietet ein zusätzlicher Tag mit vom Trainer geleiteten Herausforderungen den Teilnehmenden die Möglichkeit, AWS Jam zu nutzen, um reale Szenarien zu bewältigen, die allgemeine Betriebs- und Fehlerbehebungsaufgaben darstellen, die für deine Job-Rolle relevant sind.
Du kannst dein Wissen in einer sicheren und realen AWS-Umgebung anwenden und erhältst Punkte, wenn du die Aufgabe richtig löst. Das Ziel eines AWS Jam ist es, die Fähigkeiten in der AWS-Cloud zu entwickeln, zu verbessern und zu validieren und sich darauf vorzubereiten, die praktischen Fähigkeiten nach der Rückkehr in den Arbeitsalltag zu nutzen.
Es wird empfohlen, den Kurs Security Engineering on AWS with JAM zu buchen, in dem der JAM Day bereits enthalten ist, wenn du den Kurs Security Engineering on AWS noch nicht besucht hast.
ML-Datenplattform-Ingenieur:innen, DevOps-Ingenieur:innen und Entwickler:innen/Betriebsmitarbeiter:innen, die für die Operationalisierung von ML-Modellen verantwortlich sind, werden lernen, die Herausforderungen bei der Übergabe zwischen Dateningenieur:innen, Datenwissenschaftler:innen, Softwareentwickler:innen und Betriebsmitarbeiter:innen durch den Einsatz von Tools, Automatisierung, Prozessen und Teamarbeit zu bewältigen. Am Ende des Kurses kannst du vom Lernen zum Handeln übergehen, indem du einen MLOps-Aktionsplan für dein Unternehmen erstellst.
Tag 1
Modul 0: Begrüßung
Modul 1: Einführung in MLOps
Modul 2: MLOps-Entwicklung
Tag 2
Modul 3: MLOps-Bereitstellung
Tag 3
Modul 4: Modellüberwachung und Betrieb
Modul 5: Nachbereitung
Durch die Teilnahme am Kurs «Migrating to AWS» erwirbst du das Wissen und die Fähigkeiten, die erforderlich sind, um erfolgreiche Migrationen zu AWS durchzuführen und das volle Potenzial von Cloud Computing zu erschließen.
Tag 1
Modul 0: Einführung in die Migration zu AWS
Modul 1: Was ist eine Cloud-Migration?
Modul 2: Bewertung der Migrationsbereitschaft
Modul 3: Vorbereiten einer Migration und Verstehen der damit verbundenen Arbeitsabläufe
Modul 4: Entdeckung von Landing Zones und deren Vorteile
Modul 5: Erstellen einer Landing Zone
Modul 6: Erkennen des Portfolios und Verstehen von Migrationsstrategien
Tag 2
Modul 7: Verstehen und Auswählen von Portfolio Discovery Tools
Modul 8: Planen und Entwerfen einer Migration
Modul 9: Durchführen der Migration zu AWS
Modul 10: Verstehen von Datenbank- und Datenmigrationsdiensten
Tag 3
Modul 11: Verstehen zusätzlicher Optionen für die Migrationsunterstützung
Modul 12: Integrieren, Validieren und Überschreiben von Anwendungen
Modul 13: Modernisieren und Optimieren einer Anwendungsmigration
Modul 14: Verstehen von Betriebstools, Integrationstests und Automatisierung
Modul 15: Bewährte Verfahren für die Migration
Dieser Kurs umfasst Präsentationen, Demonstrationen, Diskussionen und Übungen. Am Ende des Kurses übst du die Erstellung eines durchgängigen ML-Projekts für tabellarische Daten mit SageMaker Studio und dem SageMaker Python SDK.
Modul 1: Amazon SageMaker – Einrichtung und Navigation
Modul 2: Datenverarbeitung
Modul 3: Modellentwicklung
Modul 4: Einsatz und Inferenz
Modul 5: Überwachung
Modul 6: Verwalten von SageMaker-Studio-Ressourcen und -Updates
Capstone
Im Capstone-Lab werden die verschiedenen in diesem Kurs behandelten Funktionen von SageMaker Studio zusammengeführt. Die Teilnehmer:innen erhalten die Möglichkeit, ein Modell vorzubereiten, zu erstellen, zu trainieren und einzusetzen, wobei ein tabellarischer Datensatz verwendet wird, der in früheren Übungen nicht vorkam. Die Teilnehmer:innen können zwischen einer einfachen, einer mittleren und einer fortgeschrittenen Version der Anleitung wählen.
Capstone-Lab: Erstellen eines End-to-End Tabular Data ML-Projekts mit SageMaker Studio und dem SageMaker Python SDK
Der Kurs vertieft Amazon Kinesis und Amazon MSK durch eine Mischung aus Präsentationen unter Anleitung der Kursleitung, praktischen Übungen, Demonstrationen und Klassenübungen, so dass du am Ende des Kurses weißt, wie du eine Streaming-Datenanalyselösung auf AWS aufbauen kannst. Du lernst auch, wie du Streaming-Anwendungen mit Amazon Kinesis skalierst, die Datenspeicherung optimierst, geeignete Optionen für die Aufnahme, Umwandlung, Speicherung und Analyse von Daten auswählst und bereitstellen kannst und vieles mehr.
Modul A: Überblick über Datenanalyse und die Datenpipeline
Modul 1: Verwendung von Streaming Services in der Datenanalyse-Pipeline
Modul 2: Einführung in AWS-Streaming-Services
Modul 3: Verwendung von Amazon Kinesis für Echtzeit-Datenanalysen
Modul 4: Sichern, Überwachen und Optimieren von Amazon Kinesis
Modul 5: Verwendung von Amazon MSK in Streaming Data Analytics-Lösungen
Modul 6: Sichern, Überwachen und Optimieren von Amazon MSK
Modul 7: Entwerfen von Streaming Data Analytics-Lösungen
Modul B: Entwickeln moderner Datenarchitekturen auf AWS
Einführung in den Kurs
Zugang zu den Ressourcen (Hands-on-Lab-Schnittstelle, Anleitungen)
Modul 1: Einführung und Überblick über Amazon QuickSight
Modul 2: Erste Schritte mit Amazon QuickSight
Modul 3: Verbessern und Hinzufügen von Interaktivität zu deinem Dashboard
Modul 4: Daten für die Analyse vorbereiten
Modul 5: Nachbereitung
Der Kurs konzentriert sich auf die Komponenten der Datenerfassung, -aufnahme, -katalogisierung, -speicherung und -verarbeitung der Analysepipeline. Du lernst, Amazon Redshift in einen Data Lake zu integrieren, um sowohl Analyse- als auch maschinelle Lernarbeitslasten zu unterstützen. Du wirst auch lernen, die besten Praktiken für Sicherheit, Leistung und Kostenmanagement auf den Betrieb von Amazon Redshift anzuwenden.
Modul A: Überblick über Datenanalyse und die Datenpipeline
Modul 1: Verwendung von Amazon Redshift in der Datenanalyse-Pipeline
Modul 2: Einführung in Amazon Redshift
Modul 3: Ingestion und Speicherung
Modul 4: Verarbeiten und Optimieren von Daten
Modul 5: Sicherheit und Überwachung von Amazon Redshift-Clustern
Modul 6: Entwerfen von Data Warehouse-Analytiklösungen
Modul B: Entwickeln moderner Datenarchitekturen auf AWS
Erfahre, wie Amazon EMR mit Open-Source-Projekten wie Apache Hive, Hue und HBase und mit AWS-Services wie AWS Glue und AWS Lake Formation integriert wird. Der Kurs behandelt die Komponenten Datenerfassung, -aufnahme, -katalogisierung, -speicherung und -verarbeitung im Kontext von Spark und Hadoop. Du lernst die Verwendung von EMR Notebooks zur Unterstützung von Analyse- und Machine-Learning-Arbeitslasten. Du lernst auch, die besten Praktiken für Sicherheit, Leistung und Kostenmanagement auf den Betrieb von Amazon EMR anzuwenden.
Modul A: Überblick über Datenanalyse und die Datenpipeline
Modul 1: Einführung in Amazon EMR
Modul 2: Datenanalyse-Pipeline mit Amazon EMR: Ingestion und Speicherung
Modul 3: Leistungsstarke Batch-Datenanalyse mit Apache Spark auf Amazon EMR
Modul 4: Verarbeiten und Analysieren von Batch-Daten mit Amazon EMR und Apache Hive
Modul 5: Serverlose Datenverarbeitung
Modul 6: Sicherheit und Überwachung von Amazon EMR-Clustern
Modul 7: Entwerfen von Batch-Datenanalyselösungen
Modul B: Entwickeln moderner Datenarchitekturen auf AWS
Du wirst die Komponenten und Funktionen der Services kennenlernen, die an der Erstellung eines Data Lake beteiligt sind. Du wirst AWS Lake Formation zum Aufbau eines Data Lake, AWS Glue zum Aufbau eines Datenkatalogs und Amazon Athena zum Analysieren von Daten verwenden. Die Kursvorträge und Übungen vertiefen deine Kenntnisse durch die Erkundung verschiedener gängiger Data Lake-Architekturen.
Modul 1: Einführung in Data Lakes
Beschreiben des Wertes von Data Lakes
Modul 2: Datenerfassung, Katalogisierung und Vorbereitung
Modul 3: Datenverarbeitung und Analytik
Modul 4: Aufbau eines Data Lake mit AWS Lake Formation
Modul 5: Zusätzliche Lake Formation-Konfigurationen
Modul 6: Architektur und Kursüberprüfung
Dieser Kurs zielt darauf ab, den Teilnehmenden einen guten Überblick über die grundlegenden AWS-Services und deren korrekte Nutzung zu geben und gleichzeitig die besten Praktiken innerhalb des AWS Well-Architected Frameworks zu vermitteln. Dabei liegt der Schwerpunkt auf der Verbesserung der Fähigkeiten der Teilnehmer:innen, Architekturen zu erstellen, die verständlich sind und gleichzeitig die besten Praktiken berücksichtigen.
Erlebe mit uns drei Tage intensives Lernen und Kommunikation, die dich in die Lage versetzen werden, bessere Karten für die Navigation in der komplexen Welt der Cloud-Architektur zu erstellen.
Tag 1
Modul 0: Kurseinführung
Modul 1: Grundlagen der Architektur
Modul 2: Kontosicherheit
Modul 3: Networking 1
Modul 4: Compute
Tag 2
Rückblick auf Tag 1
Modul 5: Speicherung
Modul 6: Datenbankdienste
Modul 7: Überwachung und Skalierung
Modul 9: Container
Modul 10: Networking 2
Modul 11: Serverless
Modul 12: Edge-Dienste
Modul 13: Backup und Wiederherstellung
Tag 3
Rückblick auf Tag 2
Modul 14: Einführung in eine gute Architektur
Modul 15: Betriebliche Exzellenz mit Übung
Modul 16: Verlässlichkeit mit Übung
Modul 17: Sicherheit mit Übung
Modul 18: Leistungseffizienz mit Übung
Dieser Kurs reduziert den Umfang des 3-tägigen Kurses Architecting on AWS auf die Aspekte, die für die Rolle des AWS Architects tatsächlich relevant sind.
Du lernst, wie du architektonische Best Practices implementieren, Strategien zur Kostenoptimierung erforschen und Entwurfsmuster entwickelst, die dich bei der Entwicklung kosteneffizienter Lösungen auf AWS unterstützen.
Tag 1
Modul 1: Einführung in das Cloud-Finanzmanagement
Modul 2: Markierung von Ressourcen
Modul 3: Preisgestaltung und Kosten
Modul 4: AWS-Abrechnung, Berichterstattung und Überwachung
Tag 2
Modul 5: Architektur für Kosten: Berechnen
Modul 6: Architektur für Kosten: Vernetzung
Tag 3
Modul 7: Architektur für Kosten: Lagerung
Modul 8: Architekt für Kosten: Datenbanken
Modul 9: Kostenkontrolle
Modul 10: Kurszusammenfassung
Die Teilnehmer:innen lernen die einzelnen Phasen der Pipeline durch Präsentationen und Demonstrationen der Trainer:innen kennen und wenden dieses Wissen an, um ein Projekt zur Lösung eines von drei Geschäftsproblemen zu implementieren: Betrugserkennung, Empfehlungsmaschinen oder Flugverspätungen.
Am Ende des Kurses werden die Teilnehmer:innen erfolgreich ein ML-Modell mit Amazon SageMaker erstellt, trainiert, evaluiert, abgestimmt und bereitgestellt haben, das das von ihnen gewählte Geschäftsproblem löst.
Tag 1
Modul 0: Einführung
Pre-Assessment
Modul 1: Einführung in maschinelles Lernen und die ML-Pipeline
Modul 2: Einführung in Amazon SageMaker
Modul 3: Problemformulierung
Tag 2
Kontrollpunkt 1 und Überprüfung der Antworten
Modul 4: Vorverarbeitung
Tag 3
Kontrollpunkt 2 und Überprüfung der Antworten
Modul 5: Modell-Training
Modul 6: Modell-Bewertung
Tag 4
Kontrollpunkt 3 und Überprüfung der Antworten
Modul 7: Feature Engineering und Modell-Tuning
Modul 8: Einsatz
Dieser Kurs führt dich ein in die Konzepte, Strategien und bewährten Methoden für die Konzeptionierung einer Cloud-basierten Data Warehousing-Lösung mit Amazon Redshift, dem Data Warehouse in AWS in Petabyte-Größe. Es wird demonstriert, wie Daten für das Data Warehouse mithilfe anderer AWS-Services wie Amazon DynamoDB, Amazon EMR, Amazon Kinesis Firehose und Amazon Simple Storage Service (Amazon S3) gesammelt, gespeichert und vorbereitet werden. Wir werden außerdem erläutern, wie du Business-Intelligence-(BI)-Tools zur Analyse deiner Daten einsetzen kannst.
Dieser Kurs ist zusätzlich mit Inhalten des Kurses Building Data Analytics Solutions using Amazon Redshift angereichert
Modul 1: Einführung in Data Warehousing
Modul 2: Einführung in Amazon Redshift
Modul 3: Starten von Clustern
Modul 4: Entwerfen des Datenbankschemas
Modul 5: Identifizierung von Datenquellen
Modul 6: Laden von Daten
Modul 7: Schreiben von Abfragen und Leistungs-Tuning
Modul 8: Amazon Redshift Spectrum
Modul 9: Wartung von Clustern
Modul 10: Analysieren und Visualisieren von Daten
Day 1
Day 2
Day 3
Day 4: AWS Jam Day
Consists of the following modules
AWS JAM Day will be featured on the final 4th day of this course, as a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly. The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
This course prepares you to achieve the following official AWS Certification:
AWS Certified Solutions Architect - Professional.
Day 1
Module 1: Architecting Fundamentals
Module 2: Account Security
Module 3: Networking 1
Module 4: Compute
Day 2
Module 5: Storage
Module 6: Database Services
Module 7: Monitoring and Scaling
Module 8: Automation
Module 9: Containers
Day 3
Module 10: Networking 2
Module 11: Serverless
Module 12: Edge Services
Module 13: Backup and Recovery
Day 4: AWS Jam Day
Consists of the following modules
AWS JAM Day will be featured on the final 4th day of this course, as a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly. The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
This course prepares you to achieve the following official AWS Certification:
AWS Certified Solutions Architect – Associate.
Day 1
Day 2
Day 3
Day 4: AWS Jam Day
AWS JAM Day will be featured on the final, 4th day of this course, as a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly. The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
This course prepares you to achieve the following official AWS Certification:
AWS Certified SysOps Administrator – Associate.
Day 1
Module 1: The cloud journey
Module 2: Gaining Agility
Day 2
Module 3: Monolith to MicroServices
Module 4: Polyglot Persistence & Distributed Complexity
Day 3
Module 5: Resilience and Scale
Module 6: Security and Observability
Day 4: AWS Jam Day
Consists of the following modules
AWS JAM Day will be featured on the final 4th day of this course, as a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly. The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
Day 1: Building the Foundation
Day 2: Connecting Applications and Data with Event-Driven Processing
Day 3: Developing and Deploying Secure, Scalable Applications
Day 4: AWS Jam Day
Consists of the following modules
AWS JAM Day will be featured on the final, 4th day of this course, as a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly.
The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
This course prepares you to achieve the following official AWS Certification: AWS Certified Developer – Associate
Tag 1
Tag 2
Tag 3
Tag 4: AWS Jam Day
Der AWS JAM Day findet am letzten Tag des Kurses statt. Dabei handelt es sich um eine spielerische Veranstaltung, bei der die Teilnehmenden in Teams gegeneinander antreten. Es werden eine Reihe von Best-Practice-Herausforderungen bewältigt, die auf den im Kurs behandelten Konzepten basieren.
Zusätzlich zu den praktischen Übungen der ersten 3 Kurs-Tage, bietet der zusätzliche Jam-Tag mit angeleiteten Herausforderungen den Teilnehmenden die Möglichkeit, AWS Jam zu nutzen, um reale Szenarien zu bewältigen, die allgemeine Betriebs- und Fehlerbehebungsaufgaben darstellen, die für ihre Job-Rolle relevant sind.
Du kannst dein Wissen in einer sicheren und realen AWS-Umgebung anwenden. Das Ziel eines AWS Jam ist es, die Fähigkeiten in der AWS-Cloud zu entwickeln, zu verbessern und zu validieren und sich darauf vorzubereiten, die praktischen Fähigkeiten nach der Rückkehr in den Arbeitsalltag zu nutzen.
Dieser Kurs bereitet dich darauf vor, die folgenden offiziellen AWS-Zertifizierungen zu erlangen:
Tag 1
Modul 1: Grundlagen der Architektur
Modul 2: Kontosicherheit
Modul 3: Networking 1
Modul 4: Datenverarbeitung
Tag 2
Modul 5: Speicherung
Modul 6: Datenbank-Dienste
Modul 7: Überwachung und Skalierung
Modul 8: Automatisierung
Modul 9: Container
Tag 3
Modul 10: Networking 2
Modul 11: Serverlos
Modul 12: Edge-Dienste
Modul 13: Sicherung und Wiederherstellung
Tag 4: AWS Jam Day
Besteht aus folgenden Modulen
Dieser Kurs bereitet dich konkret darauf vor, die folgenden offiziellen AWS-Zertifizierungen zu erlangen:
AWS Jam Day
AWS JAM Day is a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly.
The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
AWS Jam Day
AWS JAM Day is a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly.
The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
Learn how to use AWS frameworks to deploy a serverless application in hands-on labs that progress from simpler to more complex topics. You will use AWS documentation throughout the course to develop authentic methods for learning and problem-solving beyond the classroom.
Day 1
Module 0: Introduction
Module 1: Thinking Serverless
Module 2: API-Driven Development and Synchronous Event Sources
Module 3: Introduction to Authentication, Authorization, and Access Control
Module 4: Serverless Deployment Frameworks
Module 5: Using Amazon EventBridge and Amazon SNS to Decouple Components
Module 6: Event-Driven Development Using Queues and Streams
Hands-On Labs
Day 2
Module 7: Writing Good Lambda Functions
Module 8: Step Functions for Orchestration
Module 9: Observability and Monitoring
Hands-On Labs
Day 3
Module 10: Serverless Application Security
Module 11: Handling Scale in Serverless Applications
Module 12: Automating the Deployment Pipeline
Hands-On Labs
Day 1
Module 1: Security on AWS
Module 2: Identifying Entry Points on AWS
Module 3: Security Considerations: Web Application Environments
Module 4: Application Security
Module 5: Data Security
Day 2
Module 6: Securing Network Communications
Module 7: Monitoring and Collecting Logs on AWS
Module 8: Processing Logs on AWS
Module 9: Security Considerations: Hybrid Environments
Module 10: Out-Of-Region Protection
Day 3
Module 11: Security Considerations: Serverless Environments
Module 12: Threat Detection and Investigation
Module 13: Secrets Management on AWS
Module 14: Automation and Security by Design
Module 15: Account Management and Provisioning on AWS
This course prepares you to achieve the following official AWS Certification:
AWS Certified Security – Specialty.
This course shows how to efficiently use AWS security services to stay secure in the AWS Cloud. It focuses on the security practices that AWS recommends for enhancing the security of your systems and data in the cloud. You will learn the security features of AWS key services including compute, storage, networking, and database services. Furthermore, you will leverage AWS services and tools for automation, continuous monitoring and logging, and responding to security incidents.
Day 1
Day 2
Day 3
This course prepares you to achieve the following official AWS Certification:
AWS Certified DevOps Engineer – Professional.
Day 1
Day 2
Day 3
This course prepares you to achieve the following official AWS Certification:
AWS Certified SysOps Administrator – Associate.
AWS Jam Day
AWS JAM Day is a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly. The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
In this course, you will learn how finance professionals can use Amazon Web Services (AWS) to adopt cloud in a fiscally responsible manner. You will gain foundational knowledge to help you manage, optimize, and plan cloud spend. You will learn how to influence your organization’s builders to be more accountable and cost conscious. Finally, you will consider how you can use AWS to innovate in your finance organization.
Day 1
Module 1: Introduction
Module 2: Planning and Forecasting
Module 3: Measurement and Accountability
Day 2
Module 4: Cost Optimization
Module 5: Cloud Financial Operations
Module 6: Financial Transformation and Innovation
Module 7: Resources and Next Steps
This interactive course provides a deep dive into Amazon Web Services (AWS) best practices to help you perform effective and efficient AWS Well-Architected Framework Reviews. The course covers the phases of a review, including how to prepare, run, and get guidance after a review has been performed. Attendees should have familiarity with the AWS concepts, terminology, services, and tools that are covered in the intermediate, 200-level AWS Well-Architected Best Practices.
Module 0: Course Introduction
Module 1: AWS Well-Architected Framework Reviews
Module 2: Customer Scenario Group Sessions
Module 3: Risk Solutions and Priorities
Module 4: Resources
Module 5: Course Summary
The Well-Architected Framework enables you to make informed decisions about your customers architectures in a cloud-native way and understand the impact of design decisions that are made. By using the Well-Architected Framework, you will understand the risks in your architecture and ways to mitigate them.
Module 1: Well-Architected Introduction
Module 2: Design Principles
Security is foundational to AWS. Governance at scale is a new concept for automating cloud governance that can help companies retire manual processes in account management, budget enforcement, and security and compliance. By automating common challenges, companies can scale without inhibiting agility, speed, or innovation. In addition, they can provide decision makers with the visibility, control, and governance necessary to protect sensitive data and systems.
Course Introduction
Module 1: Governance at Scale
Module 2: Governance Automation
Module 3: Preventive Controls
Module 4: Detective Controls
Module 5: Resources
Based on the AWS Shared Security Model, you learn where you are responsible for implementing security in the AWS Cloud and what security-oriented services are available to you. Learn also why and how the security services can help meet the security needs of your organization. This course enables you to dive deep, ask questions, work through solutions, and get feedback from AWS-accredited instructors with deep technical knowledge. This fundamental level course is part of the AWS Training and Certification Security learning path.
Module 1: Security on AWS
Module 2: Security OF the Cloud
Module 3: Security IN the Cloud – Part 1
Module 4: Security IN the Cloud – Part 2
Module 5: Security IN the Cloud – Part 3
Module 6: Course Wrap Up
This course provides a detailed overview of cloud concepts, AWS services, security, architecture, pricing, and support. It also helps you prepare for the AWS Certified Cloud Practitioner exam. This course covers the following concepts:
This course prepares you to achieve the following official AWS Certification:
AWS Certified Cloud Practitioner.
AWS Technical Essentials introduces you to essential AWS services and common solutions. The course covers the fundamental AWS concepts related to compute, database, storage, networking, monitoring, and security.
You will start working in AWS through hands-on course experiences. The course covers the concepts necessary to increase your understanding of AWS services, so that you can make informed decisions about solutions that meet business requirements.
Throughout the course, you will gain information on how to build, compare, and apply highly available, fault tolerant, scalable, and costeffective cloud solutions.
Module 1: Introduction to Amazon Web Services
Module 2: AWS Compute
Module 3: AWS Networking
Module 4: AWS Storage
Module 5: Databases
Module 6: Monitoring, Optimization, and Serverless
AWS Jam Day
AWS JAM Day is a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly.
The goal of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
Day 1: Building the Foundation
Day 2: Connecting Applications and Data with Event-Driven Processing
Day 3: Developing and Deploying Secure, Scalable Applications
This course prepares you to achieve the following official AWS Certification:
AWS Certified Developer – Associate.
AWS Jam Day
AWS JAM Day is a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses "Advanced Architecting on AWS", an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly. The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
Architecting on AWS is for solutions architects, solution-design engineers, and developers seeking an understanding of AWS architecting. In this course, you will learn to identify services and features to build resilient, secure and highly available IT solutions on the AWS Cloud.
Architectural solutions differ depending on industry, types of applications, and business size. AWS Authorized Instructors emphasize best practices using the AWS Well-Architected Framework, and guide you through the process of designing optimal IT solutions, based on real-life scenarios.
The modules focus on account security, networking, compute, storage, databases, monitoring, automation, containers, serverless architecture, edge services, and backup and recovery. At the end of the course, you will practice building a solution and apply what you have learned with confidence.
Day 1
Module 1: Architecting Fundamentals
Module 2: Account Security
Module 3: Networking 1
Day 2
Module 5: Storage
Module 6: Database Services
Module 7: Monitoring and Scaling
Module 8: Automation
Module 9: Containers
Day 3
Module 10: Networking 2
Module 11: Serverless
Module 12: Edge Services
Module 13: Backup and Recovery
This course prepares you to achieve the following official AWS Certification:
AWS Certified Solutions Architect - Associate.
Der Inhalt dieses intensiven Trainings leitet sich aus der Prüfung «PL-600: Microsoft Power Platform Solution Architect» ab.
Kursinhalt:
Modul 1: Ein Solution Architect werden/Den Kunden kennenlernen
Lektionen:
Modul 2: Konzeptualisierung des Entwurfs anhand der Anforderungen
Lektionen:
Modul 3: Projektsteuerung und Zusammenarbeit im Team
Lektionen:
Modul 4: Power Platform-Architektur
Lektionen:
Modul 5: Datenmodellierung
Lektionen:
Modul 6: Analytik und künstliche Intelligenz
Lektionen:
Modul 7: Power-Apps-Architektur
Lektionen:
Modul 8: Verwaltung des Anwendungs-Lebenszyklus (ALM)
Lektionen:
Modul 9: Power-Automate-Architektur
Lektionen:
Modul 10: Sicherheits-Modellierung
Lektionen:
Modul 11: Integration
Lektionen:
Modul 12: Dynamics 365 Anwendungsarchitektur
Lektionen:
Modul 13: Architektur von Power Virtual Agents
Lektionen:
Modul 14: Automatisierung robotischer Prozesse
Lektionen:
Modul 15: Testen und Go-Live
Lektionen:
Dieses intensive Training bereitet dich vor auf:
Prüfung: « PL-600: Microsoft Power Platform Solution Architect » für die
Zertifizierung: « Microsoft Certified: Power Platform Solution Architect Expert »
Bitte beachte, dass für die Erlangung der Zertifizierung auch eine der folgenden Prüfungen erforderlich ist:
In diesem Kurs werden die leistungsstarken Funktionen von Apache Spark für die verteilte Datenverarbeitung und die grundlegenden Techniken für effiziente Datenverwaltung, Versionsverwaltung und Zuverlässigkeit durch die Arbeit mit Delta-Lake-Tabellen untersucht. In diesem Kurs wird auch die Datenerfassung und Orchestrierung mithilfe von Dataflows Gen2- und Data-Factory-Pipelines untersucht. Dieser Kurs umfasst eine Kombination aus Vorträgen und praktischen Übungen, die dich auf die Arbeit mit Lakehouses in Microsoft Fabric vorbereiten.
Modul 1:
Einführung in End-to-End-Analysen mit Microsoft Fabric
Hier erfährst du, wie Microsoft Fabric alle Analyseanforderungen deines Unternehmens auf einer Plattform erfüllen kann. Du erfährst mehr über Microsoft Fabric, die Funktionsweise des Dienstes und lernst, wie du ihn für deine Analysezwecke verwenden kannst.
Modul 2: Erste Schritte mit Lakehouses in Microsoft Fabric
Lakehouses vereinen die Flexibilität von Data Lake Storage mit Data-Warehouse-Analysen. Microsoft Fabric ist eine Lakehouselösung für umfassende Analysen auf einer einzigen SaaS-Plattform.
Modul 3: Verwenden von Apache Spark in Microsoft Fabric
Apache Spark ist eine Kerntechnologie für umfassende Datenanalysen. Microsoft Fabric unterstützt Spark-Cluster, sodass du selbst große Datenmengen in einem Lakehouse analysieren und verarbeiten kannst.
Modul 4: Arbeiten mit Delta-Lake-Tabellen in Microsoft Fabric
Die Tabellen in einem Microsoft-Fabric-Lakehouse basieren auf dem Delta-Lake-Speicherformat, das üblicherweise in Apache Spark verwendet wird. Mithilfe der erweiterten Funktionen von Delta-Tabellen kannst du komplexe Analyse-Lösungen erstellen.
Modul 5: Erfassen von Daten mit Gen2-Dataflows in Microsoft Fabric
Die Datenerfassung ist bei der Analyse von entscheidender Bedeutung. Die Data Factory von Microsoft Fabric bietet Dataflows (Gen2) zum Erstellen und Visualisieren einer mehrstufigen Datenerfassung und -transformation mithilfe von Power Query Online.
Modul 6: Verwenden von Data-Factory-Pipelines in Microsoft Fabric
Microsoft Fabric beinhaltet Data-Factory-Funktionen, einschließlich der Möglichkeit, Pipelines zu erstellen, die Datenerfassungs- und Transformationstasks orchestrieren.
Azure OpenAI Service bietet Zugang zu den leistungsstarken großen Sprachmodellen von OpenAI wie GPT, dem Modell hinter dem beliebten ChatGPT-Service. Diese Modelle ermöglichen es verschiedenen Lösungen zur Verarbeitung natürlicher Sprache (NLP), Inhalte zu verstehen, sich zu unterhalten und zu generieren. Benutzer können über REST APIs, SDKs und Azure OpenAI Studio auf den Service zugreifen.
Kursübersicht:
Lerne die Verbindung zwischen künstlicher Intelligenz (KI), verantwortlicher KI und Text-, Code- und Bilderzeugung kennen. Verstehe, wie du Azure OpenAI nutzen kannst, um Lösungen mit KI-Modellen innerhalb von Azure zu erstellen.
Dieses Modul vermittelt Ingenieur:innen die Fähigkeiten, um mit dem Aufbau einer Azure-OpenAI-Service-Lösung zu beginnen.
Dieses Modul vermittelt Ingenieur:innen die Fähigkeiten, um mit der Erstellung von Anwendungen zu beginnen, die sich in den Azure OpenAI Service integrieren lassen.
Prompt Engineering in Azure OpenAI ist eine Technik, bei der Prompts für Modelle zur Verarbeitung natürlicher Sprache entworfen werden. Dieser Prozess verbessert die Genauigkeit und Relevanz der Antworten und optimiert die Leistung des Modells.
Modul 1: Einführung in die Leistungsplattform
Informiere dich über die Komponenten der Power Platform, Möglichkeiten zur Verbindung von Daten und darüber, wie Unternehmen diese Technologie zur Erstellung von Geschäftslösungen nutzen können.
Lektionen:
Modul 2: Einführung in den gemeinsamen Datendienst
Der Common Data Service ermöglicht es dir, dich mit leistungsstarken, skalierbaren Datenlösungen in der Cloud zu beschäftigen. Erfahre, wie der Common Data Service funktioniert und wie er mit der Power Platform zusammenarbeitet, um einzigartige und effiziente Geschäftslösungen zu erstellen.
Lektionen:
Lab : Datenmodellierung
Modul 3: Erste Schritte mit Power Apps
Erfahre mehr über den Wert und die Möglichkeiten von Power Apps und lerne, wie andere Organisationen diese Technologie nutzen, um einfache Anwendungen für ihr Unternehmen zu entwickeln.
Lektionen:
Lab : Wie man eine Canvas-Anwendung erstellt, Teil 1
Lab : Wie man eine modellgesteuerte App erstellt
Lab : Wie man ein Power Apps-Portal aufbaut
Modul 4: Erste Schritte mit Power Automate
Erfahre, wie Anwender:innen Power Automate zur Verbesserung der Unternehmenseffizienz und -produktivität einsetzen können.
Lektionen:
Lab : Power Automate
Modul 5: Erste Schritte mit Power BI
Erfahre, wie Unternehmen mit Power BI Daten auf einfache Weise bereinigen, anzeigen und verstehen können, um besser informierte Entscheidungen zu gewährleisten.
Lektionen:
Lab : Wie man ein einfaches Dashboard baut
Modul 6: Einführung in Power Virtual Agents
Informiere dich über den Wert und die Fähigkeiten von Power Virtual Agents und darüber, wie Unternehmen diese Technologie nutzen können, um Chatbot-Lösungen für ihr Unternehmen zu entwickeln.
Lektionen:
Lab : Wie man einen einfachen Chatbot programmiert
Dieses Training bereitet dich vor auf:
Prüfung: « PL-900: Microsoft Power Platform Fundamentals » für die
Zertifizierung: « Microsoft Certified: Power Platform Fundamentals »
Lerne, wie du AWS-Frameworks verwendest, um eine serverlose Anwendung bereitzustellen. Die praktischen Übungen in diesem Kurs gehen von einfacheren zu komplexeren Themen über. Du wirst die AWS-Dokumentation während des gesamten Kurses verwenden, um authentische Methoden für das Lernen und die Problemlösung außerhalb des Klassenzimmers zu entwickeln.
Tag 1
Modul 0: Einführung
Modul 1: Serverlose Denkweise
Modul 2: API-gesteuerte Entwicklung und synchrone Ereignisquellen
Modul 3: Einführung in Authentifizierung, Autorisierung und Zugriffskontrolle
Modul 4: Serverlose Bereitstellungs-Frameworks
Modul 5: Verwendung von Amazon EventBridge und Amazon SNS zur Entkopplung von Komponenten
Modul 6: Ereignisgesteuerte Entwicklung mit Warteschlangen und Streams
Praktische Übungen
Tag 2
Modul 7: Gute Lambda-Funktionen schreiben
Modul 8: Schrittfunktionen für die Orchestrierung
Modul 9: Beobachtbarkeit und Überwachung
Praktische Übungen
Tag 3
Modul 10: Sicherheit von serverlosen Anwendungen
Modul 11: Handhabung der Skalierung in serverlosen Anwendungen
Modul 12: Automatisieren der Bereitstellungspipeline
Praktische Übungen
Dieser interaktive Kurs bietet dir einen tiefen Einblick in die Best Practices von Amazon Web Services (AWS), damit du effektive und effiziente AWS Well-Architected Framework Reviews durchführen kannst. Der Kurs deckt die Phasen einer Überprüfung ab, einschließlich der Vorbereitung, Durchführung und Anleitung nach der Durchführung einer Überprüfung. Die Teilnehmenden sollten mit den AWS-Konzepten, der Terminologie, den Services und Tools vertraut sein, die in den AWS Well-Architected Best Practices auf mittlerem Niveau (200) behandelt werden.
Modul 0: Kurseinführung
Modul 1: AWS Well-Architected Framework-Reviews
Modul 2: Gruppensitzungen zum Kundenszenario
Modul 3: Risikolösungen und Prioritäten
Modul 4: Ressourcen
Modul 5: Kurszusammenfassung
The course dives deep into Amazon Kinesis and Amazon MSK through a mixture of instructor-led presentations, practice labs, demonstrations, and class exercises so you can walk away understanding how to build a streaming data analytics solution on AWS. You'll also learn how to scale streaming applications using Amazon Kinesis, optimize data storage, how to select and deploy appropriate options to ingest, transform, store, and analyze data, and more.
Outline
Module A: Overview of Data Analytics and the Data Pipeline
Module 1: Using Streaming Services in the Data Analytics Pipeline
Module 2: Introduction to AWS Streaming Services
Module 3: Using Amazon Kinesis for Real-time Data Analytics
Module 4: Securing, Monitoring, and Optimizing Amazon Kinesis
Module 5: Using Amazon MSK in Streaming Data Analytics Solutions
Module 6: Securing, Monitoring, and Optimizing Amazon MSK
Module 7: Designing Streaming Data Analytics Solutions
Module B: Developing Modern Data Architectures on AWS
IMPORTANT: This course prepares you for the AWS Data Analytics Certification, among other courses in the Data Analytics job role track.
Der Inhalt dieses Trainings leitet sich aus der Prüfung «PL-400: Microsoft Power Platform Developer» ab. Beginne schon jetzt auf Microsoft Learn mit der Vorbereitung auf den Kurs. Während der intensiven Trainingstage mit unseren Trainern arbeitest du mit den offiziellen Microsoft-Kursunterlagen.
Modul 1: Deine erste modellgesteuerte App mit Dataverse erstellen
Du möchtest schnell mit möglichst wenig bzw. ohne Code Apps erstellen? In diesem Modul werden die Bausteine von Dataverse und modellgesteuerten Apps behandelt. Diese wichtigen Komponenten helfen dir beim schnellen Erstellen von Geschäftsanwendungen in deiner Organisation.
Modul 2: Erste Schritte mit modellgesteuerten Apps in Power Apps
Der Entwurf einer modellgesteuerten App ist ein Ansatz, der sich auf das schnelle Hinzufügen von Komponenten zu deinen Apps konzentriert. Zu diesen Komponenten gehören Dashboards, Formulare, Ansichten und Diagramme. Mit wenig oder keinem Code kannst du Apps erstellen, die einfach oder komplex sind.
Modul 3: Tabellen in Dataverse verwalten
Dataverse-Tabellen sind vergleichbar mit Tabellen in einer Datenbank. Jede Instanz einer Dataverse-Datenbank enthält einen Basissatz von Tabellen, welche die Struktur für Daten bereitstellen, die üblicherweise von Geschäftsanwendungen verwendet werden.
Modul 4: Spalten in einer Tabelle in Dataverse erstellen und verwalten
Möchtest du neue Datenspalten erstellen oder vorhandene standardisierte Spalten für deine Geschäftslösungen nutzen? In diesem Modul erfährst du, wie du neue Spalten in einer Tabelle in Dataverse verwaltest oder erstellst.
Modul 5: Mit Auswahlmöglichkeiten in Dataverse arbeiten
Möchtest du standardisierte Auswahllisten erstellen, die du in allen Power Apps verwenden kannst? In diesem Modul erfährst du, wie du in Dataverse neue Standardauswahllisten, die als Auswahlmöglichkeiten bezeichnet werden, erstellst und verwendest.
Modul 6: Eine Beziehung zwischen Tabellen in Dataverse erstellen
Musst du Beziehungen zwischen Tabellen erstellen? In diesem Modul wird gezeigt, wie und warum du Daten in Tabellen aufteilen und wie du Beziehungen zwischen Tabellen herstellen kannst, um komplexe und robuste Geschäftslösungen zu erstellen. Außerdem werden die verschiedenen Arten von Beziehungen erläutert, die du zwischen Tabellen in Dataverse definieren kannst.
Modul 7: Geschäftsregeln in Dataverse definieren und erstellen
Die Möglichkeit zur Erstellung von Geschäftsregeln, die unabhängig von der App, die auf den jeweiligen Datensatz zugreift, eine konsistente Geschäftslogik gewährleisten, ist für erfolgreiche Geschäftsvorgänge unabdingbar. Dieses Modul zeigt, wie du Geschäftsregeln erstellen kannst, die bei jeder Verwendung innerhalb von Dataverse ausgelöst werden.
Modul 8: Berechnungs- und Rollupspalten in Dataverse erstellen und definieren
Möchtest du Rollup- oder Berechnungsspalten verwenden? In diesem Modul erfährst du, wie du Berechnungen oder Rollups erstellst, die in den Daten in Dataverse definiert und ausgelöst werden, unabhängig von der App, die auf das jeweilige Dataset zugreift.
Modul 9: Erste Schritte mit Sicherheitsrollen in Dataverse
Möchtest du Sicherheitsrollen verwenden, um Benutzerberechtigungen einzuschränken? In diesem Modul erfährst du, wie du Berechtigungen festlegen kannst, um den Zugriff auf eine Umgebung einzuschränken. Du kannst auch die Benutzer beschränken, die Daten in einer Umgebung in Dataverse anzeigen, bearbeiten oder löschen können.
Modul 10: Erste Schritte mit Power-Apps-Canvas-Apps
Lerne die Grundlagen von Power Apps kennen, und erfahre, wie du das Tool in deiner Organisation einsetzen kannst.
Modul 11: Canvas-App in Power Apps anpassen
Lerne, wie du eine App anpasst, indem du Steuerelemente, Bilder und Logik hinzufügst.
Modul 12: Apps in Power Apps verwalten
Verwalte App-Versionen, App-Freigaben und Umgebungen in Power Apps.
Modul 13: Navigation in einer Canvas-App in Power Apps
App-Benutzer können nur mithilfe der Navigationsoptionen navigieren, die von einem App-Entwickler bereitgestellt werden. Dieses Modul ist darauf ausgelegt, dir beim Erstellen einer guten Navigationserfahrung für deine Canvas-App zu helfen.
Modul 14: Die Benutzeroberfläche in einer Canvas-App in Power Apps erstellen
Möchtest du eine bessere Benutzeroberfläche für deine App-Benutzer erstellen? Dieses Modul hilft dir dabei mit Designs, Symbolen, Bildern, Personalisierung, verschiedenen Formfaktoren und Steuerelementen.
Modul 15: Grundlegendes zu Steuerelementen in einer Canvas-App in Power Apps und deren Verwendung
Steuerelemente helfen, dem Benutzer eine bessere Erfahrung zu verschaffen und erfassen die entsprechenden Daten. Dieses Modul vermittelt die Grundlagen zum Konzept und der Verwendung von Steuerelementen.
Modul 16: Deine Power-Apps-Anwendung dokumentieren und testen
In diesem Modul lernst du bewährte Methoden rund um das Testen und Dokumentieren deiner Power Apps-Anwendung kennen.
Modul 17: Imperative Entwicklungsverfahren für Canvas-Apps in Power Apps verwenden
Imperative Entwicklungsverfahren können dir helfen, das angestrebte Ziel für deine App zu realisieren. Erfahre mehr über die verschiedenen Entwicklungsmethoden und Variablen in Power Apps.
Modul 18: Formeln erstellen, die Tabellen, Datensätze und Sammlungen in einer Canvas-App in Power Apps verwenden
Benötigst du in deiner App komplexe Formeln? Dieses Modul hilft dir dabei, diese Formeln zu schreiben.
Modul 19: Benutzerdefinierte Updates in einer Power-Apps-Canvas-App ausführen
Bei einigen Power-Apps-Canvas-Apps helfen Formulare nicht weiter. Im Rahmen dieses Moduls erfährst du, wie du benutzerdefinierte Updates ausführen kannst, wenn sich deine Daten nicht in einem Formular befinden.
Modul 20: Tests und Leistungsprüfungen in einer Power-Apps-Canvas-App durchführen
Möchtest du deine App testen und ihre Leistung verbessern? In diesem Modul erfährst du, wie du eine App testen und die Leistung verbessern kannst.
Modul 21: Mit relationalen Daten in einer Power-Apps-Canvas-App arbeiten
Möchtest du die Benutzerfreundlichkeit deiner Canvas-App verbessern? In diesem Modul wird veranschaulicht, wie du mit relationalen Daten die Benutzerfreundlichkeit deiner App verbessern kannst.
Modul 22: Mit Datenquellen-Grenzwerten (Delegations-Grenzen) in einer Power-Apps-Canvas-App arbeiten
Es ist wichtig, die Grundlagen zur Arbeit mit Datenquellen-Grenzwerten kennenzulernen. Du musst die unterschiedlichen Grenzwerte und Variablen verinnerlichen, um optimal mit Daten in Power Apps arbeiten zu können. Dadurch kannst du deinen Anforderungen entsprechend die beste Datenquelle für eine App auswählen.
Modul 23: Verbindung mit anderen Daten in einer Power-Apps-Canvas-App herstellen
Musst du eine Verbindung mit nicht tabellarischen Daten herstellen? In diesem Modul wird die entsprechende Vorgehensweise erläutert. Auch aktionsbasierte Konnektoren, Flows und Benutzerdaten werden behandelt.
Modul 24: Benutzerdefinierte Konnektoren in einer Power-Apps-Canvas-App verwenden
Benutzerdefinierte Konnektoren können in deinen Canvas-Apps verwendet werden, wenn kein integrierter Konnektor verfügbar ist. Der Schwerpunkt dieses Moduls liegt auf der Verwendung benutzerdefinierter Konnektoren.
Modul 25: Erste Schritte mit Power Automate
Power Automate ist ein Online-Workflowdienst, der Aktionen für die häufigsten Apps und Dienste automatisiert.
Modul 26: Genehmigungsflows mit Power Automate erstellen
In diesem Modul erstellst du Genehmigungsflows, um dein Geschäft zu optimieren, Zeit zu sparen und effizienter zu arbeiten.
Modul 27: Einführung in Ausdrücke in Power Automate
Hole das Beste aus deinen Daten heraus, indem du Funktionen zum Erstellen von Ausdrücken verwendest.
Modul 28: Einführung in Microsoft-Power-Platform-Entwicklerressourcen
Ziel dieses Moduls ist es, einen umfassenden Überblick über die Entwicklungserfahrung in Bezug auf die Microsoft Power Platform zu geben. Es wird eine abstrakte Einführung in die Darstellung des Ökosystems geben, wobei als Zielgruppe Softwareentwickler:innen mit begrenzter Erfahrung in der Arbeit mit der Microsoft Power Platform vorgegeben sind.
Modul 29: Entwicklertools zur Erweiterung der Power Platform verwenden
Dieses Modul konzentriert sich auf die verfügbaren Entwicklungstools, mit denen du Entwicklungsaktivitäten mit der Microsoft Power Platform durchführen kannst.
Modul 30: Einführung in die Erweiterung der Power Platform
Dieses Modul befasst sich schwerpunktmäßig mit der zugrunde liegenden Lösungsarchitektur aus technischer Sicht und den verfügbaren Erweiterungsoptionen. Es wird auch ein immer wieder wichtiges Element der Microsoft-Power-Platform-Entwicklung behandelt, nämlich der Entscheidungsprozess, bei dem festgelegt wird, wann Konfiguration und wann Code verwendet wird.
Modul 31: Einführung in Dataverse für Entwickler:innen
Ziel dieses Moduls ist es, einen einführenden Überblick über die Microsoft Power Platform SDKs zu geben, die bei Microsoft über NuGet erhältlich sind.
Modul 32: Plug-Ins in Power Platform erweitern
Ziel dieses Moduls ist es, einen detaillierten Überblick über Plug-Ins in Zusammenhang mit der Microsoft-Power-Platform-Entwicklung zu geben. In diesem Modul wird überprüft, wie und wann Plug-Ins implementiert werden, wie sie registriert und bereitgestellt werden und welche verschiedenen Konfigurationsoptionen während der Plug-In-Registrierung verfügbar sind.
Modul 33: Gemeinsame Aktionen mit dem Clientskript in Power Platform durchführen
In diesem Modul wird erörtert, wie gängige Verfahren zur Automatisierung der Benutzererfahrung durch das Clientskript erreicht werden können. Dieses Modul soll als praktische Anleitung für die Lösung von realen Szenarien dienen, die häufig bei Microsoft-Power-Platform-Implementierungen auftreten.
Modul 34: Geschäftsprozessflüsse mit Clientskripts automatisieren
In diesem Modul werden Entwickler:innen darin geschult, allgemeine Techniken zur Automatisierung von Geschäftsprozessflows mit Client-Skripts anzuwenden. Darüber hinaus wird der Kontext erläutert, in dem diese Szenarien angewendet werden können.
Modul 35: Erste Schritte mit dem Power Apps Component Framework
Erfahre mehr über die ersten Schritte mit dem Microsoft Power Apps Component Framework.
Modul 36: Eine Power-Apps-Komponente erstellen
Erstelle eine benutzerdefinierte Power-Apps-Komponente sowie ein Lösungspaket für Codekomponenten und teste und debugge anschließend eine Codekomponente.
Modul 37: Erweiterte Funktionen im Power Apps Component Framework nutzen
Erfahre im Detail, wie komplexere Szenarien in einem Power Apps Component Framework behandelt werden können. In diesem Modul wird die Nutzung von Client-Frameworks (z. B. React und Angular) innerhalb einer Komponente und die Bewältigung von Szenarien wie das Hochladen von Dateien, die Lokalisierung und die Integration in die Microsoft Dataverse-Web-API erläutert.
Modul 38: Mit der Dataverse-Web-API arbeiten
Erfahre mehr über das Arbeiten mit der Dataverse-Web-API.
Modul 39: Dataverse-Azure-Lösungen integrieren
Verschaffe dir einen detaillierten Überblick über die Optionen, die in Dataverse zum Integrieren von Daten und Ereignissen in Azure verfügbar sind.
Dieses intensive Training bereitet dich vor auf:
Prüfung: "PL-400: Microsoft Power Platform Developer" für die Zertifizierung:
"Microsoft Certified: Power Platform Developer Associate".
Day 1
Module 1: Security on AWS
Module 2: Identifying Entry Points on AWS
Module 3: Security Considerations: Web Application Environments
Module 4: Application Security
Module 5: Data Security
Day 2
Module 6: Securing Network Communications
Module 7: Monitoring and Collecting Logs on AWS
Module 8: Processing Logs on AWS
Module 9: Security Considerations: Hybrid Environments
Module 10: Out-Of-Region Protection
Day 3
Module 11: Security Considerations: Serverless Environments
Module 12: Threat Detection and Investigation
Module 13: Secrets Management on AWS
Module 14: Automation and Security by Design
Module 15: Account Management and Provisioning on AWS
Day 4: AWS Jam Day
Consists of the following modules
AWS JAM Day will be featured on the final 4th day of this course, as a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly. The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
This course prepares you to achieve the following official AWS Certification:
AWS Certified Security - Specialty.
Day 1
Day 2
Day 3
Day 4: AWS Jam Day
Consists of the following modules
AWS JAM Day will be featured on the final, 4th day of this course, as a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role.
You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly. The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.
This course prepares you to achieve the following official AWS Certification:
AWS Certified DevOps Engineer – Professional.
Du vertiefst deine Kenntnisse in der Konfiguration und Verwaltung von VMware Horizon® 8 durch eine Kombination aus Vorlesungen und praktischen Übungen. Du lernst, wie du Pools virtueller Maschinen konfigurierst und bereitstellst und wie du Endanwendern eine individuelle Desktop-Umgebung zur Verfügung stellst. Außerdem lernst du, wie du eine virtuelle Desktop-Infrastrukturplattform installierst und konfigurierst. Du lernst, wie du VMware Horizon® Connection Server™ und VMware Unified Access Gateway™ installierst und konfigurierst, wie du einen Load Balancer für die Verwendung mit Horizon konfigurierst und wie du eine Cloud Pod Architecture einrichtest.
Kurseinführung
Einführung in VMware Horizon
Einführung in Use Case
vSphere für VMware Horizon
Windows-Desktops erstellen
Linux-Desktops erstellen
Erstellen und Verwalten von Desktop-Pools
VMware Horizon-Client-Optionen
Erstellen und Verwalten von Instant-Clone-Desktop-Pools
Erstellen von RDS-Desktop- und Anwendungspools
Überwachung von VMware Horizon
Horizon Connection Server
Horizon-Protokolle
Grafiken in Horizon
Sichern von Verbindungen: Netzwerk
Sichern von Verbindungen: Authentifizierung
Skalierbarkeit von Horizon
Horizon Cloud und Universal Broker
Workspace ONE Access und Verwaltung virtueller Anwendungen
The course focuses on the data collection, ingestion, cataloging, storage, and processing components of the analytics pipeline. You will learn to integrate Amazon Redshift with a data lake to support both analytics and machine learning workloads. You will also learn to apply security, performance, and cost management best practices to the operation of Amazon Redshift.
Outline
Module A: Overview of Data Analytics and the Data Pipeline
Module 1: Using Amazon Redshift in the Data Analytics Pipeline
Module 2: Introduction to Amazon Redshift
Module 3: Ingestion and Storage
Module 4: Processing and Optimizing Data
Module 5: Security and Monitoring of Amazon Redshift Clusters
Module 6: Designing Data Warehouse Analytics Solutions
Module B: Developing Modern Data Architectures on AWS
IMPORTANT: This course prepares you for AWS Data Analytics Certification, among other courses of the Data Analytics job role track.
Tag 1
Tag 2
Tag 3
In diesem Training lernst du die verschiedenen Module des Informationssicherheitsmanagementsystems (ISMS) kennen, wie z.B. ISMS-Leitlinien, Verfahren, Leistungsmessung, Verpflichtung des Managements, internes Audit, Managementbewertung und kontinuierliche Verbesserung.
Die Kursinhalte orientieren sich an den offiziellen Prüfungsvorgaben von PECB.
Es werden keine formalen Kenntnisse vorausgesetzt.
Die Zertifizierung «PECB ISO/IEC 27001 Foundation» entspricht vollumfänglich den Anforderungen des PECB Prüfungs- und Zertifizierungsprogramms (ECP). Die Prüfung umfasst die folgenden Kompetenzbereiche:
Prüfungsformat
Online, über den Erhalt einen Prüfungsvouchers, Multiple-Choice-Fragen, Anzahl Fragen: 40, Dauer: 60 Minuten, Sprache: Englisch, closed book
Der Inhalt dieses intensiven Trainings leitet sich aus der Prüfung «SC-300: Microsoft Identity and Access Administrator» ab.
Modul 1: Erkunden der Identität in Azure AD (optional)
Dies ist ein optionales Einstiegsmodul, das die grundlegenden Konzepte der Identitäts- und Zugriffsverwaltung mit Azure AD umfasst. Hier erfährst du mehr über die Definitionen und Zweck von Zero Trust, Authentifizierung, Autorisierung, Token und anderen identitätsbezogenen Themen.
Lektionen
Modul 2: Implementieren einer Identitätsverwaltungslösung
Hier erfährst du, wie du deine Azure-Active-Directory-Implementierung (Azure AD) erstellst und verwaltest und wie du die Benutzer:innen, Gruppen und externen Identitäten konfigurierst, die du zum Ausführen der Lösung verwenden wirst. Du erfährst auch, wie du eine Hybrididentitätslösung konfigurierst und verwaltest.
Lektionen
Lab:
Modul 3: Implementieren einer Lösung für Authentifizierung und Zugriffsverwaltung
Implementiere und verwalte deine Zugriffsverwaltung mithilfe von Azure AD. Verwende MFA (die mehrstufige Authentifizierung), bedingten Zugriff und Identitätsschutz zum Verwalten deiner Identitätslösung.
Lektionen
Lab:
Modul 4: Implementieren der Zugriffsverwaltung für Apps
Hier erfährst du, wie Anwendungen mit der Anwendungsregistrierung in Azure AD deiner Identitäts- und Zugriffslösung hinzugefügt werden können und sollten. Registrieren und Verwalten neuer Anwendungen in deiner Umgebung.
Lektionen
Lab:
Modul 5: Planen und Implementieren einer Identity-Governance-Strategie
Entwerfe und implementiere Identity Governance für deine Identitätslösung mithilfe einer Berechtigung, Zugriffsüberprüfungen, privilegiertem Zugriff und der Überwachung deiner Azure-Active- Directory-Instanz (Azure AD).
Lektionen
Lab:
Dieses intensive Training bereitet dich vor auf:
Prüfung: « SC-300: Microsoft Identity and Access Administrator » für die
Zertifizierung: « Microsoft Certified: Identity and Access Administrator Associate »
ML data platform engineers, DevOps engineers, and developers/operations staff with responsibility for operationalizing ML models will learn to address the challenges associated with handoffs between data engineers, data scientists, software developers, and operations through the use of tools, automation, processes, and teamwork. By the end of the course, go from learning to doing by building an MLOps action plan for your organization.
Day 1
Module 0: Welcome
Module 1: Introduction to MLOps
Module 2: MLOps Development
Day 2
Module 3: MLOps Deployment
Day 3
Module 4: Model Monitoring and Operations
Module 5: Wrap-up
This course can be used as preparation for the following official AWS Certification:
AWS Certified Machine Learning – Specialty.
You learn how to implement architectural best practices, explore cost optimization strategies, and design patterns to help you architect cost-efficient solutions on AWS.
Day 1
Module 1: Introduction to Cloud Financial Management
Module 2: Resource Tagging
Module 3: Pricing and Cost
Module 4: AWS Billing, Reporting, and Monitoring
Day 2
Module 5: Architecting for Cost: Compute
Module 6: Architecting for Cost: Networking
Day 3
Module 7: Architecting for Cost: Storage
Module 8: Architecting for Cost: Databases
Module 9: Cost Governance
Module 10: Course Summary
This course includes presentations, demonstrations, discussions, labs, and at the end of the course, you’ll practice building an end-to-end tabular data ML project using SageMaker Studio and the SageMaker Python SDK.
Module 1: Amazon SageMaker Setup and Navigation
Module 2: Data Processing
Module 3: Model Development
Module 4: Deployment and Inference
Module 5: Monitoring
Module 6: Managing SageMaker Studio Resources and Updates
Capstone
Learn how Amazon EMR integrates with open-source projects such as Apache Hive, Hue, and HBase, and with AWS services such as AWS Glue and AWS Lake Formation. The course addresses data collection, ingestion, cataloging, storage, and processing components in the context of Spark and Hadoop. You will learn to use EMR Notebooks to support both analytics and machine learning workloads. You will also learn to apply security, performance, and cost management best practices to the operation of Amazon EMR.
Module A: Overview of Data Analytics and the Data Pipeline
Module 1: Introduction to Amazon EMR
Module 2: Data Analytics Pipeline Using Amazon EMR: Ingestion and Storage
Module 3: High-Performance Batch Data Analytics Using Apache Spark on Amazon EMR
Module 4: Processing and Analyzing Batch Data with Amazon EMR and Apache Hive
Module 5: Serverless Data Processing
Module 6: Security and Monitoring of Amazon EMR Clusters
Module 7: Designing Batch Data Analytics Solutions
Module B: Developing Modern Data Architectures on AWS
IMPORTANT: This course prepares you for AWS Data Analytics Certification, among other courses of the Data Analytics job role track.
AWS Jam Day
AWS JAM Day is a gamified event where you will be split into teams to compete in a series of best practice challenges based on concepts covered in the course. In addition to the hands-on labs of the ILT courses, an additional day of curated and instructor-facilitated challenges allows learners to use AWS Jam to address real-world scenarios, representing common operational and troubleshooting tasks relevant for your job role. You will be able to apply your knowledge in a safe and real AWS environment and score points if you solve the challenge correctly. The aim of an AWS Jam is to develop, improve, and validate your skills in the AWS cloud and get ready to use your practical skills when you are back on your daily job.