pds-futurejobs
['Produktseite','nein']
Natural Language Processing und generative Modelle mit Python und Transformern
Kurs
3

Buchungs-Nr.:

36446

Natural Language Processing und generative Modelle mit Python und Transformern

GPT und andere Large Language Modelle zeigen das Potenzial moderner Sprachverarbeitung auf. In diesem Kurs werden die dahinterstehenden Technologien entschlüsselt: Natural Language Processing (NLP) und Transformer-Architekturen bilden die Grundlage für intelligente Chatbots, maschinelle Übersetzungen und viele weitere KI-Anwendungen. Du lernst leistungsfähige NLP-Modelle mit Python und TensorFlow zu entwickeln.

3 Tage
ca. 24 Stunden Zeitaufwand
Online
Professional und Master Class

Terminvorschau

Starttermin
Letztes Modul
Verfügbarkeit
Ort
10.12.2024
12.12.2024
Plätze frei
Maximale Planungssicherheit
Durchführung bereits gesichert
Haken dran!
Nächste Buchung sichert die
Durchführung
Live-Online
19.3.2025
21.3.2025
Plätze frei
Maximale Planungssicherheit
Durchführung bereits gesichert
Haken dran!
Nächste Buchung sichert die
Durchführung
Live-Online
6.5.2025
8.5.2025
Plätze frei
Maximale Planungssicherheit
Durchführung bereits gesichert
Haken dran!
Nächste Buchung sichert die
Durchführung
Live-Online
17.11.2025
19.11.2025
Plätze frei
Maximale Planungssicherheit
Durchführung bereits gesichert
Haken dran!
Nächste Buchung sichert die
Durchführung
Live-Online
18.2.2026
20.2.2026
Plätze frei
Maximale Planungssicherheit
Durchführung bereits gesichert
Haken dran!
Nächste Buchung sichert die
Durchführung
Live-Online

Modulübersicht

Die folgende Modulübersicht zeigt Termine für den Kursstart am
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
No items found.

Kursübersicht

Inhalte

1. Python-Techniken für das Text Processing

  • Python-Basics für die Textverarbeitung
  • Text- und PDF-Dateien verarbeiten
  • Die wichtigsten Regular Expressions

2. Einführung in Natural Language Processing (NLP)

  • Konzepte des Natural Language Processings
  • Einsatz der Bibliothek SpaCy zur Textanalyse
  • Tokenization, Stemming und Lemmatization
  • Part-of-speech und Named Entity Recognition
  • Zerlegung von Texten mit Sentence Segmentation

3. Textklassifikation und Textanalyse

  • Einführung in scikit-learn
  • Evaluierung von Klassifikationsmodellen mit Präzision, Recall und F1-Score
  • Semantisches Verständnis und Sentiment Analysis
  • Vektorbasierte Textrepräsentationen mit Word Vectors
  • Sentiment Analysis mit der Bibliothek NLTK

4. Topic Modelling und Long Short-Term Memory

  • Einführung in das Topic Modelling
  • Klassifizierung mit Latent Dirichlet Allocation (LDA)
  • Strukturen erkennen mit Non-negative Matrix Factorization (NMF)
  • Long Short-Term Memory, GRU und Text Generation
  • Implementierung eines LSTM zur Texterstellung mit Keras

5. Transformer und Attention

  • Das Konzept der Selbstaufmerksamkeit
  • Multihead Attention und Bedeutung in NLP-Modellen
  • Encoder und Decoder für maschinelle Übersetzung und Sprachverständnis
  • Architekturkonzepte gängiger Transformer-Modelle: GPT-2/3/4, BERT
  • Erstellen einer Transformer-Struktur mit Python und Keras
  • Training und Evaluation eines Seq2Seq-Transformers

6. Transfer Learning und Finetuning mit Hugging Face

  • Einführung in Hugging Face und Vorstellung vortrainierter Modelle
  • Auswahl geeigneter Modelle und Tokenizer
  • Transfer Learning und Finetuning vortrainierter Modelle
  • Automatische Konfiguration und Anpassung von Modellen

7. Praxisprojekt: Trainieren eines eigenen Chatbots