- Natural Language Processing (NLP) – BERT
In der heutigen Lerneinheit möchten wir Euch verschiedene Transformer-Modelle und deren Anwendung näher vorstellen. Wir starten mit Modellen für das Natural Language Processing (NLP). Diese Modelle werden also so trainiert, dass sie ein möglichst weitreichendes Sprachverständnis erlernen.
In dieser Lerneinheit werdet ihr zwei Varianten der NLP-Modellklasse BERT (Bidirectional Encoder Representations from Transformers) kennenlernen, die jeweils auf dem Datensatz SQuAD (Stanford Question Answering Dataset) nachtrainiert wurden.
Hier könnt ihr euch das Vorlesungsvideo zum Thema von Joachim Haenicke (Mai 2020) anschauen:
Alle anderen Kurse der LINK KI-Schule findet ihr -> hier.
Die LINK-KI-Schule wurde entwickelt von Dr. Joachim Haenicke, Dr. Jan Sölter und Dr. Thomas Rost.
Die Google Colab Notebooks wurden von Jan Neukirchen auf Funktionalität und Aktualität der notwendigen Daten überprüft. Die letze Aktualisierung fand im April 2023 statt.