
Neural Networks: Architectures and Applications for NLP
Kursbeschreibung
Studiengang | Modulkürzel | Leistungs- bewertung |
---|---|---|
BA-2010[100%|75%] | CS-CL | 6 LP |
BA-2010[50%] | BS-CL | 6 LP |
BA-2010[25%] | BS-CL | 4 LP |
BA-2010 | AS-CL | 8 LP |
Master | SS-CL, SS-TAC | 8 LP |
Dozenten/-innen | Julia Kreutzer, Julian Hitschler |
Veranstaltungsart | Vorlesung/Übung |
Erster Termin | 25.10.2016 |
Zeit und Ort | Di, 14:15–15:45, INF 325 / SR 24 (SR) |
Do, 09:15–10:45, INF 346 / SR 10 (SR) | |
Commitment-Frist | tbd. |
Teilnahmevoraussetzungen
- Mathematische Grundlagen der CL
- Programmieren I
- Statistical Methods for CL
Leistungsnachweis
- wöchentliche Übungen im Vorlesungsteil
- Referat oder Implementierungsprojekt im Seminarteil (nur als HS)
- wöchentliche Fragen zur Literatur im Seminarteil
Inhalt
Das Seminar ist in zwei Teile gegliedert: Im ersten Teil (Vorlesungsteil) werden grundlegende Techniken und Architekturen des maschinellen Lernens mit Neuronalen Netzen vorgestellt. In den begleitenden Übungen werden diese Grundlagen mit verschiedenen Frameworks für Deep Learning umgesetzt. Der zweite Teil (Seminarteil) besteht aus Referaten und Diskussionen zu komplexeren Modellen für spezifische Anwendungen in der Computerlinguistik. Dabei stehen folgende Fragestellungen im Vordergrund:
- Was sind Neuronale Netze? Und was ist Deep Learning
- Wodurch begründet sich der Erfolg dieser Modelle?
- Welche Architekturen eignen sich für welche Aufgaben?
- Welche Herausforderungen ergeben sich mit der Verarbeitung von natürlicher Sprache
Ziel des Seminars ist es, ein praxisorientiertes Verständnis der Prinzipien und grundlegenden Architekturen zu vermitteln, sodass die Studierenden danach fähig sind, eigenständig Modelle mit Neuronalen Netzen für NLP-Anwendungen zu implementieren.
Kursübersicht
Seminarplan
Datum | Sitzung | Materialien |
25.10 | Einführung, Organisation, MLP | Orga, Session01 |
27.10. | Übung | Orga/Implementierungsprojekte |
01.11. | FEIERTAG | |
03.11. | Übung | Übung 1 |
08.11. | Aktivierungsfunktionen, Gradient Descent, Backpropagation, Computation Graph | Session02 |
10.11. | Übung | Übung 2 Trainingsdaten Testdaten |
15.11. | Metaparameter, How to train your NN, NLP from Scratch | Session03 |
17.11. | Übung | Übung 3 |
22.11. | Word Embeddings, Convolutional Neural Networks | Session04 |
24.11. | Übung | |
29.11. | Recurrent Neural Networks, LSTMs, GRUs | Session05 |
01.12. | Übung | Übung 4 Wevi-Online Goldberg und Levy, 2014 Mikolov et al., 2014 Levy und Goldberg, 2014 |
06.12. | KONFERENZ | |
08.12. | Übung | |
13.12. | Encoder-Decoder, Neural Machine Translation | Session06 |
15.12. | Übung | |
20.12. | NN mit Struktur | |
22.12. | Projekte | |
10.01. | CNN | |
12.01. | Projekte | |
17.01. | Natural Language Understanding | |
19.01. | Projekte | |
24.01. | Erweiterungen für RNNs |
|
26.01. | Projekte | |
31.01. | Erweiterungen für Seq2Seq I |
|
02.02. | Projekte | |
07.02. | Erweiterungen für Seq2Seq II |
|
09.02. | Projekte | |