Ruprecht-Karls-Universität Heidelberg
Institut für Computerlinguistik

Bilder vom Neuenheimer Feld, Heidelberg und der Universität Heidelberg

Neural Networks: Architectures and Applications for NLP

Kursbeschreibung

Studiengang Modulkürzel Leistungs-
bewertung
BA-2010[100%|75%] CS-CL 6 LP
BA-2010[50%] BS-CL 6 LP
BA-2010[25%] BS-CL 4 LP
BA-2010 AS-CL 8 LP
Master SS-CL, SS-TAC 8 LP
Dozenten/-innen Julia Kreutzer,
Julian Hitschler
Veranstaltungsart Vorlesung/Übung
Erster Termin 25.10.2016
Zeit und Ort Di, 14:1515:45, INF 325 / SR 24 (SR)
  Do, 09:1510:45, INF 346 / SR 10 (SR)
Commitment-Frist tbd.

Teilnahmevoraussetzungen

  • Mathematische Grundlagen der CL
  • Programmieren I
  • Statistical Methods for CL

Leistungsnachweis

  • wöchentliche Übungen im Vorlesungsteil
  • Referat oder Implementierungsprojekt im Seminarteil (nur als HS)
  • wöchentliche Fragen zur Literatur im Seminarteil

Inhalt

Das Seminar ist in zwei Teile gegliedert: Im ersten Teil (Vorlesungsteil) werden grundlegende Techniken und Architekturen des maschinellen Lernens mit Neuronalen Netzen vorgestellt. In den begleitenden Übungen werden diese Grundlagen mit verschiedenen Frameworks für Deep Learning umgesetzt. Der zweite Teil (Seminarteil) besteht aus Referaten und Diskussionen zu komplexeren Modellen für spezifische Anwendungen in der Computerlinguistik. Dabei stehen folgende Fragestellungen im Vordergrund:

  • Was sind Neuronale Netze? Und was ist Deep Learning
  • Wodurch begründet sich der Erfolg dieser Modelle?
  • Welche Architekturen eignen sich für welche Aufgaben?
  • Welche Herausforderungen ergeben sich mit der Verarbeitung von natürlicher Sprache

Ziel des Seminars ist es, ein praxisorientiertes Verständnis der Prinzipien und grundlegenden Architekturen zu vermitteln, sodass die Studierenden danach fähig sind, eigenständig Modelle mit Neuronalen Netzen für NLP-Anwendungen zu implementieren.

Kursübersicht

Seminarplan

Datum Sitzung Materialien
25.10 Einführung, Organisation, MLP Orga, Session01
27.10. Übung Orga/Implementierungsprojekte
01.11. FEIERTAG
03.11. Übung Übung 1
08.11. Aktivierungsfunktionen, Gradient Descent, Backpropagation, Computation Graph Session02
10.11. Übung Übung 2 Trainingsdaten Testdaten
15.11. Metaparameter, How to train your NN, NLP from Scratch Session03
17.11. Übung Übung 3
22.11. Word Embeddings, Convolutional Neural Networks Session04
24.11. Übung
29.11. Recurrent Neural Networks, LSTMs, GRUs Session05
01.12. Übung Übung 4 Wevi-Online Goldberg und Levy, 2014 Mikolov et al., 2014 Levy und Goldberg, 2014
06.12. KONFERENZ
08.12. Übung
13.12. Encoder-Decoder, Neural Machine Translation Session06
15.12. Übung
20.12. NN mit Struktur
22.12. Projekte
10.01. CNN
12.01. Projekte
17.01. Natural Language Understanding
19.01. Projekte
24.01. Erweiterungen für RNNs
26.01. Projekte
31.01. Erweiterungen für Seq2Seq I
02.02. Projekte
07.02. Erweiterungen für Seq2Seq II
09.02. Projekte

Literatur

zum Seitenanfang