Ruprecht-Karls-Universität Heidelberg
Institut für Computerlinguistik

Bilder vom Neuenheimer Feld, Heidelberg und der Universität Heidelberg

Neural Networks: Architectures and Applications for NLP

Kursbeschreibung

Studiengang Modulkürzel Leistungs-
bewertung
BA-2010[100%|75%] CS-CL 6 LP
BA-2010[50%] BS-CL 6 LP
BA-2010[25%] BS-CL 4 LP
BA-2010 AS-CL 8 LP
Master SS-CL, SS-TAC 8LP
Dozenten/-innen Julia Kreutzer
Veranstaltungsart PS/HS
Erster Termin 24.10.2017
Zeit und Ort Di, 14:1515:45, INF 327 / SR 2 (SR)
Commitment-Frist 28.01.18

Teilnahmevoraussetzungen

  • Mathematische Grundlagen der CL
  • Programmieren I (Python)
  • Statistical Methods for CL oder vergleichbare Grundlagen in Maschinellem Lernen

Leistungsnachweis

  • Regelmäßige Teilnahme
  • Bearbeitung von Übungsblättern

Inhalt

In der Vorlesung werden grundlegende Techniken und Architekturen des maschinellen Lernens mit Neuronalen Netzen vorgestellt. Es wird außerdem ein Framework für Deep Learning vorgestellt und in Übungsaufgaben zur Implementierung verschiedener Modelle verwendet.

Es stehen folgende Fragestellungen im Vordergrund:

Was sind Neuronale Netze? Und was ist Deep Learning?
Wie kann man Neuronale Netze implementieren und trainieren?
Wodurch begründet sich der Erfolg dieser Modelle?
Welche Architekturen eignen sich für welche Aufgaben?
Welche Herausforderungen ergeben sich mit der Verarbeitung von natürlicher Sprache?

Ziel des Seminars ist es, ein praxisorientiertes Verständnis der Prinzipien und grundlegenden Architekturen zu vermitteln, sodass die Studierenden danach fähig sind, eigenständig Modelle mit Neuronalen Netzen für NLP-Anwendungen zu implementieren. Die Benotung erfolgt auf der Grundlage der Übungsaufgaben, für deren Bearbeitung jeweils mehrere Wochen zu Verfügung stehen.

Kursübersicht

Seminarplan

Datum Sitzung Materialien
24.10.17 Einführung, Orga Orga, Session01
31.10.17 FEIERTAG Übung1 (Update: 09.11.), Anleitung
07.11.17 Gradient Descent, Backprop, Computation Graphs Session02 (Update; 16.1.18), Notebook Demo
14.11.17 Hyperparameter, Tuning Session03, TF Intro Notebook (Update 21.11.)
21.11.17 NLP from Scratch, Word Embeddings Session04, Übung2 (Update 12.12.)
27.11.17 00:01 Abgabefrist Übung1
28.11.17 Convolutional Neural Networks Session05, more TF
05.12.17 Tensorboard, Recursive NN, Besprechung Übung1 Tensorboard, Tree Recursive Networks (Stanford)
12.12.17 Recurrent Neural Networks TF naive RNN, Session06
18.12.17 00:01 Abgabefrist Übung2
19.12.17 Character-RNNs for Text Generation Übung: Xmas CharRNN (Update: 8.1.18), Session07 (Anleitung zur Übung), Übung3
09.01.18 Vanishing RNN Gradienst, LSTM, GRU Session08 (Update 9.1.18)
16.01.18 Encoder-Decoder, Neural Machine Translation (1) Session09 (Update 16.1.18)
23.01.18 Attention, Neural Machine Translation (2), Machine Reading Session10
28.01.18 Commitmentfrist
30.01.18 Multitask Learning Session11
05.02.18 00:01 Abgabefrist Übung3
06.02.18 Hackathon Session12, Kaggle: Toxic Comment Classification

Wiki

Wikiseite

Literatur

  • Goldberg, Yoav: "A Primer on Neural Network Models for Natural Language Processing." [pdf]
  • Cho, Kyunghyun: "Natural Language Understanding with Distributed Representation" [pdf]
  • Stanford Course CS224d (Richard Socher): "Deep Learning for Natural Language Processing" [syllabus], [videos]

» weitere Kursmaterialien

zum Seitenanfang