Ruprecht-Karls-Universität Heidelberg
Institut für Computerlinguistik

Bilder vom Neuenheimer Feld, Heidelberg und der Universität Heidelberg

Formale Semantik

Kursbeschreibung

Studiengang Modulkürzel Leistungs-
bewertung
BA-2010 FSem 6 LP
Dozenten/-innen Vivi Nastase und Michael Herweg
Veranstaltungsart Vorlesung/Übung
Erster Termin 23.10.2017
Zeit und Ort Mo, 11:1512:45, INF 306 / SR 14 (SR)
  Fr, 11:1512:45, INF 306 / SR 14 (SR)
Commitment-Frist tbd.

Teilnahmevoraussetzungen

Foundations of Linguistic Analysis (FLA), Formal Foundations, Logical Foundations (FF-L)

Leistungsnachweis

  • Regelmäßige, substantielle Bearbeitung der Übungsaufgaben zur Klausurzulassung
  • Erfolgreich bestandene Abschlussklausur/Abschlussprojekt

Inhalt

Die Vorlesung bietet einen Überblick über Phänomene und Methoden der semantischen Sprachverarbeitung. Behandelt werden grundlegende Konzepte der modelltheoretischen Semantik sowie deren Umsetzung in computerlinguistisch relevanten Semantikformalismen und -theorien. Neben klassischen formal-semantischen Methoden werden distributionelle statistische Verfahren sowie hybride Modelle vorgestellt. Dabei thematisieren wir die Relevanz computationeller Semantik für sprachtechnologische Anwendungen und zeigen, wie die erlernten Verfahren für computerlinguistische Aufgabenstellungen eingesetzt werden.

Kursübersicht

Seminarplan

Datum Sitzung Materialien
08.01 Lexical Semantics (I) Introduction; Symbolic representations
12.01 Lexical Semantics: Word representations in low-dimensional continuous vector spaces Latent Semantic Analysis
Turney & Pantel, Vector space models of semantics
Evert & Lenci, Distributional semantic models (ESSLI 2009)
Landauer & Dumais, A solution to Plato's problem: The latent semantic analysis theory of acquisition, induction, and representation of knowledge
Hopcroft & Kannan, Computer Science Theory for the Information Age, Chapter 4
15.01 Lexical Semantics: Word representations in low-dimensional continuous vector spaces Topic Models (I)
19.01 Lexical Semantics: Word representations in low-dimensional continuous vector spaces Topic Models (all)
Steyvers & Griffiths, Probabilistic topic models
Heinrich, Parameter estimation for text analysis
Blei, Topic models (tutorial)
22.01 Lexical Semantics: Word representations in low-dimensional continuous vector spaces Neural word embeddings
Bengio et al., A Neural Probabilistic Language Model
Collobert & Weston A Unified Architecture for Natural Language Processing: Deep Neural Networks with Multitask Learning Mikolov et al., Distributed Representations of Words and Phrases and their Compositionality
Levi & Goldberg Neural Word Embedding as Implicit Matrix Factorization
Nickel et al., A Review of Relational Machine Learning for Knowledge Graphs
26.01 Lexical Semantics: Operations on word representations Similarity and relatedness
29.01 Lexical Semantics: Operations on word representations Word sense disambiguation and word sense induction
2.02 Lexical Semantics: Frame semantics
5.02 Lexical Semantics: Putting things together Compositionality
9.02 Lexical Semantics: Putting things together Semantic relations

Project information

Literatur

Literatur wird bis zum Beginn der Veranstaltung hier bereitgestellt.

 

» weitere Kursmaterialien

zum Seitenanfang