Data Science

Mustererkennung

  • Type: Vorlesung (V)
  • Semester: SS 2016
  • Time: 20.04.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten


    27.04.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    04.05.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    11.05.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    18.05.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    25.05.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    01.06.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    08.06.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    15.06.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    22.06.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    29.06.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    06.07.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    13.07.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten

    20.07.2016
    14:00 - 15:30 wöchentlich
    50.34 Raum -101 50.34 INFORMATIK, Kollegiengebäude am Fasanengarten


  • Lecturer: Prof.Dr.-Ing. Jürgen Beyerer
  • SWS: 2
  • Lv-No.: 24675
VoraussetzungenEmpfehlungen:

Kenntnisse der Grundlagen der Stochastik, Signal- und Bildverarbeitung sind hilfreich.

Beschreibung

Merkmale:

  • Merkmalstypen
  • Sichtung des Merkmalsraumes
  • Transformation von Merkmalen
  • Abstandsmessung im Merkmalsraum
  • Normalisierung von Merkmalen
  • Auswahl und Konstruktion von Merkmalen
  • Reduktion der Dimension des Merkmalsraumes

Klassifikatoren:

  • Bayes'sche Entscheidungstherorie
  • Parameterschätzung
  • Parameterfreie Methoden
  • Lineare Diskriminanzfunktionen
  • Support Vektor Maschine
  • Matched Filter, Templatematching
  • Klassifikation bei nominalen Merkmalen

Lernen:

  • Bias und Varianz
  • Leistungsbestimmung von Klassifikatoren
LiteraturhinweiseWeiterführende Literatur

- Richard O. Duda, Peter E. Hart, Stork G. David. Pattern Classification. Wiley-Interscience, second edition, 2001
- K. Fukunaga. Introduction to Statistical Pattern Recognition. Academic Press, second edition, 1997
- R. Hoffman. Signalanalyse und -erkennung. Springer, 1998
- H. Niemann. Pattern analysis and understanding. Springer, second edition, 1990
- J. Schürmann. Pattern classification. Wiley & Sons, 1996
- S. Theodoridis, K. Koutroumbas. Pattern recognition. London: Academic, 2003
- V. N. Vapnik. The nature of statistical learning theory. Springer, second edition, 2000

Lehrinhalt

Merkmale:

  • Merkmalstypen
  • Sichtung des Merkmalsraumes
  • Transformation der Merkmale
  • Abstandsmessung im Merkmalsraum
  • Normalisierung der Merkmale
  • Auswahl und Konstruktion von Merkmalen
  • Reduktion der Dimension des Merkmalsraumes

Klassifikatoren:

  • Bayes'sche Entscheidungstherorie
  • Parameterschätzung
  • Parameterfreie Methoden
  • Lineare Diskriminanzfunktionen
  • Support Vektor Maschine
  • Matched Filter, Templatematching
  • Klassifikation bei nominalen Merkmalen

Allgemeine Prinzipien:

  • Vapnik-Chervonenkis Theorie
  • Leistungsbestimmung von Klassifikatoren
  • Boosting
ArbeitsbelastungGesamt: ca. 90h, davon
1. Präsenzzeit in Vorlesungen: 20h
2. Vor-/Nachbereitung derselbigen: 20h
3. Prüfungsvorbereitung und Präsenz in selbiger: 50h
Ziel
  • Studierende haben fundiertes Wissen zur Auswahl, Gewinnung und Eigenschaften von Merkmalen, die der Charakterisierung von zu klassifizierenden Objekten dienen. Studierende wissen, wie der Merkmalsraum gesichtet werden kann, wie Merkmale transformiert und Abstände im Merkmalsraum bestimmt werden können. Des weiteren können Sie Merkmale normalisieren und Merkmale konstruieren. Darüber hinaus wissen Studierende wie die Dimension des Merkmalsraumes reduziert werden kann.
  • Studierende haben fundiertes Wissen zur Auswahl und Anpassung geeigneter Klassifikatoren für unterschiedliche Aufgaben. Sie kennen die Bayes'sche Entscheidungstherorie, Parameterschätzung und parameterfreie Methoden, lineare Diskriminanzfunktionen, Support Vektor Maschine und Matched Filter. Außerdem beherrschen Studierende die Klassifikation bei nominalen Merkmalen.
  • Studierende sind in der Lage, Mustererkennungsprobleme zu lösen, wobei die Effizienz von Klassifikatoren und die Zusammenhänge in der Verarbeitungskette Objekt – Muster – Merkmal – Klassifikator aufgabenspezifisch berücksichtigt werden. Dazu kennen Studierende das Prinzip zur Leistungsbestimmung von Klassifikatoren sowie das Prinzip des Boosting.
PrüfungDie Erfolgskontrolle wird in der Modulbeschreibung erläutert.