Statistisches Praktikum im SS 2016

Dr. Michael Messer
unter Mitarbeit von Stefan Albert, Matthias Gärtner und Benjamin Straub

Seminar im SS 2016.

(Informationenen zum Statistischen Praktikum im SS16)

Vorläufiges Vortragsprogramm der Abschlusspräsentation

Mittwoch, 29. Juni 2016, ab ca. 12 Uhr, 711 (klein), RM 10

1. Michael Messer - Begrüßung und Überblick

Im Rahmen des statistischen Praktikums 2016 wurden verschiedene Algorithmen zur Detektion von Strukturbrüchen in Zeitreihen diskutiert. Ziel der Abschlusspräsentation ist es, die Grundideen dieser Verfahren zu vermittlen. Beispielsweise werden wir sehen, dass die Algorithmen häufig auf prominenten Hilfstatistiken (t-Statistik, Likelihoodquotient, AIC, etc.) beruhen. Zudem wollen wir ein Gefühl für die Performance der Verfahren und deren Praxistauglichkeit bekommen. Die Themen beruhen auf kürzlich erschienen Arbeiten.

2. Andrea Bouras - Der E-Divisive-Algorithmus

Der E-Divisive-Algorithmus ist ein Algorithmus zur Detektion von Strukturbrüchen in Zeitreihen. Der Algorithmus evaluiert die Zeitreihe mit Hilfe einer Abstandsfunktion systematisch auf allen Paaren von jeweils benachbarten Intervallen, wobei das erste Intervall immer am Anfang der Zeitreihe beginnt. Ein großer Wert der Abstandsfunktion bezüglich eines Paares spricht für einen Strukturbruch in dem Zeitpunkt, in dem sich die assoziierten Intervalle berühren. Wird ein Strukturbruch detektiert (Permutationstest), so wird die Zeitreihe im entsprechenden Zeitpunkt in zwei Teilmengen unterteilt und der Algorithmus wird rekursiv auf diese angewendet. In meinem Vortrag wird der E-Divisive-Algorithmus genauer beschrieben und die Ergebnisse einer Simulationsstudie werden präsentiert.
(Literatur: E-Divisive)

3. Anna Kremer und Jasmin Straub - Wild Binary Segmentation

In unserem Vortrag stellen wir den Wild-Binary-Segmentation-Algorithmus (WBS) zur Schätzung von Strukturbrüchen in Zeitreihen vor. WBS basiert auf der Auswertung sogenannter CUSUM-Statistiken. Im Gegensatz zum deterministischen Binary Segmentation Algorithmus werden die CUSUM-Statistiken beim WBS auf zufällig gewählten Teilintervallen der Zeitreihe ausgewertet, wodurch multiple Strukturbrüche besser erkannt werden sollen. Wir evaluieren die performance des WBS Algorithmus in Simulationsstudien und diskutieren Verbesserungen gegenüber dem deterministischen Verfahren. (Literatur: WBS)

4. Robin Heinz - Der Pruned-Exact-Linear-Time-Algorithmus

Der Pruned-Exact-Linear-Time-Algorithmus (PELT) ist ein Algorithmus zur Strukturbruchanalyse von Zeitreihen. Gegeben eine Zeitreihe sucht PELT die optimale Partitionierung (OP) im Sinne eines guten Fittings und gleichzeitig geringer Modellkomplexität. Dazu muss eine Kostenfunktion für die Daten und eine Penalty für eingefügte Changepoints gewählt werden. Mit der Loglikelihood als Kostenfunktion untersuche ich in Simulationsstudien die Auswirkungen verschiedener Penalties und überprüfe den PELT-Algorithmus auf seine Praxistauglichkeit. (Literatur: PELT)



5. Sebastian Groß und Sebastian Serve - SMUCE

Welche Stufenfunktion passt zu einer gegebenen Zeitreihe? Dies versucht der SMUCE-Algorithmus (simultaneous multiscale change point estimator) durch Maximierung multipler Likelihood-Quotienten zu beantworten. In diesem Sinne sucht SMUCE zunächst nach der kleinsten Anzahl von Sprungstellen, für die es Stufenfunktionen gibt, die die Daten gerade noch ‘gut' beschreiben. Aus der Menge der Stufenfunktionen mit dieser Minimaleigenschaft wird dann der finale Kandidat via Maximum-Likelihood geschätzt. Wir diskutieren den Einfluss der involvierten Parameter - 'Was bedeutet ‘gut’ beschreiben?' - sowie die Ergebnisse unserer Simulationsstudien. (Literatur: SMUCE)

6. Anna Muth und Solveig Plomer - Der Multiple-Filter-Test

Ist der Mittelwert einer Zeitreihe konstant oder gibt es Zeitpunkte, zu denen sich der Mittelwert ändert? Dieser Frage wollen wir anhand des Multiple-Filter-Tests (MFT) und des Multiple-Filter-Algorithm (MFA) nachgehen. Zunächst testen wir mittels MFT die Nullhypothese, dass der Mittelwert konstant ist. Wird diese verworfen, so detektieren wir Änderungen im Mittelwert anhand des MFA. Die Grundidee beider Verfahren ist, Daten aus zwei angrenzenden Teilbereichen der Zeitreihe (Fenstern) heran zu ziehen, und auf deren Basis die t-Statistik zu berechnen. Diese Fenster werden nun zum einen über die Zeitreihe geschoben und zum anderen vergrößert, was in multiplen t-Statistiken resultiert. Wir diskutieren die Wahl der Fenstergrößen - sind unterschiedliche Fenster links und rechts sinnvoll? - und untersuchen die Performance des Algorithmus in Simulationsstudien. (Literatur: MFT)

7. Lorenz Ebermann - Bayesian-Online-Changepoint-Detection

Das Ziel sogenannter Online-Changepoint-Detection Algorithmen (OCPD) ist es, Strukturbrüche in Zeitreihen instantan zu detektieren. Die Grundlage des Bayesian-OCPD Algorithmus ist die Betrachtung der ‘Runlänge' (d.h. der Zeit) bis zum letzten change point. Durch Bayes’sches updaten berechnet der Algorithmus die Runlängenverteilung für den aktuellen Zeitpunkt. Dann betrachtet er jene Runlänge, welcher maximales Wahrscheinlichkeitsgewicht zugeordnet ist. Ist am nächsten Zeitpunkt die Runlänge mit dieser Maximaleigenschaft nicht um eins erhöht, so wird ein change point detektiert. Anhand von Beispielen und Simulationsstudien wird die Güte des Verfahrens und der Einfluss der zugrundeliegenden Parameter diskutiert. (Literatur: Bayesian Online CPD)


Hauptseite Statistisches Praktikum

Impressum      Datenschutzerklärung