Statistisches Praktikum im SS 2012

Seminarthema: "Hirnaktivität im Schlaf"

Dr. Gaby Schneider, unter Mitarbeit von Markus Bingmer und Michael Messer
in Kooperation mit Dr. Verena Brodbeck und Dr. Helmut Laufs, Zentrum für Neurologie und Neurochirurgie

Wann:
Wo:
Beginn:
Vorbesprechung:
 
Abschlusspräsentation:
Mi. 12:15 Uhr
Seminarraum 711 (groß), Robert-Mayer-Str. 10
18.4.2012
Mittwoch, 25. Januar 2012, 10:15 Uhr, Raum 711 (groß)
Ankündigung
Mittwoch, 4. Juli 2012, ab ca. 12 Uhr, 711 (groß), RM 10

Vortragsprogramm der Abschlusspräsentation

Die folgenden Abstracts wurden in Kooperation mit den Teilnehmerinnen und Teilnehmern des Statistischen Praktikums erstellt.

1. EEG-Microstates - Die Atome der Gedanken sichtbar machen

Das elektrische Feld der Hirnaktivität, messbar an der Kopfoberfläche, verändert sich in schneller Folge verschiedener Amplituden und Wechel von geringen zu großen Spannungsunterschieden. Die Verteilung der Feldtopographie zu den Zeitpunkten mit großen Spannungsunterschieden (sogenannte "EEG-Microstates") ist nicht zufällig, sondern lässt sich in allen Schlafphasen in vier Schablonen ("Karten") einteilen, die sich in den verschiedenen Schlafphasen und im Wachen ähneln. Damit lassen sich die hochdimensionalen Zeitreihen des EEGs auf Abfolgen von Karten reduzieren, die Informationen über die Informationsverarbeitung des Hirns enthalten könnten. Wir präsentieren die Methodik, Datenbasis und Fragestellung der entsprechenden Studie von Verena Brodbeck und Kollegen (Neuroimage, in press), in der auf diese Weise funktionelle Unterschiede und Gemeinsamkeiten verschiedener Schlafphasen untersucht wurden.

EEG Microstates of wakefulness and NREM sleep. Brodbeck V, Kuhn A., von Wegner F., Morzelewski A., Tagliazucchi E., Borisov S., Michel C.M., Laufs H. (Neuroimage, in press)

2. Clusteranalyse zur Bestimmung der Karten

Clusteranalyse ist ein multivariates statistisches Verfahren. Es identifiziert mehrere Gruppen einer Grundgesamtheit so, dass die Elemente innerhalb der Gruppen möglichst "ähnlich" und die Elemente verschiedener Gruppen möglichst "unähnlich" sind. Wir illustrieren verschiedene Ansätze der Clusteranalyse und diskutieren ihre Anwendbarkeit auf den vorliegenden Datensatz. Aufgrund der Größe des Datensatzes und des speziellen Ähnlichkeitsmaßes kommen hier nur wenige Verfahren in Frage. In der Clusterlösung, die wir durch die ersten beiden Hauptkomponenten illustrieren, spiegelt sich das Ähnlichkeitsmaß direkt wider. Klare Gruppenstrukturen, d.h. Trennungen zwischen den identifizierten Clustern, sind dagegen kaum zu erkennen. Die Güte der Clusterung wird verglichen mit simulierten Daten unterschiedlicher Clusterstärke.


    

3. Dimensionsreduktion im Tiefschlaf (Hauptkomponentenanalyse)

      Wir verwenden die Hauptkomponentenanalyse (Principle Component Analysis, PCA), um den hochdimensionalen Datensatz der 30 parallelen Zeitreihen im EEG auf möglichst wenige Dimensionen zu reduzieren und so die Darstellung zu erleichtern. Die PCA entspricht einer Hauptachsentransformation, deren neue Basisvektoren anhand der Daten so bestimmt sind, dass sie sukzessive die nächst größte Varianz im Datensatz abbilden können. Wegen hoher Korrelationen in den 30 Signalen können ca. 75% der Gesamtvarianz in nur drei Dimensionen erfasst werden, mit zunehmender Schlaftiefe sogar noch mehr. Einzelne Hauptkomponenten zeigen hohe Übereinstimmungen mit den per Clusteranalyse ermittelten Karten.



4. Ein universelles Koordinatensystem - Ähnlichkeitsmaße von Unterräumen

Eine Schwierigkeit bei der globalen Analyse der Microstates ist es, eine gemeinsame Datendarstellung über alle Versuchspersonen und Schlafstadien hinweg zu finden. Auch mit der PCA (s.o.) wurden pro Versuchsperson und Schlafstadium getrennte Hauptkomponenten gewonnen. Wir untersuchen die Ähnlichkeit der durch diese Hauptkomponenten aufgespannten Unterräume mit Hilfe zweier Distanzmaße. Ziel ist es, möglichst alle Daten in demselben Raum zu beschreiben. Während die zweite und dritte Hauptkomponente zwischen (W, N1) und tieferem Schlaf (N2, N3) vertauscht zu sein scheinen, spannen die ersten drei Hauptkomponenten zusammen einen Unterraum auf, der bei allen Versuchspersonen und Schlafstadien annähernd identisch ist.


     

5. Frequenzanalyse der EEG-Hauptkomponenten


Die Spektralanalyse zerlegt eine Zeitreihe in eine Überlagerung harmonischer Schwingungen verschiedener Frequenzen. Dies erlaubt beispielsweise, die Frequenzen mit der höchsten Amplitude zu extrahieren. Anstatt wie üblich die Signale der Elektroden zu analysieren, schlagen wir eine Zerlegung der Hauptkomponenten vor, um die Komplexität des Datensatzes weiter zu reduzieren. Mit den wichtigsten ca. 2% der Frequenzen lassen sich ca. 40% der Varianz darstellen (siehe Figur). Alle Hauptkomponenten zeigen ähnliche Spektraldarstellungen, wobei wie üblich im Tiefschlaf im allgemeinen niedrigere Frequenzen dominieren.




6. Stefan Albert - Die EEG-Werte im Schlaf als selbsterklärender Prozess (Autoregressive Prozesse)

Zur Modellung der oszillativen Schwankungen der EEG-Daten verwenden wir ein stationäres autoregressives Modell. Bei einem autoregressiven Prozess der Ordnung p wird der Wert zum Zeitpunkt t (bis auf einen additiven Fehler) aus der Vergangenheit des Prozesses zu den Zeitpunkten (t-1,...,t-p) vorhergesagt und ein direkter Bezug zwischen Modellparametern und Autokorrelation hergestellt. Wir diskutieren die Wahl der Anzahl der Modellparameter p und deren Zusammenhang mit der Oszillation des zugrundeliegenden Prozesses. So wird z.B. im Tiefschlaf durch die niedrige Grundfrequenz eine längere Vergangenheit zur Modellierung benötigt. Insgesamt suggeriert allerdings die hohe Variabilität der Parameter und geringe Passung des Modells, dass eine Erweiterung nötig wäre, die mindestens auftretende Nichtstationaritäten einbezieht.

7. Wieviel Gedächtnis ist nötig? (Markovketten höherer Ordnung)

Wir modellieren eine Kartenfolge als homogene Markovkette höherer Ordnung r=0,1,2,3,... Ähnlich wie beim autoregressiven Prozess, in dem aber das EEG-Signal modelliert wurde, müssen in diesem Modell r vorhergehende Zustände (Karten) im Gedächtnis behalten werden, um den aktuellen Zustand stochastisch zu modellieren. Mit Hilfe eines Likelihood-Quotiententests bestimmen wir die Ordnung r und damit die Anzahl der memorierten Zustände.
    Ein Problem dieser Analyse ist, dass die Anzahl Kartenkombinationen exponentiell mit der getesteten Ordnung r wächst. Dadurch können in kurzen Datenstücken nur kleine Ordnungen getestet werden, hier maximal r=3. Entsprechend werden bei Analyse der Einzelpersonen (kurze Datenstücke) die Nullhypothesen niedriger Ordnung eher beibehalten: im Schlaf etwa Ordnung 1, im Wachzustand findet sich bei ca. 50% der Versuchspersonen eine höhere Ordnung von mindestens 3. Eine gepoolte Analyse über alle Personen legt jedoch auch in allen Schlafzuständen eine Ordnung von mindestens drei nahe. Weitere Analysen für höhere Ordnungen müssten daher auf längeren Datenstücken basieren.



8. Welche Sprache sprechen Microstates? (Hidden Markov Modelle)

"Hidden Runs"     Wir modellieren die Zustandsabfolgen der vier festgestellten Karten als Hidden-Markov-Modell (HMM). Hierbei wird angenommen, dass der Prozess der "wahren" Microstates im Hintergrund abläuft und nur durch die Kartenabfolgen beobachtbar ist. Speziell nehmen wir an, dass mit geringer Wahrscheinlichkeit z.B. in Zustand A eine andere Karte als A beobachtbar ist. Darauf deutet die Anwesenheit von "hidden Runs" hin - so bezeichnen wir längere Intervalle mit hohem Anteil einer Karte, in denen aber nicht ausschließlich diese Karte emittiert wird (siehe Figur). Dieses Phänomen könnte eine Erklärung für das in Vortrag 7 beschriebene längere Gedächtnis der Markov Kette sein. Zusätzlich könnte es eine versteckte "Wortstruktur" der Microstates zugänglich machen, die auf Ebene der Kartenabfolgen nicht sichtbar ist. Mit Hilfe spezieller HMM-Algorithmen versuchen wir, den versteckten Prozess der Microstates zu detektieren und insbesondere für N3 ein geeignetes Modell für die Beschreibung der zugrunde liegenden Syntax zu identifizieren.

(Poster) - Ratenschätzung per Histogrammmethode

Wir betrachten eine Methode von Shimazaki und Shinomoto, um die Intensität der GFP-Maxima in der zeitlichen Abfolge zu schätzen. Sie basiert auf einer speziellen Wahl der Balkenbreite im Ratenhistogramm. Diese wird ermittelt durch das Minimum einer geschätzten Kostenfunktion, deren Güte unter bestimmten Modellannahmen mit der Anzahl Versuchsdurchgänge zunimmt. Bei den vorliegenden Daten betrachtet man jedoch nur einzelne Versuchsdurchgänge ohne Wiederholungen. So kann die optimale Balkenbreite nur ungenau geschätzt werden.

Shimazaki, Shinomoto (2007): A Method for Selecting the Bin Size of a Time Histogram. Neural Computation 19, 1503-27


Hauptseite Statistisches Praktikum

Impressum      Datenschutzerklärung