Bedingte wechselseitige Entropie als Kausalitätsmaß
Estimation of conditional mutual entropy as a measure of causality in bivariate EEG time series
Wissenschaftsdisziplinen
Informatik (80%); Mathematik (20%)
Keywords
-
Conditional Mutual Entropy Estimation,
Neural Network,
Causality,
Parameter Estimation,
Functional Approximation,
Learning Algorithm
Während der letzten 10 Jahre wurden Synchronisation Phänomene beobachtet in vielen natürlichen, physikalischen and biologischen, Systemen mit komplexer Struktur. Synchronisierung im strikten (identischen) Sinn lag selten vor, da die Koppelung zwischen den Systemen und Subsystemen meist zu schwach war, um solchen Synchronie zu sichern. Vom experimentellen Standpunkt aus ist es also wichtig, nicht nur die Stärke sondern auch die Richtung der Koppelungen sowie die kausale Beziehung zwischen bestehenden Subsystemen zu identifizieren (welches treibt welches). Ein gewisses Ausmaß von Synchronisierung ist notwendig um normale Nervenaktivität für ein Erkennungsvermögen zu erreichen, andererseits kann zu starke Synchronisierung zu pathologischen Phänomenen wie Epilepsie führen. Erkennung von Synchronisation oder transienten Veränderungen, welche zu größerer Synchronisation führen, und die Identifizierung von kausalen Beziehungenn zwischen treibenden (driving) und reagierenden (response) Komponenten zu entdecken, ist eine große Herausforderung. Sie kann bei der Diagnose von neurologischen Krankheiten, der Lokalisierung von epileptischen Fokussen und besonders bei der Vorhersage von epileptischen Anfällen helfen. Übliche lineare statistische Methoden haben auf diesem Gebiet nur geringen Erfolg. Als eine Alternative kann man Synchronisation und Kausalität in komplexen Systemen mit auf der Informationstheorie basierenden sogenannten groben Messungen untersuchen. Eine von diesen ist die bedingte wechselseitige Information CMI (Conditional Mutual Information), von deren genauen Schätzung der korrekten Bewertung von Synchronisationstärke und -kausalität abhängt. Entropieschätzungen von begrenzten Datenproben gehören zu den wichtigen Problemen in derzeitiger Informationstheorie und Statistik. Die statistischen Methoden für Entropieschätzungen sind entweder rechnerisch intensiv oder sehr grob. Die meisten Methoden begründen sich auf zahlreichen theoretischen Voraussetzungen, die für experimentale Daten schwer zu erfüllen sind. Um diese Nachteile zu bewältigen, schlagen wir einen Einsatz vor CMI Approximation auf der Basis von Neuronalen Netzen zu schätzen. Wir beabsichtigen die zutreffenden Ideen der anwendbarsten statistischen Methoden zu suchen und als ein parametrisches Optimierungsproblem zu untersuchen. Wir werden "feedforward neural networks" verwenden, die meist in der Approximation von Wahrscheinlichkeitsfunktionen benützt werden: RBF Netze, Mixture Models und modulare Netze. Diese drei Klassen von Neuronalen Netzen werden dann weiter im Zusammenhang mit CMI- Schätzungen und vom Gesichtspunkt ihrer architektonischen, räumlichen und rechnerischen Komplexität ausgewertet. Die Leistungen der vorgeschlagenen Methoden werden mit ausgewählten statistischen Schätzungsmethoden verglichen und an simulierten (coupled stochastic/deterministic linear/nonlinear systems) und real-life physiologischen Signalen getestet (multi-channel electroencephalogram). Die Ergebnisse dieses Projektes haben potentielle Konsequenzen für die Analyse einer grossen Auswahl von Signalen, die von verschiedenen komplexen Systemen ausgehen, wo Synchronisation und Kausalität beobachtet werden können, wie z.B. in der Neurologie, Kardiologie, Technik und Wirtschaft.