Audiovisuelles Sprach-"Entrainment" nach Ertaubung
Audiovisual speech entrainment in deafness
Wissenschaftsdisziplinen
Medizinisch-theoretische Wissenschaften, Pharmazie (100%)
Keywords
-
Cochlear Implant,
Lipreading,
Deafness,
Entrainment
Kommunikation erfordert von Zuhörern eine korrekte Verarbeitung des, von einem Sprecher stammenden, akustischen Signals. In vielen Alltagssituationen, wird das akustische Sprachsignal von Bewegungen des Sprechers begleitet bzw. vorausgegangen, die vom Zuhörer visuell verarbeitet werden. Insbesondere Lippenbewegungen haben sich für Sprachverständnis als förderlich herausgestellt, v.a. in ungünstigen Hörsituationen, z.B. beim Versuch ein Gespräch während einer Cocktail Party zu verfolgen. Desweiteren, verlassen sich Personen mit Hörverlust auf ihre Fähigkeit Lippen zu lesen. Diese Fähigkeit wurde auch bei Personen die spät in ihrer Entwicklung ertauben und ein sog. Cochlear Implant (CI) erhalten, eine vermittelnde Rolle für die Rehabilitation von Sprachwahrnehmung zugeschrieben. Dieses Gerät umgeht das beschädigte Innenohr, indem es direkt den Hörnerv stimuliert. Insbesondere für Erwachsene die an "normale" akustische Sinneseindrücke gewöhnt waren, erscheint das vom CI stammende Signal als sehr stark verzerrt und der Betroffene muss aktiv erlernen den ungewohnten akustischen Eindrücken Bedeutung zuzuschreiben. Leider sind die klinischen Ergebnisse getrübt durch extreme Variabilität, die in manchen Patienten zu Frustrationen und Ablehnung des Geräts führt. Angesichts der Kosten und Risiken des Verfahrens, stellt die Variabilität ein ernstes Problem dar. Eine gemeinsame Frage die alle vorangehende Punkte eint ist: Wie verbessert die Verarbeitung von Lippenbewegungen auditorische Verarbeitung? Wir werden neue Entwicklungen auch aus unserem Labor nutzen, um Hirnregionen zu identifizieren die sprachbezogene akustische und visuelle Information zuverlässig folgen, v.a. in einer Geschwindigkeit die ungefähr der Silbenfrequenz entspricht. Wir werden untersuchen wie unterschiedliche Ausprägungen von akustischem und visuellem Rauschen diese Fähigkeit des Gehirns beeinflusst. Basierend auf laufenden Studien, stellen wir die wichtige Vorhersage auf, dass visuelle Hirnregionen beteiligt sind akustischen Signalen zu folgen auch wenn diese in der Stimulation fehlen. Nach unserer Ansicht, ist dieser Vorgang relevant um das visuelle Signal (d.h. Lippenbewegungen) in ein "Format" zu überführen, das für das auditorische System nutzbar ist. Gemäß unserem Projekt, könnte diese Fähigkeit sehr variabel sein und teilweise die Fähigkeit einer Person Lippen zu lesen bedingen. Neben der Untersuchung normalhörender Personen, werden wir untersuchen wie diese Prozesse in ertaubten Personen, die in einem größeren Ausmaß sich auf die visuelle Verarbeitung von Lippenbewegungen verlassen, verändert sind. Schließlich, werden wir untersuchen wie diese neuronale "Tracking"-Fähigkeit sich nach CI verändert und wie frühe Erhebungen Rehabilitationserfolg vorhersagen. Dieses Projekt nutzt innovative Ansätze um relevante Erkenntnisse darüber zu liefern wie sprachbezogene Lippenbewegungen verarbeitet werden und wie auditorische Deprivation diese neuronalen Prozesse beeinflusst. Unsere Forschung schafft neue Impulse zu verstehen wie interindividuelle Unterschiede Lippenbewegungen (und die mit ihr verbundenen akustischen Signale) neuronal zu folgen CI Rehabilitationserfolg beeinflussen könnte, ein klinisches Thema von herausragender Bedeutung
Beim Sprechen wird nicht nur ein akustisches Signal produziert, sondern es auch begleitende sichtbare Lippenbewegungen. Diese Lippenbewegungen sind keine bedeutungslose Nebenerscheinung, sondern können die Hörverarbeitung in bedeutsamer Weise formen. Dies zeigt sich z.B. darin, dass Lippenbewegungen in lauten Umgebungen dem Sprachverständnis helfen. Dies könnte damit zusammenhängen, dass Gehirnwellen den Lippenbewegungen folgen. Gehirnaktivität folgt auch dem akustischen Sprachsignal, sogenanntes Sprachtracking, selbst wenn der akustische Teil der Sprache gar nicht präsentiert wurde, sondern lediglich die Lippenbewegungen ohne Ton. Dieses Projekt untersucht beide Mechanismen (Tracking der Lippen und des Sprachsignals) bezüglich einiger genereller Details (z.B. bei schwierigen Hörsituationen) und im Besonderen in Bezug auf Hörschwierigkeiten bis hin zu Taubheit. Dafür präsentierten wir in einer Studie verzerrtes Sprachmaterial und untersuchten das Sprachtracking über verschiedene Verzerrtheitsgrade (von gut verständlich bis komplett unverständlich). Bei normal hörenden Versuchspersonen zeigt sich, dass bei moderat verzerrter Sprache das Sprachtracking am stärksten ist, während es absinkt bei leicht zu verstehender und unverständlicher Sprache. Diese Sprachverzerrung ist eine Annäherung an das Hörerlebnis mit Cochlea-Implantat (CI), daher untersuchten wir in einer weiteren Studie Sprachtracking bei postlingual ertaubten Personen (also Ertaubung nach dem Spracherwerb), die ein CI erhalten haben. Erhebungen der Gehirnaktivität nach 6 und 12 Monaten nach Implantation, zeigen, dass sich die auditorische Sprachverarbeitung über die Monate vor allem im Ohr ohne CI normalisiert. Bei anderen Studien, bei denen die Versuchspersonen lediglich Lippenbewegungen zu sehen bekamen, zeigte sich bei jüngeren Versuchspersonen Sprachtracking, während in einer älteren Versuchspersonengruppe das Sprachtracking reduziert war, was mit steigenden Hörschwierigkeiten im Laufe des Alterns zusammenhängen könnte. Bei prelingual ertaubten Personen (also bei Ertaubung vor dem Spracherwerb) zeigt sich hingehen ein stärkeres Tracking der Lippenbewegungen. Da sich dieses Sprachtracking vor allem in Gehirnregionen zeigt, die für visuelle Verarbeitung zuständig sind, untersuchten wir zusätzlich, ob Sprachtracking mit sogenanntem Lippenlesen in Verbindung steht. Daher haben wir auch ein Test dazu in deutscher Sprache entwickelt, allerdings zeigten sich diesbezüglich keine Effekte. Dieses Projekt hat einige neue Forschungsrichtungen angeregt, welche sich auf die Rolle des visuellen Systems bei der Sprachverarbeitung fokussieren.
- Universität Salzburg - 100%
- Olivier Collignon, Université Catholique de Louvain - Belgien
- Joachim Gross, Universität Münster - Deutschland
- Jonas Obleser, Universität zu Lübeck - Deutschland
- Anne Keitel, University of Glasgow - Vereinigtes Königreich
Research Output
- 209 Zitationen
- 23 Publikationen
- 3 Datasets & Models
- 1 Weitere Förderungen
-
2019
Titel Differential attention-dependent adjustment of frequency, power and phase in primary sensory and frontoparietal areas DOI 10.1101/697615 Typ Preprint Autor Suess N Seiten 697615 Link Publikation -
2024
Titel Eye Movements in Silent Visual Speech track Unheard Acoustic Signals and Relate to Hearing Experience DOI 10.1101/2024.09.10.610824 Typ Preprint Autor Benz K Seiten 2024.09.10.610824 -
2019
Titel Degradation levels of continuous speech affect neural speech tracking and alpha power differently DOI 10.1101/615302 Typ Preprint Autor Hauswald A Seiten 615302 Link Publikation -
2025
Titel Neural Speech Tracking Contribution of Lip Movements Predicts Behavioral Deterioration When the Speaker's Mouth Is Occluded DOI 10.1523/eneuro.0368-24.2024 Typ Journal Article Autor Reisinger P Journal eNeuro Link Publikation -
2025
Titel Eye Movements in Silent Visual Speech Track Unheard Acoustic Signals and Relate to Hearing Experience DOI 10.1523/eneuro.0055-25.2025 Typ Journal Article Autor Benz K Journal eNeuro Link Publikation -
2022
Titel Masking of the mouth area impairs reconstruction of acoustic speech features and higher-level segmentational features in the presence of a distractor speaker DOI 10.1016/j.neuroimage.2022.119044 Typ Journal Article Autor Haider C Journal NeuroImage Seiten 119044 Link Publikation -
2022
Titel Cortical tracking of formant modulations derived from silently presented lip movements and its decline with age DOI 10.1093/cercor/bhab518 Typ Journal Article Autor Suess N Journal Cerebral Cortex Seiten 4818-4833 Link Publikation -
2023
Titel Neural speech tracking benefit of lip movements predicts behavioral deterioration when the speaker’s mouth is occluded DOI 10.1101/2023.04.17.536524 Typ Preprint Autor Reisinger P Seiten 2023.04.17.536524 Link Publikation -
2023
Titel Speech intelligibility changes the temporal evolution of neural speech tracking DOI 10.1016/j.neuroimage.2023.119894 Typ Journal Article Autor Chen Y Journal NeuroImage Seiten 119894 Link Publikation -
2022
Titel Speech intelligibility changes the temporal evolution of neural speech tracking DOI 10.1101/2022.06.26.497639 Typ Preprint Autor Chen Y Seiten 2022.06.26.497639 Link Publikation -
2021
Titel Occlusion of lip movements impairs reconstruction of acoustic speech features and higher-level segmentational features in the presence of a distractor speaker DOI 10.1101/2021.09.28.461909 Typ Preprint Autor Haider C Seiten 2021.09.28.461909 Link Publikation -
2021
Titel Sound-location specific alpha power modulation in the visual cortex in absence of visual input DOI 10.1101/2021.03.15.435371 Typ Preprint Autor Popov T Seiten 2021.03.15.435371 Link Publikation -
2021
Titel Neural speech tracking shifts from the syllabic to the modulation rate of speech as intelligibility decreases DOI 10.1101/2021.03.25.437033 Typ Preprint Autor Schmidt F Seiten 2021.03.25.437033 Link Publikation -
2021
Titel Differential attention-dependent adjustment of frequency, power and phase in primary sensory and frontoparietal areas DOI 10.1016/j.cortex.2021.01.008 Typ Journal Article Autor Suess N Journal Cortex Seiten 179-193 Link Publikation -
2023
Titel Brain areas associated with visual spatial attention display topographic organization during auditory spatial attention DOI 10.5167/uzh-233442 Typ Other Autor Gips Link Publikation -
2023
Titel Individual prediction tendencies do not generalise across modalities DOI 10.1101/2023.02.02.526758 Typ Preprint Autor Schubert J -
2022
Titel Brain areas associated with visual spatial attention display topographic organization during auditory spatial attention DOI 10.1093/cercor/bhac285 Typ Journal Article Autor Popov T Journal Cerebral Cortex Seiten 3478-3489 Link Publikation -
2022
Titel Influence of linguistic properties and hearing impairment on visual speech perception skills in the German language DOI 10.1371/journal.pone.0275585 Typ Journal Article Autor Suess N Journal PLoS ONE Link Publikation -
2021
Titel Sound-location specific alpha power modulation in the visual cortex in absence of visual input DOI 10.5167/uzh-233443 Typ Other Autor Langer Link Publikation -
2021
Titel Cortical tracking of unheard formant modulations derived from silently presented lip movements and its decline with age DOI 10.1101/2021.04.13.439628 Typ Preprint Autor Suess N Seiten 2021.04.13.439628 Link Publikation -
2020
Titel Degradation levels of continuous speech affect neural speech tracking and alpha power differently DOI 10.1111/ejn.14912 Typ Journal Article Autor Hauswald A Journal European Journal of Neuroscience Seiten 3288-3302 Link Publikation -
2023
Titel Individual prediction tendencies do not generalize across modalities DOI 10.1111/psyp.14435 Typ Journal Article Autor Schubert J Journal Psychophysiology Link Publikation -
2023
Titel Neural speech tracking shifts from the syllabic to the modulation rate of speech as intelligibility decreases DOI 10.1111/psyp.14362 Typ Journal Article Autor Schmidt F Journal Psychophysiology Link Publikation
-
2021
Link
Titel MEG data during silently presented lip movements and lip reading skills in participant group with a broad age-range Typ Database/Collection of data Öffentlich zugänglich Link Link -
2021
Link
Titel Influence of linguistic properties and hearing impairment on visual speech perception skills in the German language Typ Database/Collection of data Öffentlich zugänglich Link Link -
2020
Link
Titel MEG data during listening to degraded speech Typ Database/Collection of data Öffentlich zugänglich Link Link
-
2020
Titel Impact of face masks on speech comprehension Typ Other Förderbeginn 2020 Geldgeber Austrian Science Fund (FWF)