Computerbasierte Interpretationsstilanalyse aus Audiodaten
Computational Style Analysis from Audio Recordings
Wissenschaftsdisziplinen
Informatik (80%); Kunstwissenschaften (20%)
Keywords
-
Artificial Intelligence,
Expressive Musik Performance,
Machine Learning,
Intelligent Musik Processing,
Musicology,
Music Performance Research
Ziel des Projekt ist es, das faszinierende, aber schwer fassbare Phänomen des individuellen künstlerischen Musik- Interpretationsstils mit quantitativen Computermethoden zu erforschen. Konkret sollen die Interpretationen berühmter Interpreten (Konzertpianisten) auf musikalisch signifikante Muster und Regelhaftigkeiten in Bezug auf expressives Timing, Dynamik, Artikulation etc. untersucht werden, mit denen die Künstler ihren individuellen Stil und ihr künstlerisches Verständnis der Musik ausdrücken. Ausgangspunkt ist eine weltweit beispiellose Sammlung von empirischen Messdaten: Interpretationen der nahezu kompletten Werke für Soloklavier von Frederic Chopin, aufgenommen von einem Weltklassepianisten (Nikita Magaloff) auf dem Bösendorfer-Computerflügel SE290. Diese riesige Datenmenge, die Hunderttausende gespielte Noten umfasst, enthält präzise Information darüber, wie jede einzelne Note gespielt wurde, einschließlich der genauen Anschlagszeit, Dauer, und Anschlagstärke. Neueste Methoden der intelligenten Datenanalyse und der automatischen Mustererkennung werden auf diese Daten angewandt, um quantitative und prädiktive Modelle verschiedener Aspekte der Musikinterpretation - z.B. expressive Tempogestaltung, Dynamik, Artikulation usw. - zu gewinnen. Dies wird ganz neue Einblicke in die Interpretationsstrategien ermöglichen, die ein Weltklassepianist über eine großen Korpus von Musik hinweg einsetzt. Zusätzlich werden diese präzise vermessenen Aufnahmen mittels neuer Audio-Matching-Methoden mit Tonaufnahmen vieler anderer berühmter Klaviervirtuosen Punkt für Punkt abgeglichen; dadurch wird es zum ersten Mal möglich sein, tatsächlich quantitative Aussagen über individuellen künstlerischen Interpretationsstil zu machen. All dies erfordert intensive Grundlagenforschung zur Entwicklung neuer, effektiver und effizienter Computermethoden für die intelligente Audioanalyse (z.B. das Extrahieren expressiver Parameter aus Audioaufnahmen, oder die automatische und präzise paarweise Ausrichtung verschiedener Tonaufnahmen) und für die intelligente Datenanalyse und Modellierung (z.B. Entdeckung sequenzieller Muster, hierarchische probabilistische Modelle, etc.). Die resultierenden Methoden werden sehr allgemein und universell anwendbar sein, auch über das konkrete Projekt hinaus. Das Projekt will also neue Beiträge liefern sowohl zur modernen empirischen Musikwissenschaft - durch die Entdeckung und präzise Charakterisierung detaillierter Aspekte ausdrucksvollen Interpretationsstils - als auch zur Forschung im Bereich Künstliche Intelligenz und intelligente Datenanalyse - durch neue Methoden und Algorithmen für automatische Musterendeckung und maschinelles Lernen. Darüberhinaus wird es auch zur internationalen Forschung beitragen, indem Daten und Methoden anderen Forschern zur Verfügung gestellt werden. Das Projekt ist die logische Weiterführung und Erweiterung von Forschungen, die im Vorgängerprojekt "Artificial Intelligence Models of Musical Expression" (START-Preis 1998) begonnen wurden, und die aufzeigten, dass ausdrucksvolle Musikinterpretation tatsächlich für Computermodelle und Computeranalyse zugänglich ist. Das neue Forschungsprojekt geht über diese Vorarbeiten hinaus, indem es sich auf eine besonders schwer fassbare Frage konzentriert, die nicht nur für die Musikwissenschaft und die Kunstwelt, sondern auch für ein breites Publikum von großem Interesse ist, nämlich die Kunst großer Interpreten, und was diese großen Künstler einzigartig macht.
Ziel des Projekts war es, das faszinierende, aber schwer fassbare Phänomen der ausdrucksvollen Musikinterpretation mittels Computermethoden zu untersuchen. Es sollte quantitativ beschrieben werden, wie große InterpretInnen (klassische PianistInnen) Musikstücke mittels ausdrucksvoller Dynamik, Timing, Artikulation etc. formen und ihren persönlichen Stil damit ausdrücken. Ausgangspunkt war eine weltweit einzigartige Sammlung von empirischen Messdaten: Aufnahmen des kompletten Werks für Solopiano von Frederic Chopin, eingespielt von einem Weltklassepianisten (Nikita Magaloff) auf dem Computerflügel SE290 von Bösendorfer. Diese riesige Datenmenge - präzise Messungen von hunderttausenden gespielten Noten - dokumentiert genauestens, wie jede einzelne Note gespielt wurde (Anschlagszeit, Dauer, Anschlagsintensität etc.). In langwieriger Arbeit wurden diese Daten für die Computeranalyse aufbereitet: die Notentexte von Chopins gesamtem Klavierwerk wurden in computer-lesbarer Form codiert, jede einzelne gespielte Note zur entsprechenden notierten Note in Beziehung gesetzt, sämtliche Fehler des Pianisten (an die 30.000!) identifiziert und klassifiziert, etc. Neue Computermethoden mussten für diese Aufgabe entwickelt werden. Für die Analyse einer derartigen Menge von Messdaten wurden neue animierte Daten-Visualisierungsmethoden entwickelt (in Anlehnung an sogenannte Phasenraum-Diagramme aus der Physik). Verschiedenste Aspekte von Magaloffs Interpretationsstil und Technik wurden studiert und quantifiziert - z.B. Art und Kontext seiner Spielfehler, seine spezifische Art, Asynchronizitäten zwischen den beiden Händen für bestimmte musikalische Effekte zu nutzen usw. Hypothesen aus der neueren Musikwissenschaft wurden empirisch anhand der Daten überprüft - z.B. Theorien, die expressives Timing mit Modellen der menschlichen Bewegung in Bezug setzen, sowie Theorien, wie Pianisten mit technischen Altersproblemen umgehen (Magaloff war zum Zeitpunkt der Aufnahmen 77 Jahre alt). Algorithmen des maschinellen Lernens wurden eingesetzt, um vorhersagbare Muster in Magaloffs Spiel zu entdecken und zu lernen - allgemeine Strategien, wie er seine Chopin-Interpretationen musikalisch und expressiv klingen lässt. Ein Resultat daraus ist ein Computermodell des ausdrucksvollen Klavierspiels (namens YQX), das vorhersagt, wie ein/e PianistIn eine musikalische Passage am wahrscheinlichsten spielen wird (bzgl. Tempo, Timing, Dynamik). Wir ließen dieses Computermodell an einem internationalen wissenschaftlichen "Computer- Klavierinterpretationswettbewerb" teilnehmen (RENCON 2008, Sapporo, Japan), wo es zwei vollkommen neue, unbekannte Klavierstücke auf einem Computerflügel spielen musste; YQX gewann alle drei Hauptpreise mit seinen Interpretationen. Die wichtigsten Projektergebnisse lassen sich also wie folgt zusammenfassen: (1) der "Magaloff- Korpus", eine hinsichtlich Größe, Komplexität und künstlerischem Niveau weltweit einzigartige Ressource von Interpretations-Messdaten; (2) ein Computermodell (YQX) der Klavierinterpretation, das musikalisch relevante Prinzipien zu beschreiben scheint; (3) neue Einsichten für die Musikwissenschaft (in internationalen musikwissenschaftlichen Journals publiziert); (4) neue Computermethoden für Interpretations-Visualisierung, - Analyse und -Vorhersage; (5) (oben nicht erwähnt) Computeralgorithmen, die ausdrucksvolle Musikdarbietungen in Echtzeit mitverfolgen und mit anderen Ereignissen synchronisieren können. Und nicht zuletzt kann auch der Wittgenstein-Preis, der dem Projektleiter Gerhard Widmer 2009 verliehen wurde, als ein Resultat der langjährigen Förderung dieser Art von Forschung durch den FWF gesehen werden.
- Universität Linz - 100%
- Caroline Palmer, McGill University - Kanada
- Werner Goebel, McGill University - Kanada
- Nicholas Cook, University of Cambridge - Vereinigtes Königreich
- John Shawe-Taylor, University of Southampton - Vereinigtes Königreich
Research Output
- 110 Zitationen
- 5 Publikationen
-
2009
Titel Phase-plane Representation and Visualization of Gestural Structure in Expressive Timing DOI 10.1080/09298210903171160 Typ Journal Article Autor Grachten M Journal Journal of New Music Research Seiten 183-195 -
2008
Titel Computational models of music perception and cognition I: The perceptual and cognitive processing chain DOI 10.1016/j.plrev.2008.03.004 Typ Journal Article Autor Purwins H Journal Physics of Life Reviews Seiten 151-168 Link Publikation -
2008
Titel Computational models of music perception and cognition II: Domain-specific music processing DOI 10.1016/j.plrev.2008.03.005 Typ Journal Article Autor Purwins H Journal Physics of Life Reviews Seiten 169-182 -
2009
Titel YQX Plays Chopin DOI 10.1609/aimag.v30i3.2249 Typ Journal Article Autor Widmer G Journal AI Magazine Seiten 35-48 -
2010
Titel The Magaloff Project: An Interim Report DOI 10.1080/09298215.2010.523469 Typ Journal Article Autor Flossmann S Journal Journal of New Music Research Seiten 363-377 Link Publikation