reden.arpa-docs.ch
Rektorats Reden © Prof. Schwinges

Sprache und Musik — Sinnesphysiologische Aspekte menschlicher Kommunikation

Rektoratsrede gehalten an der Jahresfeier der Universität Basel

am 25. November 1988
Verlag Helbing &Lichtenhahn • Basel 1988

CIP-Titelaufnahme der Deutschen Bibliothek
Pfaltz, Carl R.:
Sprache und Musik —sinnesphysiologische Aspekte
menschlicher Kommunikation: Rektoratsrede gehalten an d.
Jahresfeier d. Univ. Basel am 25. November 1985 /Carl Rudolf
Pfaltz. — Basel: Helbing u. Lichtenhahn, 1988
(Basler Universitätsreden; H. 82)
ISBN 3-7190-1046-5
NE: Universität <Basel>: Basler Universitätsreden
ISBN 3-7190-1046-5
Bestellnummer 21 01046
© 1988 by Helbing &Lichtenhahn Verlag AG, Basel

Die Tradition erheischt es, dass an der Jahresfeier unserer Universität die Rede des Rektors umrahmt wird von Werken bedeutender Komponisten: die Sprache als Übermittlerin einer Botschaft zentral in den zeitlichen Raum gestellt — die Musik ein feierlicher Rahmen; doch sie ist mehr als das, denn sie schafft die festliche Stimmung, in der sich das akademische Ritual vollzieht. Sprache und Musik —beides, physikalisch betrachtet, Schall-, d.h. mechanische Energie, welche ein eigens für deren Empfang geschaffenes Sinnesorgan — das Ohr — in Erregung versetzt und zentral — in unseren Hörzentren — eine differenzierte Wahrnehmung sowie ein seelisches Erlebnis auslöst.

Während die Sprache sich aus Lauten bzw. akustischen Signalen zusammensetzt, die einen bestimmten Inhalt und somit informativen Charakter besitzen, setzt sich Musik in erster Linie aus Klängen zusammen, die Ausdruck künstlerischer Kreativität sind und auf den folgenden, in gegenseitiger funktioneller Abhängigkeit stehenden Elementen beruhen: Melodie —Harmonie —Dynamik -Rhythmus.

Sprachlaute und Klänge lassen sich in physikalisch messbare Grössen zerlegen: Tonhöhe — Lautstärke — zeitliche Folge. Sprache ist der wichtigste Bestandteil unserer kommunikativen Tätigkeit — «Musik ist tönend bewegte Form...», wie dies Eduard Hanslick formuliert hat. Jedoch Musik ist zugleich auch «die

verborgene Rechenkunst des Gemütes, das sich seines Zählens nicht bewusst ist...». Diese Definition des Philosophen Leibniz beinhaltet gewissermassen, dass «Musik Kunst in der Zeit» ist.

Jedes Lebewesen ist in eine Welt sich ständig wandelnder Bedingungen gestellt. Mit dieser Umwelt tritt es durch seine Sinnesorgane in Kontakt. Die einzelnen Sinnessystems wie Geruchs-, Geschmacks- oder Gesichtssinn erschliessen ihm jedoch nur einen winzigen Ausschnitt seiner unendlich vielgestaltigen Umgebung. Jedes Lebewesen besitzt seinen artspezifischen Wahrnehmungsbereich und schafft sich damit sein artspezifisches Bild der Welt, in der es lebt. Der Mensch ist gleichermassen auf sein visuelles und auf sein auditives Wahrnehmungssystem eingestellt —je nach Veranlagung wird im Laufe seiner Entwicklung das eine oder andere Sinnessystem überwiegen: Wir kennen den vorwiegend visuell orientierten Typus, der alles primär mit den Augen erfasst; ihm gegenüber steht der auditive Typus, dessen Gedankengänge und Vorstellungen massgebend durch das Gehör beeinflusst werden. Zwischenmenschliche Beziehungen sind ohne die Möglichkeit einer verbal-auditiven Kommunikation schlechthin undenkbar. Sprachliche Kommunikation erfordert daher ein intaktes auditives System, welches das äussere, Mittel- und Innenohr, den Hörnerven und die übergeordneten Hörzentren im Zentralnervensystem umfasst. Sprachliche Kommunikation bedeutet Austausch sprachlicher Inhalte, welche verschlüsselt als akustische Signale zuerst im inneren Ohr analysiert, dort in elektrische Signale umgewandelt werden und über den Hörnerven in die Hörzentren gelangen, wo sie entschlüsselt werden, d.h. als Wahrnehmung zum Bewusstsein kommen.

Nicht nur der Inhalt einer sprachlichen Information löst beim Empfänger eine Reaktion aus, sondern auch deren «akustische Verpackung». Diese wird durch den Sender, d.h. die Stimme des Sprechenden bestimmt. Es ist das sog. «Timbre», d.h. die Klangfarbe der Stimme, welche beim Empfänger unbewusst Gefühlsregungen auslöst; positive im Sinne einer sympathischen Einstellung

gegenüber dem Sprechenden, negative im Sinne einer antipathischen, ablehnenden Reaktion.

In gleicher Weise reagiert der Mensch auf Umweltgeräusche, die er je nach Art ihrer akustischen Verpackung als angenehm, als lästig oder als alarmierend empfindet. In diesem Zusammenhang muss darauf hingewiesen werden, dass das Ohr entwicklungsgeschichtlich ein Alarmorgan ist, dessen Funktion einen wesentlichen Beitrag zur Erhaltung der Art geleistet hat.

Was für Sprache und Umweltgeräusche gilt, besitzt auch Gültigkeit für die Musik: «die Kunst, durch Töne Empfindungen auszudrücken» (H. Chr. Koch) oder nach Rousseau «l'art de combiner les sons d'une manière agréable à l'oreille...».

Helmholtz hat darauf hingewiesen, dass Musik den verschiedensten menschlichen Gemütszuständen Ausdruck zu verleihen vermag und dass die melodische Bewegung der Töne dem Hörer, der diesen «Bewegungen aufmerksam folgt, ein vollkommenes und eindrückliches Bild von der Stimmung einer anderen Seele...» zu vermitteln vermag. Übrigens hat schon Aristoteles die Wirkung der Musik ganz ähnlich aufgefasst.

Umweltsgeräusche, Sprache und Musik beinhalten, physikalisch betrachtet, nichts anderes als mechanische Energie, d.h. Schall. Es handelt sich um Molekularschwingungen eines elastischen Stoffes, die sich wellenförmig ausbreiten im festen, flüssigen oder gasförmigen Medium. Diese Schallwellen bilden den sog. adäquaten Sinnesreiz für das periphere Hörorgan, dessen Aufgabe es ist, die Schallwellen in ihrer Eigenschaft als akustische Signale zu analysieren. Diese werden im Innenohr in bioelektrische Signale umgewandelt und kodiert, d.h. verschlüsselt, über den Hörnerven den Hörzentren im Gehirn zugeleitet. Dort werden Sie dekodiert, d.h. entschlüsselt und dem Individuum als auditive Wahrnehmung bewusst. Es handelt sich somit um eine eigentliche akustische Datenverarbeitung, welche auf den Gesetzmässigkeiten der Kybernetik beruht. So ist —kurz zusammengefasst —alles, was uns

als sinnliche Wahrnehmung bewusst wird, in einem Muster räumlicher Verteilung und zeitlicher Aufeinanderfolge von Nervenimpulsen in verschiedenen Bahnen und Stationen des Gehirns verschlüsselt (Feldmann, 1978). Wie aber lassen sich die mannigfaltigen Empfindungen erklären, die in uns unter der Einwirkung von Umweltsgeräuschen, beim Anhören von Musik oder bei einem Gespräch ausgelöst werden? Ich möchte im Folgenden versuchen, zwei Fragen aus diesem komplexen Problemkreis herauszugreifen und diese auf Grund der heute zur Verfügung stehenden Erkenntnisse auf sinnesphysiologischem Gebiet —soweit dies möglich ist — zu beantworten.

1. Welche Rolle spielt das Gehör in den Beziehungen des Menschen zu seiner Umwelt?

2. Welche Beziehungen bestehen zwischen Gehör und musikalischem Empfinden?

1. Gehör und Umwelt

Die Auseinandersetzung mit der Umwelt kann sich grundsätzlich auf verschiedenen Sinnesebenen vollziehen und verläuft bei den meisten Lebewesen mehrspurig. Für den Menschen spielt das auditive Sinnessystem im Hinblick auf die Aufrechterhaltung normaler Umweltbeziehungen in mehrfacher Hinsicht eine Rolle, an erster Stelle steht jedoch die interindividuelle Kommunikation mittels Sprache.

Das Gehör erfüllt jedoch auch die Aufgabe eines Alarmorgans: Unerwartete Schallreize rufen eine Schreckreaktion hervor. Diese erzwingt eine sofortige Aufmerksamkeitszuwendung zu dem überraschenden Ereignis. Auch beim Menschen ist die Schreckreaktion auf Schallreize wirksam. Eine differenzierte Reaktion auf unerwartete Schallreize setzt akustisches Unterscheidungsvermögen und Lernfähigkeit voraus. Nach der Schreckreaktion, die zu einer Adrenalinausschüttung führt und den Organismus dadurch

in volle Aktionsbereitschaft versetzt, muss das betreffende Individuum eine qualitative Beurteilung des Geräusches vornehmen. In den primären Hörzentren, die im Stammhirn lokalisiert sind, finden sich Speicher für komplexe akustische Signale. Durch einen Lernprozess sind letztere als harmlos oder als gefahrenträchtig eingestuft bzw. etikettiert worden und mit diesen gespeicherten akustischen Daten werden neu eintreffende akustisch evozierte Signale ständig verglichen (Comparatorfunktion). Die Erfahrung lehrt mit der Zeit das Individuum jedoch auch eine differenzierte Beurteilung und Erkennung eines unerwarteten Schallreizes: z.B. das Knarren einer Türe, das Rauschen des Wasserhahnens, das Geräusch eines Fahrzeuges... usf. Diese Differenzierungsvorgänge spielen sich teilweise unbewusst, selbst im Schlaf ab, denn das Gehör als Sinnesorgan schläft nicht. Wir sprechen hier von einer selektiven Aufmerksamkeit oder selektiven Perzeption (Picton). Es handelt sich dabei um einen Informations-Verarbeitungsprozess, der sich hypothetisch folgendermassen abspielt: Initiale Analyse des sensorischen, d.h. in unserem Falle akustischen Signals, gefolgt von einer kurzzeitigen Speicherung in einem akustischen Datenzentrum — nachfolgende perzeptuelle und semantische Analyse des Signals, die zur Erkennung eines spezifischen Objektes oder Vorganges führt —hierauf Aktivierung des nervösen Entscheidungssystems, welches die selektive Reizantwort auf einen bestimmten akustischen Stimulus auslöst.

Diese selektiven Perzeptionsmechanismen funktionieren auch im Unterbewusstsein bzw. im Schlaf. Dadurch wird es verständlich, dass sich eine schlafende Mutter nicht vom Strassenlärm stören lässt, jedoch vom leisen Weinen ihres Kindes sofort erwacht. Sie ist auf dieses akustische Signal affektiv konditioniert und daher wird dieses auch unbewusst selektiv perzipiert. Wir werden später sehen, welche wichtige Rolle die emotionalen Verhaltensmuster in der Musik spielen.

Das Richtungshören steht im Dienst der räumlichen Orientierung: Da wir über zwei Gehörorgane verfügen, die sich, durch den

Schädel getrennt, im Schallschatten der Gegenseite befinden, wird der Schall, der z.B. von rechts kommt, zuerst das rechte Ohr erreichen und dann mit einer minimalen Zeitverzögerung das linke Ohr. Gleichzeitig wird die Schallintensität auf dem der Schallquelle zugewandten Ohr grösser sein als auf dem abgewandten. Zuletzt wird sich auch das Schallfrequenzspektrum auf dem zugewandten Ohr von demjenigen auf der abgewandten Seite unterscheiden; denn der Schallschatten des Schädels und der Ohrmuscheln wirkt sich auf die einzelnen Frequenzanteile verschieden aus (Green und Yost). Aus diesen geringfügigen Unterschieden des beidohrig aufgenommenen Schalls erkennt das Individuum, aus welcher Richtung der Schall eingetroffen ist. Es handelt sich dabei in erster Linie um eine Leistung der sekundären Hörzentren in der sog. Hörrinde des Schläfenlappens. Diese umfasst neben der Schallortung im Raum auch die selektive Perzeption bzw. den Vergleich der betreffenden akustischen Signale in den zugehörigen Datenspeicherzentren mit Kurzzeitgedächtnis (Neff), ferner die Unterscheidung einzelner Sprachkomponenten.

Jede aufgenommene Schallwelle wird durch die Fähigkeit des zweiohrigen Hörens einem Raumwinkel zugeordnet und damit in das dreidimensionale Bild der Umwelt miteinbezogen. Wesentlich für die räumliche akustische Orientierung ist die Voraussetzung, dass sich das betreffende Individuum im Schnittpunkt aller auftreffenden Schallwellen befindet. Durch diese stereophone Durchdringung der Umwelt entsteht um die Person eine glockenförmige akustische Zone, die fortwährend durch selektive Perzeptionsmechanismen überwacht wird. Die von den Augen visuell kontrollierte Umweltzone erscheint dagegen ganz anders: Sie bildet einen kegelförmigen Ausschnitt, wobei sich der Beschauer an der Spitze des Kegels ausserhalb des kontrollierten Bereiches befindet (Feldmann). Raummässig übertrifft somit das auditive System das Visuelle um ein Vielfaches in seiner Funktion als Umweltüberwacher.

Gehör und kommunikative Funktion

Die wichtigste Umweltbeziehung mittels akustischer Signale stellt die interindividuelle Kommunikation dar, welche in der menschlichen Sprache ihre höchste Stufe erreicht. Ziel derselben ist der Austausch von Informationen. Grundsätzlich trägt jeder Sinnesbereich die Möglichkeit des Informationsaustausches in sich. In der Entwicklung der Menschheit ist aber vornehmlich das lautsprachliche Kommunikationssystem zum universellen Kommunikationsinstrument ausgebaut worden. Es stellt sich hier die berechtigte Frage, wieso nicht das visuelle Sinnessystem diese Rolle übernommen hat. Die Leistungen des Auges, mit den Begriffen der Informatik ausgedrückt, betragen das Hundertfache derjenigen des Ohres: Die visuelle Informationskapazität von 3.10 6 bit/s steht einer auditiven Informationskapazität von «nur» 3,5.10 4 bit/s gegenüber. Die Informationskapazität ist jedoch im Falle der interindividuellen Kommunikation nicht entscheidend. Massgebend ist die Grösse des lautsprachlichen Informationsflusses, welcher von der Leistungsfähigkeit des Sprechapparates abhängt. Dieser produziert unterscheidbare Lautzeichen in grosser Zahl und rascher Folge (zirka 5/Zeiteinheit), was einen sehr grossen Informationsfluss ermöglicht. Die Information wird getragen von der akustischen Energie, in deren Verteilungsmuster sie enthalten ist.

Gestik und Mimik sind nicht in der Lage, ebenso viele deutlich voneinander unterscheidbare Kommunikationssymbole pro Zeiteinheit zu vermitteln wie die Lautsprache. Dadurch würde der Informationsfluss erheblich verlangsamt.

Das Gehör ist das Steuerorgan unserer Sprachbildung. Es kontrolliert und reguliert die Intensität und Modulation der Sprachlaute, die Artikulation, die zeitliche Ordnung des Sprachablaufes. Das Gehör ist sozusagen der Sensor in einem vielfach vernetzten Regelsystem. Isolierung von der sprachlichen Umwelt ist daher in der Regel Folge einer Hörstörung, denn wo das Gehör fehlt, fehlt

die Lautsprache als Umweltreiz und die fortwährende, z.T. unbewusst ablaufende Kontrolle der eigenen Sprache. Folge ist eine fortschreitende Verarmung des sprachlichen Ausdrucksvermögens.

Die Entwicklung des «Cochlear Implant», einer elektronischen Hörhilfe, welche beim Ertaubten als Ersatz des ausgefallenen Innenohres in unmittelbarem Kontakt mit dem Hörnerven im Schädelknochen implantiert wird, ermöglicht nicht nur eine auditive, sondern auch eine ebenso eindrückliche sprachliche Rehabilitation des Gehörlosen. Auf Grund eigener Beobachtungen haben wir feststellen können, dass nicht nur die Artikulation und Modulation der Sprache ganz erheblich verbessert wird, sondern auch ihr syntaktischer Aufbau.

2. Gehör und musikalisches Empfinden

«Musik als Ganzes gesehen ist eine äusserst komplexe Erscheinung. Dies zeigt sich schon allein daran, dass es bis heute noch nicht gelungen ist, und wohl auch nie gelingen wird, eine allgemein gültige und umfassende Definition dessen zu geben, was Musik letztlich ist. Jede Definition der Musik ist vom Denken und von der Weltanschauung derjenigen Zeit abhängig, in welcher sie formuliert worden ist» (K. v. Fischer). H. Helmholtz hat als erster die Phänomene musikalischen Hörens oder Empfindens naturwissenschaftlich-experimentell zu ergründen versucht. In seiner 1862 erschienenen «Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik» hat er den Versuch unternommen, die Grenzgebiete von Wissenschaften zu vereinigen, welche bisher getrennt nebeneinander existiert hatten, obschon offensichtlich durch zahlreiche natürliche Beziehungen miteinander verbunden.

Die wissenschaftliche Beschäftigung mit der Musik lässt sich bis ins Altertum verfolgen. So hat Pythagoras vor rund 2500

Jahren auf Grund exakter physikalischer und psychoakustischer Experimente Gesetzmässigkeiten aufgedeckt, die auch heute noch in der Akustik gültig sind. Er hat festgestellt, dass zwischen der Länge einer gespannten Saite und dem Ton, den sie beim Anzupfen erklingen lässt, eine einfache Beziehung besteht. Wird die Saite auf die Hälfte ihrer ursprünglichen Länge verkürzt, so gibt sie einen Ton, der genau eine Oktave höher liegt. Wird sie um ein Drittel verkürzt, so ergibt sie einen Ton, der um eine Quinte höher liegt als der Ton der vollständigen Saitenlänge. Das Erstaunliche an dieser Entdeckung ist, dass die beiden Töne, die physikalisch-mathematisch miteinander durch ein einfaches Zahlenverhältnis verknüpft sind, auch dem Gehör subjektiv als eng verwandt erscheinen und sich gegenüber anderen möglichen Tonbeziehungen unverwechselbar auszeichnen. Pythagoras war es auf diese Weise gelungen, eine Sinneswahrnehmung auf eine einfache physikalisch-mathematische Beziehung zurückzuführen.

Aus diesen beiden Tonschritten mit den zahlenmässigen Beziehungen 1:2 und 2:3 haben später die Griechen ihre 7stufigen Tonleitern aufgebaut. Hierin bildeten rechnerisch nur die Oktave, die Quinte und die Quarte einfache Zahlenverhältnisse. Da Pythagoras glaubte, die musikalischen Intervalle würden rein geistig an ihrem Zahlenverhältnis erkannt und weniger durch das Gehör, sah er nur diese drei Tonstufen als konsonant an; alle anderen betrachtete er als dissonant. Dies widersprach jedoch der subjektiven Wahrnehmung des Gehörs, die auch andere Intervalle, z.B. die Terz, als wohlklingend empfand. Aristoxenos, ein Schüler des Aristoteles, äusserte daher 200 Jahre nach Pythagoras Zweifel an der Richtigkeit einer ausschliesslich mathematischen Ableitung der Musik. Er erhob gegenüber der rein mathematischen Musiktheorie den Einwand, dass Gehör und Klangerfahrung eine wesentlich wichtigere Rolle spielten, als von Pythagoras angenommen. Dieser Streit —primär mathematisch strukturierte Musik als Ausdruck eines abstrakt-theoretischen Formwillens gegenüber primär gefühlsmässig komponierter Musik auf der Grundlage

musikalisch-psychologischer Klangerfahrung — hält bis heute an und ist angesichts der Zwölftonmusik und der elektronisch konstruierten Schallereignisse besonders aktuell (Feldmann). Diese grundlegenden Auseinandersetzungen haben zur Entwicklung und Entstehung zweier selbständiger Forschungsrichtungen auf dem Gebiet der Musikwissenschaften geführt: Tonpsychologie oder Psychoakustik und Musikpsychologie.

Die Tonpsychologie bzw. Psychoakustik ist sachlich und historisch in der zweiten Hälfte des vergangenen Jahrhunderts unmittelbar aus der Physiologie des Hörens hervorgegangen. Sie ist im wesentlichen mit der Person des deutschen Philosophen und Psychologen Carl Stumpf verbunden und befasst sich mit den folgenden Aufgaben: Untersuchung aller Vorgänge bei der Aufnahme des Tones und Analyse der dabei entstehenden Empfindungen bzw. Sinneseindrücke; Untersuchung der Tonqualitäten, der unmittelbaren Reaktion auf akustische Reize und des Tongedächtnisses sowie musikästhetischer Probleme. Der Tonpsychologie oder Psychoakustik steht die Musikpsychologie gegenüber. Während erstere fast ausschliesslich auf die sinnesphysiologischen Phänomene ausgerichtet ist, welche durch Musik ausgelöst werden, und weniger auf die Musik selbst, behandelt letztere das musikalische Erlebnis, welches nicht als eine einfache Reaktion auf akustische Reize gedeutet werden kann. Das musikalische Erlebnis ist eng verbunden mit dem Hörbewusstsein. Erneste Ansermet versteht darunter «die Tätigkeit des Bewusstseins ... den Schall wahrzunehmen ...» Diese Tätigkeit erschöpft sich jedoch nicht darin, Klänge nach Tonhöhe, Intensität und Klangfarbe zu analysieren, sondern sie umfasst alle die geistig-seelischen Vorgänge, welche der Wahrnehmungsakt auslöst. Es sind reflektierende Vorgänge, durch die das Bewusstsein deutet, was das rein auditive Bewusstsein tatsächlich wahrgenommen hat. Ansermet spricht daher von einer «sinnlich wahrnehmbaren Reflexion eines körperlichen Phänomens». Diese phänomenologische Betrachtensweise soll uns davor bewahren, die Gehörtätigkeit

als einen rein physiologisch zu deutenden Vorgang zu betrachten.

In diesem Zusammenhang stellt sich auch die Frage nach den Grundbedingungen der Musikalität. Die Experimentalpsychologie geht bei ihren Versuchen, das Wesen der musikalischen Begabung zu ergründen, häufig vom Phänomen des absoluten Gehörs aus. Darunter wird die Fähigkeit verstanden, die Höhe von Einzeltönen und Tongruppen zu erkennen, ohne sich einer Gedächtnisstütze zu bedienen. Dieses «Gedächtnis» setzt jedoch nach Ansermet eine gewisse «Verfremdung des Hörbewusstseins» voraus, wodurch es sich mehr an einen Ton als solchen hält, als an den damit verbundenen, stets vom Kontext abhängigen musikalischen Sinn. Das absolute Gehör ist somit nicht notwendigerweise Ausdruck einer musikalischen Begabung. Die wichtigste Fähigkeit des musikalischen Bewusstseins ist das Einbildungsvermögen, mit welchem es das auditiv Wahrnehmbare transzendiert. Indem es die Tätigkeit des Ohres reflektiert, ist es stets das Bewusstsein einer räumlich-zeitlichen Welt. Vor allem dem Zeitbegriff oder besser der zeitlichen Ordnung kommt daher innerhalb Musik und Sprache grösste Bedeutung zu.

In einem Aufsatz «Über das Dirigieren» schreibt Richard Wagner: «Will man alles zusammenfassen, worauf es für die richtige Aufführung eines Tonstückes von Seiten des Dirigenten ankommt, so ist dies darin enthalten, dass er immer das richtige Tempo angebe, denn die Wahl und Bestimmung desselben lässt uns sofort erkennen, ob der Dirigent das Tonstück verstanden hat oder nicht.»

Bruno Walter schreibt in seinem Buch «Von der Musik und vom Musizieren»: «War ich längere Zeit im Zweifel über das richtige Tempo einer musikalischen Phase oder Episode gewesen, so traf mich plötzlich wie aus einer tiefen Region meines Inneren her eine Entscheidung, wie in einem Moment der Erleuchtung war mir das richtige Tempo aufgegangen und ein Gefühl der Sicherheit gegeben, das mich vom Zweifel befreite und mir dann — in

den meisten Fällen —für immer gewonnen war.» Das Gefühl für das Tempo und damit dasjenige für die Zeiteinteilung scheint somit ein grundlegender Bestandteil musikalischer Begabung zu sein. E. Pöppel hat sich eingehend mit diesem Problem befasst und zeigen können, dass die Möglichkeit einer Tempokontrolle in Sprache und Musik und damit die Zeiteinteilung von hirnphysiologischen Mechanismen abhängt.

Damit Ereignisse in eine zeitliche Ordnung gestellt werden können, d.h. ihre Aufeinanderfolge erkennbar wird, ist Voraussetzung, dass einzelne Ereignisse zuvor als solche identifiziert werden. Hiefür ist eine sog. minimale Identifikationszeit notwendig, die im Bereiche von 30-40 ms liegt. Theoretisch kann davon ausgegangen werden, dass durch jeden Reizanfall im Gehirn ein oszillatorischer Prozess ausgelöst wird in bestimmten Zentren, die der Sinnesmodalität des auftreffenden Reizes zugeordnet sind. Oszillatorensysteme im Zentralnervensystem besitzen die Eigenschaft, dass sie durch einen plötzlich auftreffenden Reiz unmittelbar synchronisiert werden. Visuelle, taktile und akustische Reize führen zu periodischen Entladungen in den stimulierten Nervennetzen, deren Dauer sich gleicht. Damit wird ein zeitlicher Raster gebildet, innerhalb dessen zeitliche Ereignisse aus verschiedenen Sinnessystemen aufeinander bezogen werden können. Gäbe es keine derartige zeitliche Rasterung, dann wäre es ausserordentlich schwierig, Informationen der verschiedenen Sinnessystems miteinander zu vergleichen bzw. miteinander in Beziehung zu bringen. Die Periode des Oszillators liegt nun bei 30-40 ms; «... sie ist jener Grundtakt, der unsere mentale Tätigkeit charakterisiert und als Minimalzeit definiert wird, um einzelne Ereignisse zu identifizieren oder schnelle Entscheidungen zu treffen...» (E. Pöppel). Dieser Oszillator ist gleichsam eine Uhr im Zentralnervensystem. Die Tempokontrolle in der Musik beruht vermutlich auf der Ankoppelung der musikalischen Expression an einen solchen oszillatorischen Vorgang im Gehirn. Die Forderung nach der

Konstanterhaltung des Tempos ist somit hirnphysiologisch erfüllt auf Grund der Verfügbarkeit einer neuronalen «inneren Uhr».

Ein weiterer Bereich, in dem die zeitliche Ordnung in der Musik deutlich wird, zeigt sich darin, dass musikalische Motive häufig eine zeitliche Grenze von etwa 3 Sekunden aufweisen. Als Beispiel können das bekannte Motiv aus der 5. Symphonie von Beethoven oder dasjenige aus dem «Fliegenden Holländer» von Richard Wagner genannt werden. Es scheint sich hier um ein universales Phänomen abendländischer Musik zu handeln, über das sich der Komponist und der ausführende Musiker nicht hinwegsetzen können.

Hören wir uns Musik an, in der die zeitliche Strukturierung aufgegeben ist, so erkennen wir, dass sich auch ihre ästhetische Wirkung völlig verändert. Offenbar werden durch die Integrationsmechanismen des menschlichen Gehirns Randbedingungen definiert, die auch im ästhetischen Bereich genutzt werden. Wird dieser biologisch verankerte Rahmen einer zeitlichen Ordnung durchbrochen bzw. nicht berücksichtigt, so ändert sich das ästhetische Bezugssystem, innerhalb dessen Musik bewertet wird, und damit auch die ästhetische Wirkung eines Musikstückes. Unser ästhetisches Empfinden besitzt somit in diesem Bereich eine neurophysiologische Grundlage.

Die neurophysiologische Forschung der vergangenen Jahre hat ferner gezeigt, dass die zeitliche Organisation unserer Wahrnehmung, z.B. die Angabe zeitlicher Ordnung, im wesentlichen eine Leistung der linken Hirnhälfte ist. Die rechte Hirnhälfte dagegen hat einen bedeutenden Anteil an der Musikwahrnehmung und am Musikerleben. Bei Ausschaltung der linken Hirnhälfte —z.B. nach Verletzung, nach Verschluss eines grossen Hirngefässes oder nach Operationen — sind Sprachfunktion und auch die Fähigkeit zu singen sofort aufgehoben. Bei vorübergehender Blockierung der rechten Grosshirnhemisphäre hingegen beobachtet man, dass die zeitlichen Funktionen der musikalischen Expression erhalten geblieben sind. Der betreffende Patient kann noch rhythmisch

singen und das Tempo richtig einhalten, er ist jedoch nicht mehr in der Lage, die Tonhöhe zu modulieren. Gleichzeitig geht auch die Fähigkeit verloren, verschiedene Tonhöhen voneinander zu unterscheiden (E. Pöppel). Diese Beobachtungen stehen im Einklang mit der bekannten Tatsache, dass die rechte Gehirnhälfte für bestimmte Aspekte unseres Gefühlslebens dominant ist. Die Tonhöhenmodulation ist wohl das an der Musik, was ihr besondere emotionelle Wirkung vermittelt.

Musikalisches Empfinden muss als Teil unseres globalen ästhetischen Empfindens betrachtet werden. Es sei festgestellt, dass eine nicht unbeträchtliche Anzahl von Physiologen und Psychologen sich mit dem Problem des Musikerlebens beschäftigt hat; dass aber eine zusammenhängende Problemgeschichte der Erforschung des Musikerlebens nicht nachgewiesen werden kann (Harrer et al). Bereits Helmholtz hatte erkannt, dass die Konstruktion von Tonleitern und des Harmoniegewebes ein Produkt künstlerischer Empfindung und keineswegs durch den natürlichen Bau oder die natürliche Tätigkeit unseres Ohres unmittelbar gegeben sei. Eine musikalische Komposition müsse als Werk künstlerischer Empfindung den Gesetzen der künstlerischen Schönheit, d.h. der Ästhetik unterworfen sein. Helmholtz kam zum folgenden Schluss: «Die ästhetische Zergliederung vollendeter musikalischer Kunstwerke und das Verständnis der Gründe ihrer Schönheit stösst fast überall noch auf scheinbar unüberwindliche Verhältnisse... Dass die Schönheit an Gesetze und Regeln gebunden sei, die von der Natur der menschlichen Vernunft abhängen, wird wohl nicht bezweifelt. Die Schwierigkeit ist nur, dass diese Gesetze und Regeln, von deren Erfüllung die Schönheit abhängt und nach denen sie beurteilt werden muss, nicht vom bewussten Verstande gegeben sind...»

Diese Konfliktsituation kommt wohl nirgends besser zum Ausdruck als in den Kritiken musikalischer Werke und Interpreten: «...zwar hat sich Brahms nie über das Niveau des Mittelmässigen aufschwingen können; aber eine solche Nichtigkeit, Hohlheit und

Duckmäuserei, wie sie in der E-Moll-Symphonie herrscht, ist doch in keinem Werke von Brahms in so beängstigender Weise an das Tageslicht getreten... zwar bemüht sich Herr Brahms durch Kontraste Leben in seine Symphonien zu bringen; leider gelingt ihm dies nur schlecht... und dem Publikum wird bei dem schmalen Melodienhäcksel, den verkrüppelten Rhythmen und dürren Harmonien, dem ganzen Reichtum Brahms' auch nicht besonders zu Mute...» (aus Hugo Wolf's Kritik des philharmonischen Konzertes in Wien vom 24. Jänner 1886). Eduard Hanslick nannte Richard Strauss in seiner Kritik der «Don Juan»-Aufführung in Wien «...einen routinierten Chemiker, der die Elemente musikalisch sinnlicher Aufreizung äusserst geschickt in einem betäubenden <Lustgas>zu mischen versteht... ich habe Damen und Wagner-Jünglinge von dem Straussischen <Don Juan> mit einer Begeisterung reden hören, dass ihnen bei der blossen Erinnerung ein wohllüstiger Schauer über den Rücken zu laufen schien. Andere fanden das Ding einfach abscheulich — und diese Empfindung scheint mir die richtige zu sein.» Also sprach Eduard Hanslick anno 1892. Auch in der zeitgenössischen Musikkritik kennt der sprachliche Ausdruck der ästhetischen Zergliederung vollendeter musikalischer Kunstwerke keine Grenzen: Die Interpretin kam, «...setzte sich an den Flügel und griff in die Tasten, ehe es sich die Zuhörer versahen. Hinein in die heiss-kalten Bäder des Sonatenschatzes!... der Geiger verkörpert den einsamen Protagonisten, der sich Odysseus-gleich im vielstimmigen Meer der ins Volle der Tasten greifenden Pianistin badet...» So zu lesen anno 1988 in einer Kritik der Interpretation der Beethoven'schen Frühlingssonate.

Die subjektive Beurteilung eines Musikerlebnisses wird daher auch weiterhin in erster Linie nur gefühlsmässig erfolgen. Es sind deshalb zum Verständnis des Musikerlebens die sog. Gefülhlstheorien beigezogen worden. Die älteste Theorie ist diejenige von James (1890), wonach sich ein Gefühl durch die Rückwirkung peripherer, durch Wahrnehmungen hervorgerufener Phänomene

auf das Bewusstsein erklärt. Cannon hat nun versucht, an Stelle dieser etwas spekulativen Hypothese eine etwas exaktere experimentell belegte neurophysiologische Erklärung dieser komplexen Phänomene zu geben:

In der thalamisch-hypothalamischen Region des Zwischenhirns sind dynamische «afferente Schemata» vorhanden, welche emotionale Verhaltensmuster beinhalten. Im Normalzustand werden diese durch die Kontrolle der übergeordneten Grosshirnrinden gehemmt bzw. blockiert und können sich nicht manifestieren. Erst bei Auftreffen eines Sinnesreizes, der einen bestimmten Gefühlszustand hervorzurufen vermag, wird die kortikale Hemmung abgeschwächt. Das im Hypothalamus lokalisierte dynamische Erregungsmuster, befreit von der Hemmung der Grosshirnrinde, löst periphere Ausdruckserscheinungen im Bereich verschiedener Gebiete aus. Von allen Gefühlstheorien lässt sich mit derjenigen von Arnold und Lindsley das Musikerleben durch die neurophysiologische und experimentell-psychologisch belegte Aktivationstheorie am besten erklären: Jeder Sinnesreiz löst eine Erregung aus, die zur Hirnrinde fortgeleitet wird und in dem betreffenden Sinnesareal eine gefühlsgetragene, d.h. emotionelle Stellungnahme herbeiführt (Harrer et al.). Letztere wiederum —im Sinne eines Rückkopplungsmechanismus —bestimmt den Grad der Freisetzung oder Entzügelung hypothalamischer emotionaler Verhaltensmuster. Diese experimentell-psychologischen Erklärungsversuche können durch neurophysiologische Untersuchungsergebnisse gestützt und verständlich gemacht werden: Der jeweilige Zustand des internen Milieus unseres Organismus, der sich in Hunger, Durst, Angst, Wut, sexueller Erregung und in einem allgemeinen Lustgefühl äussern kann, wird aus dem Hypothalamus und den verschiedenen Komponenten des limbischen Systems (Hippocampus) dem praefrontalen Grosshirnrindenbezirk signalisiert. Dadurch werden die bewussten Wahrnehmungen, zu denen auch die akustisch ausgelösten auditiven Sinneseindrücke beim Anhören von Musik zählen, emotionell gefärbt und modifiziert (J. Eccles &K. R. Popper). Auf

der anderen Seite gewährleisten neuronale Verbindungen zwischen praefrontaler Grosshirnrindenregion und Hypothalamus sowie limbischem System die kortikale Kontrolle der Emotionen. Hinzu kommt die Vernetzung der verschiedenen Sinnessystems im Zwischenhirn, wodurch es möglich wird, in der praefrontalen Grosshirnrinde eine Synthese aller eintreffenden Sinneswahrnehmungen vorzunehmen (visuelle, auditive, somatoästhetische Signale) und diese emotionell zu prägen. Dadurch werden Verhaltensmuster auf Sinnesreize geschaffen, die in Datenzentren gespeichert und jederzeit abrufbar zur adäquaten Reaktion des Individuums auf eine bewusste Sinneswahrnehmung beitragen. Im Falle der auditiven Sinneswahrnehmung beim Anhören von Musik werden die Sinneseindrücke zuerst in den kortikalen Hörzentren des Schläfenlappens synthetisiert und dann durch Verbindungen mit dem Zwischenhirn emotional gefärbt und die daraus resultierenden Verhaltensreaktionen des betreffenden Individuums durch die praefrontalen Hirnrindenzentren kontrolliert (Funahashi &Carterette). Dieser sinnesphysiologische Vorgang spielt sich in drei Phasen ab: Nach der Verarbeitung der akustischen Signale im Innenohr werden diese kodiert und in die primären Zentren im Hirnstamm weitergeleitet, wo sie koordiniert und zu eigentlichen auditiven Informationen integriert werden. Bereits in der grauen Substanz des Hirnstamms erfolgt eine erste emotionelle Beurteilung der auditiven Information. Vorerst beinhaltet diese nur eine undifferenzierte, unbewusste emotionale Bewertung in Lust- oder Unlust gefühle. In einer zweiten Phase werden diese Informationen an den Thalamus weitergeleitet, von dort aus in die Hörrinde, wo sie als bewusste, emotional gefärbte auditive Information dekodiert werden. In einer letzten, dritten Phase erfolgt die erneute Beurteilung der auditiven Information in der praefrontalen Grosshirnrinde, nachdem sie zuvor innerhalb des limbischen Systems eine differenzierte emotionale Färbung erhalten hat (Funahashi &Carterette).

Musikalisches Empfinden allein ist noch nicht gleichbedeutend

mit musikalischer Kreativität, welche vom Musikschaffenden erwartet wird. In diesem Zusammenhang muss auf die neurologischen und neuropathologischen Untersuchungsbefunde des französischen Neurologen Alajouanine hingewiesen werden, welche er beim Komponisten Maurice Ravel erheben konnte. Diese beleuchten das eingangs erwähnte Problem eindrücklich:

Ravel litt in seinen letzten Lebensjahren an einem Gehirnleiden, welches primär eine schwere Aphasie, d.h. den Verlust seiner Sprache verursachte. Allein es handelte sich nicht um einen isolierten einseitigen Prozess, der nur das Sprachzentrum in der linken Grosshirnrinde in Mitleidenschaft gezogen hatte, sondern um eine doppelseitige Veränderung, welche auch die Musik-bzw. Hörzentren der rechten Grosshirnhemisphäre in ihrer Funktion ganz erheblich beeinträchtigte. Ravel hatte in der Folge seine kompositorischen Fähigkeiten völlig verloren, ebenso diejenige, eine neue, d.h. unbekannte Melodie zu erlernen. Hingegen war er durchaus imstande, eine ihm bekannte Komposition selbst auf dem Klavier vorzuspielen, ja sogar Gehörtes kritisch im Hinblick auf Wiedergabe und Interpretation zu beurteilen. Dieses Beispiel zeigt, dass neuro- und sinnesphysiologisch musikalische Kreativität des Komponisten und die Begabung des Tonkünstlers hinsichtlich Technik und Interpretation eines Musikstückes völlig verschiedene Bereiche des auditiven und des Zentralnervensystems umfassen.

Wie sieht der Musiker das Problem des musikalischen Empfindens? Für Ansermet steht im musikalischen Erlebnis das musikalische Bild im Vordergrund. Dieses besteht aus räumlichen Strukturen, die das auditive Bewusstsein Tongruppen verleiht, welche durch Intensität und Klangfarbe unmittelbar wahrnehmbar gemacht werden. Die Kunst des Instrumentierens beruht für Ansermet vor allem auf dem Gefühl für die richtigen Klangregister. Es ist dies die Kunst, jede Tonstruktur dem Instrument anzuvertrauen, das ihr in seiner Höhenlage im Register ihren richtigen Klangwert zu geben vermag. Voraussetzung ist beim Interpreten das Vorhandensein

eines konkreten Klangvorstellungsvermögens. Die Realisierung des richtigen Klangwertes innerhalb der Gesamtstruktur eines Musikwerkes ist eine der Hauptaufgaben des Dirigenten, wenn er ein Werk interpretieren und nicht bloss spielen will. Ihm fällt die Aufgabe zu, die Anweisungen an das Orchester zu geben, welche den «Farbwert» des Klangregisters andeuten. Dieser ist so zu realisieren, dass jede Instrumentalstimme die Intensität erhält, die ihr durch ihre Funktion oder Bedeutung innerhalb der gesamten Tonperspektive zukommt.

Ich habe versucht darzulegen, welche Zusammenhänge zwischen akustischer Datenverarbeitung einerseits, interindividueller Kommunikation und musikalischem Empfinden andererseits sich aus naturwissenschaftlicher Sicht, d.h. auf Grund des gegenwärtigen Standes unserer sinnesphysiologischen Erkenntnisse ergeben. Am Ende meiner Ausführungen muss ich jedoch gestehen, dass noch viele Fragen ungelöst offenstehen und dass wir eigentlich in der entscheidenden Frage, «was ist Musikalität?», noch nicht viel weiter gelangt sind als Helmholtz. Er schliesst seine Abhandlung über die «Tonempfindungen» mit der Feststellung: «Wenn in der Musik naturwissenschaftliche Fragen sich mit ästhetischen mischen, so ist es wohl möglich, aufzuzeigen, wie die physiologischen Eigentümlichkeiten der Gehörsempfindung einen direkten Einfluss auf die Konstruktion des musikalischen Systems ausüben. Schwierig wird es jedoch, wenn man versucht, die Ästhetik der musikalischen Werte zu ergründen.»...

In der Musik, im musikalischen Empfinden und im musikalischen Erlebnis spielen mannigfaltige Bewusstseinsphänomene eine Rolle, die wir nur teilweise durch naturwissenschaftliche Erkenntnisse rational erklären können. Es handelt sich um Vorgänge, welche im wesentlichen denselben Gesetzmässigkeiten unterworfen sind, welche unsere Beziehungen zur Umwelt und zur menschlichen Gesellschaft regulierend beeinflussen. Mit anderen Worten: diese Bewusstseinsphänomene werden hervorgerufen durch den Versuch, sichtbare oder fühlbare körperlich-physikalische

Aspekte der Natur und unsichtbare, physikalisch nicht messbare in uns selbst ausgelöste Aspekte des Naturgeschehens zusammenzufassen und zu interpretieren.

Literaturhinweise