Nicola Kietz

Musikverstehen und Sprachverstehen.

Eine Reflexion über ihre strukturellen und

psychologischen Parallelen

EPOS-Music Osnabrück 2000

Vorwort IV

1. Musik und Sprache: ihre Berührungspunkte in der Praxis   1

1.1 Wechselbeziehungen von Musik und Sprache im pädagogischen Bereich   2
1.2 Berührungspunkte in therapeutischen Anwendungsgebieten   5

2. Zum Verstehensbegriff in Sprache und Musik: die Objektseite   9

2.1 Methodischer Ausgangspunkt: Verstehen als Gegenstandsbereich psychologischer Forschung   10
2.2 Das Verstehensobjekt Sprache 11
2.2.1 Die akustische Erscheinungsform der Sprache (und ihre Parallelen in der Musik)    11
2.2.2 Die Linguistik als sprachbeschreibende Disziplin    12
2.2.3 Das Sprachsystem   15
   2.2.3.1 Der semantische Aspekt   15
   2.2.3.2 Strukturaspekt Syntax   17
   2.2.3.3 Der pragmatische Aspekt   19
2.2.4 Aspekte der generativen Transformationsgrammatik   20
2.3 Das Verstehensobjekt Musik 23
2.3.1 Das Verstehen von Musik und die Systematische Musikwissenschaft   23
2.3.2 Zur Übertragbarkeit linguistischer Terminologie und Methodologie   25
   2.3.2.1 Musikalische Bedeutungskonstitution   26
   2.3.2.2 Musikalische Syntax   31
   2.3.2.3 Musik und Verwendungszusammenhang   35
2.4 Variablen des Sprach- und Musikverstehens: ein abschließender Vergleich   36

3. Zusammenhänge von Musik- und Sprachverarbeitung: die Subjektseite   40

3.1 Der Wahrnehmende als Parameter des sprachlichen bzw. musikalischen Textes   41
3.1.1 Die Rolle der Perspektive für das Verstehen   41
3.1.2 Die dialektische Konzeption des Verstehens in der Hermeneutik und in der Experimentalpsychologie   43
3.2 Die Erklärungsansätze von Psychologie und Kognitionswissenschaft   45
3.2.1. Methodik   45
3.2.2 Wichtige Schlüsselbegriffe   47
   3.2.2.1 Modularität   47
   3.2.2.2 Universalien   48
   3.2.2.3 Neuronaler und mentaler Ansatz   49
   3.2.2.4 Gedächtnis und Schemata   50
3.3 Zusammenhänge von Sprache und Musik auf neuronaler mentaler Ebene   51
3.3.1 Vergleich auf neuronaler Ebene   52
3.3.2 Vergleich auf mentaler Ebene; allgemein-psychologische Aspekte   58
   3.3.2.1 Entwicklungspsychologische Erkenntnisse   59
   3.3.2.2 Wahrnehmung, Verarbeitung und Gedächtnis   61
      3.3.2.2.1 Wahrnehmung als Kategorisierung und die Bildung kognitiver Verarbeitungseinheiten   63
      3.3.2.2.2 Zur psychologischen Realität der Grammatik und die Rolle kognitiver Schemata für sprachliche und musikalische Verstehensprozesse   64

4. Interdisziplinäre Ansätze zur Erklärung strukturellen Verstehens von Musik   72

4.1. Zur Übertragung psycholinguistischer Ansätze auf die musikalische Verstehensforschung   73
4.2 Harmonielehre als Grammatik der Musik (Bruhn 1988)   75
4.3 Zwei produktive generative Grammatiken   81
4.3.1 Eine Grammatik für schwedische Kinderlieder (Sundberg/Lindblom 1976)   82
4.3.2 Eine Syntax deutscher Volks- und Kinderlieder (Stoffer 1979)   85
4.4 Eine generativ-analytische Theorie tonaler Musik (Lerdahl/Jackendoff 1983)    87
4.5 Erörterung der Ergebnisse   98

5. Abschließende Überlegungen und Ausblick   100

5.1 Resümee   101
5.2 Praxisrelevante Aspekte und Ausblick   103

Anhang   110

A. Liste der Regeln aus Lerdahl/Jackendoff's A theory of tonal music (1983)   110
B.Literaturverzeichnis   118

Abkürzungen und Notationen

EEG = Elektroencephalogramm
Exp. = Experiment
gTG = generative Transformationsgrammatik
Kap. = Kapitel
KZG = Kurzzeitgedächtnis
LZG =Langzeitgedächtnis
UKZG = Ultrakurzzeitgedächtnis
/ / = phonologische Transkription
[ ] =phonetische Transkription
í ý =semantische Merkmalsliste

Vorwort

"Das Verstehen eines Satzes der Sprache ist dem Verstehen eines Themas in der Musik viel verwandter, als man etwa glaubt." (Wittgenstein 1967, S. 266, Nr. 527)

In der vorliegenden Arbeit soll der in jüngster Zeit häufiger geäußerten Hypothese nachgegangen werden, daß zwischen der mentalen Verarbeitung von Sprache sowie der Verarbeitung von Musik weitreichende Parallelen bestehen, die man sich in der musikalischen und sprachlichen Praxis (pädagogisch und therapeutisch) zunutze machen könnte.
Es wird also in erster Linie um psychologische Hintergründe des Sprach- und Musikverstehens gehen und nur am Rande um die - vielleicht als erstes mit dem vorliegenden Thema assoziierte - Darstellung der in der Musikgeschichte verwurzelten Auffassungen von Musik als einer "Tonsprache", "Klangrede" oder "Sprache der Gefühle" (einen Überblick über historisch-ästhetische Anschauungen geben z.B. Holland 1990; Ruf 1988).

Im ersten Kapitel werden zunächst die z.Zt. in der pädagogischen und sprachtherapeutischen Praxis bestehenden Berührungspunkte zwischen Musik und Sprache aufgezeigt, die einen genaueren Vergleich mentaler Fähigkeiten motivieren.
Die Kapitel zwei bis vier bilden den Kernbereich der Arbeit, in dem die konkrete Gegenüberstellung von Sprach- und Musikverstehen erfolgt. Der Vergleich wird auf zwei Ebenen geführt (siehe Schema auf S. vi) :

Die jeweils relevanten Ausschnitte des Schemas werden den einzelnen Kapiteln erneut als "Wegweiser" vorangestellt.

der Objekt- und der Subjektebene. Auf der ersten, theoretisch-analytisch orientierten Ebene (Kap. 2), wird vom Hörer (generell) abstrahiert, und nur die objektiv beschreibbaren (klanglichen, semantischen, syntaktischen, pragmatischen) Gemeinsamkeiten von sprachlichen und musikalischen Gebilden kommen zur Darstellung. Die Möglichkeit einer eingeschränkten Übertragung linguistischer Beschreibungsmethoden auf die Beschreibung von Musik steht im Mittelpunkt dieser Ausführungen, die in die abschliessende Fragestellung münden, ob auch im Falle des Hörens von Musik von "Verstehens"-Prozessen gesprochen werden kann.

Auf der zweiten, psychologisch-empirisch ausgerichteten Ebene (Kap. 3) geht es um die mentalen Strukturen und Prozesse des Hörers, die bei der Verarbeitung von Sprache bzw. Musik zum Einsatz gelangen. Es wird gezeigt, daß Verstehensvorgänge immer sehr individuell geprägte Prozesse sind und aus verschiedenen Zugangsweisen resultieren. Ein Vergleich der mentalen Vorgänge beim Aufnehmen von Sprache und Musik erfolgt auf der Grundlage bisher durchgeführter neuro-, entwicklungs- und allgemeinpsychologischer empirischer Untersuchungen.
Einen breiten Raum nimmt auf dieser zweiten Ebene die Mittlerrolle der Kognitionswissenschaft bzw. der Kognitiven Psychologie ein, da durch ihr interdisziplinäres Vorgehen gerade in jüngster Zeit neue Einsichten in bezug auf Gemeinsamkeiten von Musik- und Sprachverstehen gewonnen werden konnten. Ein Teilbereich der musikpsychologischen Forschung bemüht sich z.B. um neue Erkenntisse im Bereich des musikalisch-syntaktischen Wissens und vereint dabei psychologische und linguistische Methoden (Kap. 4). Das in der Psycholinguistik übliche Vorgehen, die vom Hörer abstrahierten Sprachbeschreibungen auf ihre kognitive Adäquatheit hin experimentell zu überprüfen, wird bei diesem Forschungsansatz an die Musikpsychologie adaptiert. D.h. die Vertreter dieser Richtung nutzen die in Kapitel 2 vorgestellte Möglichkeit, musikalische Strukturen mit sprachwissenschaftlichen Methoden zu beschreiben, indem sie konkrete musikalisch-syntaktische Theorien nach linguistischen Kriterien entwickeln und diese dann psychologisch-empirisch überprüfen. In Kapitel 4 geht es um die herausragendsten Modelle und Erkenntnisse dieses methodischen Ansatzes.
Das 5. Kapitel beschließt den Vergleich musikalischen und sprachlichen Verstehens mit einer allgemeinen Diskussion der Ergebnisse, auch im Hinblick auf eine mögliche Anwendbarkeit in der pädagogischen und therapeutischen Praxis.

Es sei noch angemerkt, daß ich mich im vergleichenden Teil der Arbeit weitgehend auf tonale Musik beschränke und nur am Rande auf atonale Musik eingehe. Die ohnehin komplexe Thematik bleibt so in überschaubaren Grenzen, kann aber auch problemlos um den Gesichtspunkt der Atonalität erweitert werden (vgl. Kap. 4.4). Ebenso muß aus Gründen des Umfangs das Zusammentreffen von Musik und Sprache in Textvertonungen sowie die zusätzliche Einbeziehung von szenischen Musikwerken ausgeklammert werden,

obwohl dies zweifellos weitere interessante Aspekte für die Verstehensproblematik wären.

Außerdem möchte ich hervorheben, daß im Text nur maskuline Formen wie "der Hörer" oder "der Musiker" verwendet werden. Selbstverständlich sind an den entsprechenden Stellen auch "Hörerinnen" und "Musikerinnen" gemeint, auch wenn sie nicht explizit angeführt werden.


Kapitel 1
Musik und Sprache: ihre Berührungspunkte in der Praxis

1.1 Wechselbeziehungen von Musik und Sprache im pädagogischen Bereich    2

1.2 Berührungspunkte in therapeutischen Anwendungsgebieten    5

1. Musik und Sprache: ihre Berührungspunkte in der Praxis

Was macht den Vergleich von zwei - auf den ersten Blick - so unterschiedlichen Gebieten wie der Musik- bzw. Sprachverarbeitung überhaupt interessant?
Das erste Kapitel bietet hierfür Ansatzpunkte in zwei praxisbezogenen Teilbereichen an:

a) Wechselbeziehungen von Musik und Sprache im pädagogischen Bereich (Kap. 1.1) und
b) Berührungspunkte in therapeutischen Anwendungsgebieten (Kap. 1.2).

1.1 Wechselbeziehungen von Musik und Sprache im pädagogischen Bereich

In allen Kulturen, die eine Kunstmusik hervorgebracht haben, ist nicht nur Musik gemacht, sondern es ist auch über sie geredet bzw. geschrieben worden. Angefangen bei musiktheoretischen Abhandlungen und Lehrbüchern über die Musikkritik bis hin zu Programmheften und Konzertführern: die Formen des Sprechens über Musik sind gerade in der europäischen Musiktradition vielfältig, und die Häufigkeit der Verbalisierung hat mit Aufkommen der diversen Medien noch zugenommen: Rundfunk- und Fernsehmoderationen, -diskussionen, -features und -workshops, Plattentexte und booklets sollen dem Zuhörer/Zuschauer den "richtigen" Zugang zur Musik zeigen, d.h. das Verstehen

Für eine ausführliche Erörterung der Frage des Verstehens von Musik verweise ich auf das zweite Kapitel.

dieser Musik fördern. Dahinter steht der Gedanke, daß Musik mehr ist als nur das reine akustische Substrat und die Ansicht, daß sich der Musikgenuß durch verbale Vermittlung erhöhen lasse, weil es etwas darin zum Ausdruck Gebrachtes zu erfassen gelte. Das allgemeine Ausmaß des Redens über Musik zeigt, wie nützlich es sein könnte, natürliche Beziehungen zwischen dem verbalen und dem musikalischen Medium aufzudecken. Sowohl rein formale Zusammenhänge als auch - vor allem - Ähnlichkeiten auf dem Gebiet der mentalen Verarbeitung, aber auch die systematische Erfassung

von Unterschieden können neue Wege in der Musik- bzw. Sprachvermittlung eröffnen, in denen gezielt solche natürlichen Beziehungen ausgenutzt werden.

Diese Idee ist nicht neu und findet sich bereits in diversen methodischen Konzepten wieder, die im folgenden kurz vorgestellt werden sollen. Die am offensichtlichsten in Erscheinung tretende lautliche Parallele zwischen Sprache und Musik hat z.B. dazu geführt, daß besonders im Vorschul- und Grundschulunterricht vermehrt Sprach-/Sprech- und Musikerziehung in engem Verhältnis zueinander durchgeführt werden.

Ausgehend von dieser Konzeption erhofft man sich

1) vom Singen und Musizieren eine positive Beeinflussung der Sprachintonationsentwicklung und der auditiven Aufmerksamkeit (als wichtiger Grundlage des Leselernens); (s. Klemm 1987, S. 40)
2) von Sprache und rhythmisiertem Sprechen eine Hilfe zum Erfassen musikalischer Rhythmen und anderer elementarer Grundlagen musisch-musikalischer Erziehung (ebd.). Ein herausragendes methodisches Beispiel ist das Orffsche Schulwerk.

Hier liegt eine psychologische Argumentation vor, die auf den Erklärungsansatz zur Übungsübertragung von Thorndike und Woodworth

Thorndike, E.L. & Woodworth, R.S. : The influence of improvement in one mental function upon the efficiency of other functions. In: Psychological Review, 8 (1901), S. 384-395 + 553-564


zurückgeht. Er besagt:

"Identische Elemente einer Übung können von einem Gebiet in das andere transferiert werden." (Spychiger 1993, S. 365).

In der Tat kann eine ganze Reihe differential-psychologischer Untersuchungen Zusammenhänge und Mitlerneffekte z.B. zwischen sprachlichen und musikalischen Hörfähigkeiten (s. Klemm 1987, Kap. 4.2.1) oder auch zwischen Musizieren und Sprechen (s. Moog 1978) aufzeigen. Dieser Ansatz ist allerdings insofern problematisch, als zwar das Lernen und Transferlernen beobachtbar sind, der eigentliche Transfer aber nur indirekt erschlossen werden kann.

In den weiterführenden Schulformen ist es der Fremdsprachenunterricht, in dem man sich die bereits angeführten klanglich-rhythmischen Transfereffekte zunutze machen möchte. Nachdem seit nunmehr einigen Jahrzehnten das Lernziel statt im Erlernen der Grammatik mehr im Erwerb einer guten mündlichen und schriftlichen Verständigungsfähigkeit gesehen wird, liegt der Schwerpunkt des Unterrichts deutlich auf Hören und besonders Sprechen. Die Einbeziehung von fremdsprachigen Liedern soll in diesem Sinne u.a. ein akzentfreies Sprechen in die Wege leiten, dadurch, daß Musik

a) den Erwerb der Sprachintonation erleichtert (s.o.);
b) das auditive System sensibilisiert (s.o) und damit die Lautdiskrimination verbessert;
c) mit ihrem gleichmäßigen Fluß wiederum den Sprachfluß fördert (s. Klemm 1987, S. 41).

Eine besondere Methode des Fremdsprachenunterrichts ist die von dem bulgarischen Arzt und Psychiater Lozanov entwickelte Suggestopädie, die in den letzten Jahren indirekt auch unter dem Namen Superlearning in Fremdsprachenlehrgängen vermarktet wird. Die Integration von Musik spielt auch bei dieser Methode eine wichtige Rolle, doch liegt hier die Idee nicht im klanglich-rhythmischen Lerntransfer, sondern sie beruht u.a. auf der Annahme unterschiedlicher Mechanismen der Verarbeitung von Musik und Sprache im Gehirn. Die Anhänger dieser Methode glauben an eine strikte Aufgabenteilung im Cortex.

Die folgende rigorose Aufteilung gilt inzwischen als widerlegt. (Siehe auch Kapitel 3.3).

Sie soll so aussehen, daß die linke Gehirnhälfte für die Sprachverarbeitung zuständig ist, während die rechte Hemisphäre musikalische Reize entgegennimmt. Die Vertreter der Suggestopädie gehen davon aus, daß die Behaltensleistung von Vokabeln und fremdsprachlichen Texten durch die gleichzeitige Darbietung von Musik erheblich gesteigert werden kann, da quasi eine "Ausbalancierung" der Gehirntätigkeit stattfindet (s. Bruhn 1989, S. 91; Spychiger 1993, S. 365) und unbewußte Teile der Psyche aktiviert werden. Die Folge soll ein entspannter Aufmerksamkeitszustand und ein Mehr an Speicherkapazität sein (s. Schiffler 1989, S. 28;30).

Ergebnisse empirischer Untersuchungen können die übertriebenen Erfolgsversprechungen kommerzieller Anbieter des Superlearning nicht bestätigen (s. Spychiger 1993, S. 363; Schiffler 1989, S. 128), obwohl eine positive Auswirkung von Musik auf das Fremdsprachenlernen durchaus nachgewiesen werden konnte (s. Schiffler 1989, S. 100). Ebenso dürften Bedenken gegenüber durchweg positiver Beeinflussung der Intonationsentwicklung durch das Singen von Liedern im Fremdsprachenunterricht angebracht sein, machen doch häufig musikalisch-melodische Gesichtspunkte eine natürliche Intonation in den Liedern zunichte. Jedoch: Auch wenn solche musikalisch-sprachlichen Ansätze in der einen oder anderen Hinsicht Einschränkungen erfahren, da Teilaspekte der ihnen zugrundeliegenden Theorien widerlegt wurden oder Erklärungsansätze nicht haltbar sind: Der übergreifende Eindruck ist immerhin so überzeugend, daß sich die Konzepte z.T. in der pädagogischen Praxis etablieren konnten (s. Schiffler 1989, Kap. 4; Klemm 1987, Kap. 2). Aufgabe der Forschung ist es nun, die Erfolge systematisch zu erklären und Verfahren zu entwickeln, die noch gezielter eingesetzt werden können.
Das gleiche gilt für ein weiteres Anwendungsfeld, in dem sich die Kopplung von Musik und Sprache bewährt hat: das der therapeutischen Praxis.

1.2 Berührungspunkte in therapeutischen Anwendungsgebieten

Die Annahme einer direkten Beziehung zwischen Sprech- und Gesangsstimme hat schon im 19. Jahrhundert systematische Behand-lungsmethoden für Sprech- und Sprachstörungen hervorgebracht, die musikalische Aspekte mit in die Therapie einbezogen (s. Klemm 1987, S. 43). Trotz recht unterschiedlicher Störungsbilder wurde und wird Musik bis heute an erster Stelle erfolgreich als motivierender Faktor eingesetzt (s. Decker-Voigt 1983, S. 209). Notwendige Wiederholungen von sprachlichem Material erhalten durch den Einsatz von Musik eine spielerische Komponente und verlieren so ihre Monotonie.
Es wird aber ebenfalls gezielt gegen spezifische Krankheitsbilder vorgegangen, die folgendermaßen kategorisiert werden können (s. Grimm/ Engelkamp 1981, Kap. "Pathologie der Sprache"):

Sprech-/Artikulationsstörungen | Sprachstörungen
_________________________|_______________
Stottern | Aphasien
Stammeln |
Poltern |
(Stimmstörungen) |

Tab. 1: Kategorisierung der Sprech- und Sprachstörungen

Im Gegensatz zu den eigentlichen Sprachstörungen, liegt bei den Sprechstörungen keine durch eine hirnorganische Erkrankung erzeugte Beeinträchtigung des Sprachsystems (d.h. des sprachlichen Wissens) vor, sondern es handelt sich um sprechrhythmische Schwierigkeiten (Stottern und Poltern) oder um Probleme mit der Lautbildung (Stammeln und erneut Poltern) bzw. der Stimmbildung. Für diese motorisch bedingten Fehlleistungen erscheint der Einsatz von Musik ideal, da man davon ausgeht, daß sie durch den ihr selbst inhärenten Rhythmus, durch die Akzentuierungen und die (meistens) leicht erkennbare Strukturiertheit das Timing für sprachrhythmische Prozesse verbessern helfen kann. Die mit ihr einhergehende auditive Sensibilisierung stellt zudem nach allgemeiner Ansicht eine wichtige Voraussetzung für eine einwandfreie Lautbildung dar (s. auch Kap. 1.1).
Die Notwendigkeit differenzierter auditiver Fähigkeiten zeigt sich besonders deutlich an den Artikulationsschwierigkeiten bei tauben und schwerhörigen Menschen. Im Bereich der Taubstummenpädagogik greift man daher im Zuge der Sprachanbahnung trotz der Hörschäden gern im o.g. Sinne auf die rhythmischen Qualitäten der Musik zurück, da diese taktil-kinästhetisch erfahren werden können (s. Moog 1976).
Auch im therapeutischen Bereich setzt man also auf die in Kapitel 1.1 angesprochenen Transfereffekte. U.a. Moog (1978) hat gezeigt, daß regelmäßiges Musizieren eine signifikante Reduktion der Sprachfehler bei Sprachbehinderten zur Folge hat. Eine Erklärung des positiven Transfers läßt er jedoch außen vor.

Störungen des Sprachvermögens, sogenannte Aphasien, treten meistens bei Verletzungen der linken Gehirnhälfte auf und können recht unterschiedlich aussehen. Eine detaillierte Klassifikation der Aphasie-Arten würde hier zu weit führen.

Einige weiterführende Fakten finden sich in Kap. 3.3.1; Für eine genaue Klassifikation s. Leuninger, Helen: Neurolinguistik. Probleme, Paradigmen, Perspektiven. Opladen: Westdeutscher Verlag, 1989.

Einige für den vorliegenden Argumentationszusammenhang wichtige Symptome seien an dieser Stelle jedoch aufgeführt: Wortfindungsschwierigkeiten, grammatische Fehlleistungen, gestörte Prosodie, verlangsamte Sprechgeschwindigkeit, schlechte Artikulation.
Z.T. beachtliche Erfolge im Bereich der Prosodie und der Artikulation können in der Aphasie-Therapie mit einer in den USA entwickelten „Sing“-Therapie, der sogenannten "melodic intonation therapy" (MIT), erzielt werden. Bei dieser Methode soll sich der Patient zunächst ausschließlich in einer Art rezitativischem Sprechgesang äußern, der der Prosodie der jeweiligen Äußerung stark angepaßt und im Verlauf der Therapie immer mehr der eigentlichen Sprachmelodie angeglichen wird.
Allgemein kann man beobachten, daß sich einige Aphasiker - trotz schwerer grammatischer Probleme und Wortfindungsschwierigkeiten - in Form gesungener Liedsprache immerhin verständlich machen können. Stichhaltige Erklärungen für dieses Phänomen stehen noch aus, doch könnte man vermuten, daß sich mentale Verarbeitungsvorgänge für Sprache und Musik z.T. sehr ähneln und so tatsächlich Transfereffekte seitens der intakt gebliebenen musikalischen Kompetenz stattfinden können. Die enge kognitive Verknüpfung der beiden Bereiche zeigt sich auch daran, daß musikalische Fähigkeiten doch häufig gemeinsam mit den sprachlichen betroffen sind. So berichten Oepen/Berthold (1987) von einer oft auftretenden Kopplung expressiv-verbaler mit rezeptiv-rhythmischen Störungen.

Einige weiterführende Fakten finden sich in Kap. 3.3.1


Die oben skizzierten Vermittlungsbemühungen zwischen sprachlichen und musikalischen Verhaltensweisen werden in Abbildung 1 noch einmal zusammengefaßt (s. S. 8):

Abb. 1: Berührungspunkte zwischen Musik und Sprache

Aufgrund der vorliegenden Erkenntnisse ergeben sich nun die folgenden Fragen: Welcher Art genau sind die Zusammenhänge zwischen Sprache und Musik, so daß Musik sprachpädagogisch/-therapeutisch bzw. Sprache musikpädagogisch wirksam sein kann? Welche anderen Überschnei-dungen existieren zwischen Sprache und Musik (abgesehen von den aktuell wahrnehmbaren Parametern Klang und Rhythmus)? Und übergreifend: Wie könnte die mentale Verarbeitung von Musik und Sprache aussehen; gibt es dort weitreichende Parallelen?
Das folgende Kapitel wird insofern zu einer Teilbeantwortung dieser Fragen beitragen, als es - psychologischen Forschungsansätzen folgend - zunächst die vom Hörer abstrahierten Phänomene Musik und Sprache in ihren objektiv vorhandenen Eigenschaften beschreibt und vergleicht. Es geht, grob gesprochen, um diejenigen Merkmale, die möglicherweise später auch den psychologischen Verstehensvorgang auf seiten des Hörers mitbestimmen. Jene vom Subjekt/Hörer ausgehende Seite des Verstehensproblems wird dann im anschließenden dritten Kapitel behandelt.

Kapitel 2:
Zum Verstehensbegriff in Sprache und Musik: die Objektseite

______________________

2.1 Methodischer Ausgangspunkt: Verstehen als Gegenstandsbereich psychologischer Forschung    10

2.2 Das Verstehensobjekt Sprache    11

(Die akustische Erscheinungsform der Sprache - Die Linguistik als sprachbeschreibende Disziplin - Das Sprachsystem - Aspekte der generativen Transformationsgrammatik)

2.3 Das Verstehensobjekt Musik    23

(Das Verstehen von Musik und die Systematische Musikwissenschaft - Zur Übertragbarkeit linguistischer Terminologie und Methodologie)

2.4 Variablen des Sprach- und Musikverstehens: ein abschließender Vergleich    36


2. Zum Verstehensbegriff in Sprache und Musik: die Objektseite

Wie sehen die sprachlichen und musikalischen Strukturen aus, die der Hörer wahrnimmt, verarbeitet und schließlich versteht? Nach einer kurzen Vorstellung des methodischen Vorgehens (Kap. 2.1) werde ich mich zunächst der Beschreibung des Sprachsystems zuwenden (Kap. 2.2), an-schließend derjenigen musikalischer Strukturen (Kap. 2.3). Im letzten Unterkapitel (2.4) werden schließlich die Gemeinsamkeiten der beiden Gebiete resümiert.

2.1 Methodischer Ausgangspunkt: Verstehen als Gegenstandsbereich psychologischer Forschung

Um pädagogisch und therapeutisch nutzbringende Überschneidungen bei der psychologischen Verarbeitung von Sprache und Musik systematisch aufzudecken, liegt es nahe, in der psychologischen Forschung nach Ansätzen zu suchen. Schließlich hat jedes psychologische Forschungsgebiet zum Ziel, Regelhaftigkeiten solcher Verarbeitungsprozesse aufzudecken. Der Weg dorthin führt immer über zwei Gegenstandsbereiche:

"den Menschen, von dessen Handlungen ein Bereich als Untersuchungsgegenstand in den Mittelpunkt gerückt werden kann (Subjektbereich), und die Welt der Objekte, mit denen der Mensch sich handelnd auseinandersetzt, aus der eine Klasse als Untersuchungsgegenstand definiert werden kann (Objektbereich)." (Stoffer 1979, S. 1)

Anders ausgedrückt: Will man psychische Vorgänge verstehen lernen, so muß man zum einen das objektiv beobachtbare Gebilde selbst - in unserem Falle Sprache bzw. Musik - untersuchen, zum anderen den Men-schen als verstehendes Subjekt, der dazu fähig ist, einen Text oder ein Musikstück als zusammengehöriges, sinnvolles und möglicherweise ästhetisches Gebilde zu begreifen und nicht als eine Sammlung unkoordinierter Einzelheiten (mehr zum dialektischen Subjekt-Objekt-Verhältnis in Kap. 3.1.2). Kurz: Für die vorliegende Zielsetzung, den Vergleich von sprachlichen und musikalischen Verhaltensweisen und ihrer mentalen Vorraussetzungen, ist es von Vorteil, zunächst das vom Subjekt zu Erkennende, Spezifische der beiden Objektbereiche zu durchleuchten. Erst da-nach wird zu fragen sein, ob das Festgestellte auch beim aktuellen Hören den Verarbeitungsprozeß mit- oder sogar ausschließlich bestimmt.

2.2 Das Verstehensobjekt Sprache

2.2.1 Die akustische Erscheinungsform der Sprache (und ihre Parallelen in der Musik)

In Kapitel 1 wurde bereits angeführt, daß eine der offensichtlichsten Analogien zwischen Sprache und Musik in der für beide typischen akustischen Erscheinungsform liegt. Diese augenscheinliche Aussage kann durch Untersuchungsergebnisse aus der Phonetik untermauert werden, die sich als naturwissenschaftliche Disziplin u.a. mit der Erforschung der akustischen Eigenschaften von Sprachlauten beschäftigt. Mit Hilfe sogenannter Spektralanalysen werden hier die verschiedenen akustischen Teilmerkmale sprachlicher Laute analysiert (Frequenz, Intensität [Amplitude] und Dauer). Diese grobe Annäherung mag in diesem Zusammenhang genügen.
Die wichtigste Unterscheidung in Akustik wie Phonetik ist die Einteilung akustischer Erscheinungen in zwei Kategorien. Eine Überlagerung von mehreren periodischen Teilschwingungen, die jeweils verschiedene Frequenzen und Amplituden aufweisen, ist das Merkmal der Elemente der ersten Kategorie. Handelt es sich um Sprachlaute, bezeichnet man sie als Vokale; in der Musik spricht man von Tönen oder Klängen. Auf der anderen Seite existieren Schallereignisse, die nicht oder nur zum Teil auf ganzzahligen Schwingungsverhältnissen beruhen. Eine bestimmte Tonhöhe kann im Gegensatz zu den akustischen Ereignissen der ersten Kategorie nicht ausgemacht werden. Man spricht dann von Konsonanten bzw. Geräuschen.
Diese Ton-(Klang-)/Vokal- und Geräusch-/Konsonant-Analogie mag - wie bereits in der Antike von dem römischen Redelehrer Quintilian angeregt wurde - noch ausgeweitet werden auf komplexere Gebilde wie Melos und Sprachmelodie. Einen solchen Vergleich motiviert nicht zuletzt auch eine vieldiskutierte evolutionstheoretische These, die besagt, daß Musik und Sprache möglicherweise einen gemeinsamen Ursprung in der präverbalen, expressiven

Lautgebung haben und sich dann zu verschiedenen Ausprägungen der Lautform weiterentwickelten (vgl. Wallin 1984):

Ein Vertreter dieser These ist u.a. Herder gewesen.


Abb. 2: Evolutionsmodell der Relationen zwischen Sprache und Musik
nach Wallin 1984, S. 76)

Wie eng Sprechen und Singen auch aus Sicht ihrer Erzeugung sind, zeigt sich vor allem daran, daß häufig Mischformen auftreten: so z.B. in der barocken und klassischen Oper, wo sich innerhalb des Rezitativs musikalische Melodik und sprachliche Deklamation durchdringen; andererseits nähert sich Sprechen immer mehr dem Singen, wenn die Äußerung eine besonders starke affektive Färbung aufweist. Trotz all der angeführten Beschreibungs- und Vergleichsmöglichkeiten, denen Sprache als akustisches Phänomen unterzogen werden kann: Der lautliche Aspekt ist nur ein kleiner Teil dessen, was Sprache ausmacht und zudem ein - im wahrsten Sinne des Wortes - "oberflächlicher". Jede wissenschaftlich weitreichende Betrachtung eines Gegenstandes oder Sachverhaltes geht nämlich von der These aus, daß sich konkrete Einzelerscheinungen (in diesem Fall akustische) von allgemeinen, ihnen zugrundeliegenden, abstrakten Gesetzmäßigkeiten herleiten lassen. Um solche Gesetzmässigkeiten von Sprache geht es nun in den folgenden Teilkapiteln (2.2.2-2.2.4).

2.2.2 Die Linguistik als sprachbeschreibende Disziplin

Diejenige wissenschaftliche Disziplin, die es sich zum Ziel gesetzt hat, Sprache unter allen theoretisch und praktisch relevanten Aspekten zu beschreiben, bietet sich in diesem Teilkapitel als Grundlage an: die Linguistik.

Zwei der bedeutendsten Entwicklungsabschnitte in der systematischen Sprachwissenschaft sind der Strukturalismus, der zu Anfang unseres Jahrhunderts durch den schweizerischen Linguisten Ferdinand de Saussure geprägt wurde, und die Ende der fünfziger Jahre aufgekommene generative Transformationsgrammatik. Letztere ist eng mit dem Namen des Amerikaners Noam Chomsky verknüpft. Sprachauffassung und -beschreibung dieser beiden Richtungen der Linguistik sollen im folgenden skizziert werden, vor allem soweit sie relevant sind für die in Kapitel 2.3.2 vorgestellte Möglichkeit der Übertragung auf die Musik.

Die Sprachwissenschaft im 20. Jahrhundert sieht sich selbst als Spezialdisziplin der Semiotik und begreift somit Sprache als Zeichensystem, als Kommunikations- und Verständigungsmittel, das es in seiner inneren Struktur und in seiner Verwendung durch den Zeichenbenutzer zu untersuchen gilt. Man unterscheidet also in der Linguistik zwischen dem überindividuellen, abstrakten System von Zeichen (z.B. Wörtern) und Regeln, das de Saussure als langue bezeichnete, und der individuellen, konkreten Realisierung dieses Systems (= parole) in der Kommunikation. Die langue wird dabei unter synchronem Aspekt betrachtet, will heißen, als ein zu einem bestimmten Zeitpunkt bestehender Zustand. Der diachrone Aspekt betrifft hingegen den Sprachwandel und wird von einer weiteren linguistischen Teildisziplin, der Historischen Sprachwissenschaft, untersucht.
Die in relativer Unabhängigkeit von ihren Zwecken existierende langue ist der eigentliche Untersuchungsgegenstand der (Systematischen) Sprachwissenschaft. Jedoch: Eine Beschreibung muß natürlich notwendigerweise über die Äußerungen der parole geschehen. So gehören z.B. die Ausführungen über die akustischen Charakteristika von Sprache aus Kapitel 2.2.1 dieser aktualisierten Erscheinungsform an, die nur die Merkmale einer abstrakteren lautlichen Ebene repräsentiert und über die letztere erst zugänglich wird (ein Beispiel, das den Gedanken von einer abstrakten lautlichen Ebene verdeutlicht, findet sich auf S. 17 innerhalb des Exkurses in Kap. 2.2.3.2).
Die Strukturalisten gehen davon aus, daß die Sprache - oder besser: die langue - sich analysieren läßt als eine Menge sprachlicher, voneinander abgrenzbarer Einheiten/Zeichen. Jedes Zeichen dieser Menge, so de Saussure, besitzt zwei Seiten: einen bestimmten

Ausdruck

Saussure nennt ihn signifiant.


(z.B. auf Wortebene die Bezeichnung Buch) auf der einen, und einen konkreten Inhalt

Saussure nennt ihn signifié.


auf der anderen Seite (im genannten Beispiel das bezeichnete Buch, das in seinen außersprachlichen Merkmalen in der Vorstellung des Sprechers/Hörers existiert). Die Zuordnung der beiden Aspekte ist dabei konventionsbedingt und einzelsprachspezifisch, also willkürlich.
Auch untereinander weisen die Zeichen bestimmte Beziehungen auf, wodurch sie erst ihren konkreten Wert innerhalb des Systems erhalten. Die Gesamtheit dieser Beziehungen bildet die sogenannte Struktur des Sprachsystems. Zwei Typen von Relationen sind von Bedeutung: der erste bezeichnet die Ordnungsbeziehung, die zwischen mehreren aufeinander folgenden sprachlichen Einheiten besteht. Diese lineare Verknüpfungsrelation wird syntagmatische Beziehung genannt. Der zweite Typ, die paradigmatische Beziehung, ist eine Ersetzungsrelation und definiert die Austauschbarkeit von Zeichen, die derselben (Wort-)Kategorie angehören. Das folgende Schema verdeutlicht die beiden Relationen:

Abb. 3: Relationen auf Satzebene

Aspekte dieser zwei Typen von Relationen werden Gegenstand in Kapitel 2.2.3 sein.

Es bleibt noch nachzutragen, daß sich die Bestimmung von sprachlichen Strukturprinzipien in der Linguistik nicht nur auf solche in den Einzelsprachen beschränkt - man spricht dann von der Grammatik dieser Sprache -, sondern daß auch die für alle Sprachen gleichermaßen geltenden Gesetzmäßigkeiten festgelegt

werden sollen. Sie werden als linguistische Universalien bezeichnet.
Die folgende Abbildung gibt die bisher vorgestellten drei Arten sprachlicher Strukturbildung noch einmal wieder:

.

Abb. 4: Die drei Arten sprachlicher Strukturbildung (nach Bierwisch 1978, S. 34)

2.2.3 Das Sprachsystem

Die universelle und einzelsprachliche Systematik von Sprache, ihr Zeichencharakter und ihr strukturierter Aufbau spiegeln sich in den verschiedenen sprachwissenschaftlichen Teildisziplinen wider: Phonologie, Morphologie, Syntax, Semantik und Pragmatik. Die ersten beiden Beschrei-bungsebenen sollen hier nur am Rande behandelt werden, da sie nach meiner Ansicht für den späteren Vergleich mit musikalischen Strukturen nur bedingt Aussagewert haben. Die letzten drei Disziplinen hingegen sind bereits vielfach ausführlicher in bezug auf Musik diskutiert worden. Ihre grundlegenden Gesichtspunkte sollen daher vorgestellt werden.

2.2.3.1 Der semantische Aspekt

In Kapitel 2.2.2 habe ich bereits gezeigt, wie sich in der Sprache in einer Hinsicht Bedeutung konstituiert: durch die Beziehung sprachlicher Ausdrücke zur außersprachlichen Wirklichkeit. Der Gegenstand oder Sachverhalt, für den ein Ausdruck steht, heißt Denotat oder Referent. Was im Hinblick auf die mentale Verarbeitung von Sprache (s. Kap. 3) erwähnenswert ist, ist die Tatsache, daß die Verbindung zwischen Sprachzeichen und Referent nur über ein psychologisches Konzept/einen Begriff hergestellt werden kann, der im Gedächtnis des Sprachbenutzers abgespeichert ist. So könnte beispielsweise der Ausdruck Musikerin über den in viele semantische Merkmale aufgespaltenen Begriff

.

auf reale Musikerinnen verweisen.

Diesen Grundgedanken haben Ogen/Richards schon 1923 in ihrem semiotischen Dreieck festgehalten:


Abb. 5: Das semiotische Dreieck

Die dargestellte Art der Bedeutung heißt referentielle oder auch denotative Bedeutung. Daneben muß aber noch eine weitere Art des Bedeutungsaufbaus bestehen, die sich auf die Bedeutung größerer Einheiten, beispielsweise auf Sätze bezieht. Z.B. bedeuten die folgenden beiden Sätze nicht dasselbe, obwohl sie aus den gleichen Wörtern zusammen-gesetzt sind:

  1. Der Dirigent beschimpfte das Orchester.
  2. Das Orchester beschimpfte den Dirigenten.
Offensichtlich muß deshalb auch den syntaktischen Verknüpfungen (s. Kap. 2.2.3.2) eine bedeutungskonstituierende Wirkung zugesprochen werden. Schließlich kann zusätzlich der Verwendungszusammenhang die Bedeutung einer Aussage beeinflussen. Der Satz

Morgen gehe ich zur Polizei.

kann in verschiedenen Kontexten einmal als Versprechen, ein anderes Mal als Drohung aufgefaßt werden. Dieses Phänomen fällt in

den Aufgabenbereich einer weiteren linguistischen Teildisziplin: den der Pragmatik (s. Kap. 2.2.3.3).

Es existieren also drei Größen, die den sprachlichen Bedeutungsaufbau bestimmen. Auf einen Blick sind dies:

-die lexikalische Bedeutung der Wörter selbst, ausgehend von ihrer Beziehung zur außersprachlichen Wirklichkeit;
-der Verwendungszusammenhang;
-die bedeutungskonstituierende Funktion der Syntax.

Die syntaktischen Beziehungen sollen im folgenden genauer betrachtet werden.

2.2.3.2 Strukturaspekt Syntax

In der linguistischen Teildisziplin der Syntax geht es um die Beschreibung des Strukturaufbaus von Sätzen, d.h. es wird untersucht, wie innerhalb des Sprachsystems kleinere Einheiten zu nächstgrößeren kombiniert werden. Den Schlüssel zu einer solchen Analyse liefern die syntagmatischen und paradigmatischen Relationen, die ich bereits in Kapitel 2.2.2 vorgestellt habe.
Bevor ich jedoch genauer auf die "Baupläne" von Sätzen eingehen kann, müssen noch die kleineren Einheiten, aus denen ein Satz besteht, kurz beschrieben werden.

Exkurs: Phonem und Morphem

Die kleinste Einheit des Sprachsystems ist das Phonem. Es ist quasi die Abstraktion eines konkreten, hörbaren sprachlichen Lautes und hat die Funktion der Bedeutungsunterscheidung. So sind z.B. /b/ und /p/ Phoneme des Deutschen, denn Bein und Pein unterscheiden sich nur durch den Anfangslaut und besitzen dennoch zwei verschiedene Bedeutungen. Daß Phoneme abstrakte Einheiten der langue sind, zeigt sich daran, daß ein und dasselbe Phonem /b/ unterschiedliche Realisierungen auf der parole-Ebene haben kann; z.B.:
/b/ in Baum --> [baom] versus /b/ in Laub --> [laop]. Jede Sprache besitzt ein ihr eigenes Inventar an Phonemen.

Die nächstgrößere Einheit ist das Morphem. Es hat keine bedeutungsunterscheidende Funktion, sondern gilt als kleinste bedeutungstragende Komponente der langue. Das Wort Waldhorn setzt sich z.B. aus zwei Morphemen, nämlich aus Wald und Horn, zusammen, die beide für sich bedeutungshaltig sind.
Diese sehr vereinfachende Darstellung mag in diesem Zusammenhang genügen.

Auf der Wortebene fügen sich also Phoneme zu Morphemen zusammen und diese dann zu Wörtern. Wörter schließen sich wiederum zu noch größeren Einheiten/Konstituenten zusammen, welche in ihrer weiteren Kombination Satzebene erreichen. Dieser hierarchische Aufbau wird durch Abbildung 6 verdeutlicht:


Phoneme: In Satzanalysen geht man i.a. nicht mehr weiter bis zur Phonemanalyse.

Abb. 6: Der Satz als hierarchisches Gebilde

Diese Auffassung einer hierarchisch gegliederten Satzanalyse ist unter Linguisten vorherrschend.

Es herrscht zwar keine Übereinstimmung über Form und Klassifikation der Satzbaupläne, doch sowohl Konstituentenstrukturgrammatiken (vgl. z.B. Duden: Grammatik der deutschen Gegenwartssprache. 4. völlig neu bearb. und erw. Aufl., Mannheim 1984) als auch Dependenz- und transformationelle Grammatiken (vgl. z.B. U. Engel: Die deutschen Satzbaupläne. in: Wirkendes Wort 6 (1970), S. 361-392; H.J. Heringer: Theorie der deutschen Syntax. München 1970) haben als Kerngedanken die Beschreibung der abstrakten hierarchischen Struktur von Sätzen.

Aufgabe syntaktischer Analysen ist demnach die Bestimmung der einzelnen Konstituenten und - darüber hinausgehend - ihre Zuordnung zu syntaktischen Kategorien (z.B. Nomen, Verb, Nomi-nalphrase). Lezteres ist notwendig, um Regularitäten in den Reihen-folgebeziehungen (syntagmatische Relationen) der Konstituenten, aber auch auf der paradigmatischen Achse entdecken zu können. Ein Beispiel für eine Satzanalyse, die in Form von Strukturbäumen wiedergegeben wird, folgt in Abbildung 7:

Abb. 7: Strukturbaum

Der Vorteil einer solchen Strukturbeschreibung liegt auf der Hand: Es wird deutlich, daß den drei Sätzen, so unterschiedlich sie inhaltlich sind, dieselbe syntaktische Struktur zugrundeliegt. Umgekehrt kann, und das ist der typisch kreative Aspekt von Sprache, bei Kenntnis der Zeichen einer Sprache und ihrer Verknüpfungsregularitäten eine unendliche Menge neuer Sätze erzeugt werden. Dieser schöpferische Aspekt wurde allerdings erst nach Aufkommen der generativen Transformationsgrammatik ausführlicher untersucht (s. Kap. 2.2.4).

2.2.3.3 Der pragmatische Aspekt

Die Pragmatik ist noch eine relativ junge Disziplin der Linguistik und stellt einen Grenzbereich zwischen langue und parole dar, denn zum einen
"beschäftigt man sich mit Handlungs- und Situationsbezügen von sprachlichen Äußerungen sowie mit der Einbettung von Äußerungen in den sprachlichen Kontext." (Dürr/Schlobinski 1990, S. 193),
zum anderen steht sie in enger Beziehung zur Semantik, da gerade der Verwendungszusammenhang eine wichtige Rolle in der Bedeutungskonstitution spielt (s. Kap. 2.2.3.1).
Es existiert eine kaum überschaubare Vielfalt von pragmatischen Auf-fassungen und Konzeptionen. Über einen Punkt, der für einen späteren Argumentationszusammenhang wichtig ist, herrscht aber Einvernehmen: die Tatsache, daß Gesprochenes nicht nur auf die außersprachliche Wirklichkeit verweist, sondern immer auch in der

einen oder anderen Weise intentional gemeint ist. Man kann beispielsweise jemanden zu etwas auffordern oder auch seine eigene Einstellung zu einem Sachverhalt darlegen. Eines der meistdiskutierten Kommunikationsmodelle - das Organonmodell von Karl Bühler - bringt diese grundlegende Idee auf den Punkt:


Abb. 8: Das Organonmodell von Bühler (nach Bussmann 1983, S. 365)

Einem Teilbereich der Pragmatik geht es nun darum, herauszuarbeiten, welche kontextuellen Voraussetzungen erfüllt sein müssen, damit die Äußerung eines bestimmten Satzes auch die beabsichtigte Wirkung hervorruft.
Weitere Details erspare ich mir, denn der für die folgende Argumentation wichtigste Aspekt pragmatischer Forschung ist deutlich geworden: Es geht beim aktuellen Gebrauch von Sprache nicht nur darum, zu hören, was gesagt wird, sondern auch darum, zu verstehen, was gemeint ist.

2.2.4 Aspekte der generativen Transformationsgrammatik

Die zweite wichtige Strömung innerhalb der modernen Linguistik ist - neben dem Strukturalismus - die generative Transformationsgrammatik (gTG). Ohne hier auch nur entfernt eine umfassendere Beschreibung ihrer Konzeptionen und Methoden bieten zu können, möchte ich dennoch einige herausragende Gesichtspunkte ansprechen, die im Hinblick auf Kapitel 3 und 4 von Bedeutung sind.
Zunächst muß erwähnt werden, daß die gTG keine gänzlich neue, umstürzlerische Betrachtung von Sprache darstellt, sondern im ganzen eher als Umorientierung des Strukturalismus gilt. Die

formalen Maßnahmen gleichen sich häufig, aber Zielsetzung und Reichweite der Methodologie weichen vom Strukturalismus ab. Ziel ist nicht mehr nur eine vom Benutzer weitestgehend abstrahierende Beschreibung von Sprache, sondern es geht darum, ein Modell der menschlichen Sprachfähigkeit zu entwickeln, das erklären kann, wie Menschen mit Hilfe eines abstrakten, verinnerlichten Sprachsystems unendlich viele neue Sätze bilden (= generieren) und verstehen können Nicht umsonst hat sich die Pragmatik erst im Anschluß an die Ideen der gTG als sprachwissenschaftliche Teildisziplin etabliert. (vgl. Pelz 1981, S. 154).

Die Begriffe langue/parole finden sich zwar in diesem Sinne in der analog gebildeten Dichotomie Kompetenz/Performanz wieder, doch mit Kompetenz sind auch beim (idealisierten) Sprecher/Hörer vorhandene mentale Regeln und Mechanismen gemeint. Anders ausgedrückt: Kompetenz meint die Fähigkeit, Sätze zu produzieren bzw. zu verstehen. Performanz dagegen ist die Anwendung dieser Regeln im aktuellen Sprachgebrauch.


Abb. 9: Schema von Chomskys Standardtheorie (aus: Bechert u.a. 1974, S.176)

Von jedem Satz nimmt Chomsky, der Begründer der gTG, an, daß ihm eine abstrakte Basisstruktur zugrundeliegt, die sowohl syntaktische als auch semantische Informationen jenes Satzes enthält. Diese Grundstruktur wird als Tiefenstruktur bezeichnet. Durch die Anwendung von sogenannten Transformationsregeln kann sie in

eine andere Struktur, die Oberflächenstruktur, überführt werden. Erfährt die in ihr enthaltene Infor-mation über die Konstituenten des Satzes noch eine phonetische (= lautliche) Interpretation, ist das Ergebnis die aktuelle und unmittelbar beobachtbare Gestalt des Satzes (s. Abbildung 9).

Es existieren zwar bereits neuere generative Modelle, doch der wesentliche Punkt, auf den es mir hier ankommt - die Ableitung einer Oberflächen- aus einer Tiefenstruktur -, wird auch in diesem älteren und meiner Ansicht nach übersichtlicheren Modell deutlich.

Interessant ist diese Auffassung zweifellos deshalb, weil zwei formal unterschiedlichen Äußerungen durchaus dieselbe inhaltliche Information zugrundeliegen kann:
  1. 1. Das Publikum feierte den Pianisten.
  2. 2. Der Pianist wurde vom Publikum gefeiert.
In beiden Fällen handelt es sich um den gleichen Akteur (Publikum), und Handlung (feiern) sowie Ziel der Handlung (Pianist) sind ebenfalls konform. Durch das Transformationskonzept Chomskys kann nun also erklärt werden, wie ein kompetenter Sprecher aus einer bestimmten Tiefenstruktur verschiedene Oberflächenstrukturen hervorbringen (= generieren) kann. Wird das Konzept vom Hörer in umgekehrter Richtung angewendet, ist er in der Lage, zwei verschiedene Äußerungen als Paraphrasen voneinander zu erkennen (s.o.) bzw. zwei gleichlautenden Äußerungen zwei unterschiedliche Inhaltsstrukturen zuordnen zu können (z.B.: Ich schicke dem Geiger aus Paris eine Nachricht. --> 1. Es gibt einen Pariser Geiger, dem ich eine Nachricht schicke. 2. Ich schicke dem Geiger von Paris aus eine Nachricht.)
Zwar ist inzwischen mehrfach belegt worden, daß Chomskys Annahme der Übertragbarkeit linguistischer Methoden der Satzgenerierung und Satzanalyse auf die mentalen Prozesse der Produktion und Analyse von Sprache nur z.T. aufrechterhalten werden kann (vgl. Hörmann 1976, Kap. III; s. auch Kap. 3), wichtig ist aber - als Fazit dieses Teilkapitels -, daß mit der gTG ein erster Schritt in Richtung auf eine Beschreibung kognitiver Prozesse der Sprachverarbeitung getan wurde. Einige der eben vorgestellten Grundgedanken besitzen durchaus auch Erklärungswert für die Musik, wie sich in den nachfolgenden Kapiteln zeigen wird.

2.3 Das Verstehensobjekt Musik

2.3.1 Das Verstehen von Musik und die Systematische Musikwissenschaft

Bisher habe ich vorgestellt, welche Eigenschaften von Sprache sie zu einem Verstehens-Objekt machen. Dazu wurde die Linguistik als (hauptsächlich) theoretisch ausgerichtete Wissenschaftsdisziplin herangezogen.
Analog zum vorigen Kapitel soll es im folgenden um Erscheinungsformen und Gesetzmäßigkeiten von Musik gehen. Dabei wird zu prüfen sein, ob man in bezug auf Musik überhaupt von Verstehen sprechen kann. Diese Frage hat in der fachlichen Literatur durchaus sehr kontroverse Meinun-gen hervorgebracht (vgl. z.B. Faltin/ Reinecke 1973).
Gesetzmäßigkeiten von Musik begrifflich-systematisch zu erfassen, ist Aufgabe der Musikwissenschaft. Ein Teilbereich, die sogenannte Systematische Musikwissenschaft, betrachtet ihren Gegenstand - ähnlich wie der Strukturalismus in der Linguistik - als Zustand eines bestimmten Zeit-punktes in der Geschichte. Carl Dahlhaus (1982, S. 29) definiert ihren Aufgabenbereich folgendermaßen:
"Primärer Gegenstand [...] ist die Beschreibung, Analyse und Interpretation von Funktionszusammenhängen zwischen akustischen Tatsachen, gehörpsychologischen Phänomenen, ästhetischen Prämissen oder Implikationen, theoretischen Überlieferungen und kompositorischen Intentionen."
Historische Entwicklungsprozesse gehören dagegen in den Bereich der Historischen Musikwissenschaft (bzw. der Historischen Linguistik). Neben den offensichtlichen Parallelen in der Gliederung der sprach- bzw. musikbezogenen Wissenschaftsdisziplinen besteht aber auch ein gravierender Unterschied, der gleichzeitig eine wichtige Abweichung musikalischer Gebilde von sprachlichen widerspiegelt: Während die Systematische Musikwissenschaft sowohl Musiktheorie, Musiksoziologie und Musikpsychologie als auch die Musikästhetik umfaßt, grenzt die Linguistik die Betrachtung sprachlicher Erscheinungen mit ästhetischem Wert aus und überläßt diese der Systematischen Literaturtheorie. Bierwisch (1978, S. 13) hat dieses Faktum in folgendem Schema zusammengefaßt:


Abb. 10: Gliederung der sprachlichen und musikalischen Wissenschaftsdisziplinen

Damit wird klar, daß musikalische Gebilde immer, sprachliche dagegen nur manchmal Gegenstand der Ästhetik sind.

Für das weitere Vorgehen bestehen nun zwei Möglichkeiten. Zur Beschreibung musikalischer Gebilde könnte die in ihrer Funktion der theoretischen Linguistik am nächsten kommende Musiktheorie herangezogen werden. Ziel wäre ein Vergleich musiktheoretisch und linguistisch beschriebener Strukturen sowie das Aufzeigen von methodischen Parallelen. Dieses Vorgehen ist aber insofern unelegant, als es mindestens ebenso viele theoretische Beschreibungsmethoden wie musikalische Stile gibt, wodurch sich ein Vergleich musikalischer mit sprachlichen Strukturen schwierig gestaltet. Mit anderen Worten: Führt man sich noch einmal die drei Arten sprachlicher Strukturbildung (s. Abb. 4, S. 15) vor Augen, die in der Linguistik unterschieden werden und die grundsätzlich auch auf die Musik übertragen werden können, so wird deutlich, daß sich die Musikwissenschaft fast ausschließlich mit den letzten beiden Arten der Strukturbildung befaßt hat. Jedoch:

"Die phylogenetisch entstandenen Grundlagen möglicher musikalischer Systeme müssen durch musikalische Universalien (meine Hervorhebung, N.K.) beschreibbar sein. Auf diesen müssen die ontogenetisch zu erwerbenden musikalischen Codes beruhen, aus denen sich die Struktur der einzelnen musikalischen Gebilde ergibt." (Bierwisch 1978, S. 34)

Die genannten Universalien werden erst seit ein paar Jahren im Rahmen der Kognitiven Musikpsychologie diskutiert, doch ein gemeinsamer Nenner ist noch nicht auszumachen.
Aufgrund dessen werde ich - mit Ausnahme einiger Einschübe aus dem Bereich der Musiktheorie - einen anderen Weg einschlagen,

der gleichzeitig Gemeinsamkeiten und Unterschiede von Musik und Sprache aufzeigt und evtl. musikalische Universalien aufzudecken hilft. Ausgehend von der in den 60er/70er Jahren aufgekommenen Hypothese, Musik sei wie Sprache eine akustische Kommunikationsform und bilde wie diese ein Zeichensystem, wird im folgenden die Übertragbarkeit linguistischer Terminologie und Methodologie thematisiert. Dieser semiotische Ansatz, der in seiner Anfangsphase Hoffnungen auf eine einheitlichere Form der musikalischen Analyse weckte, muß zwar recht kritisch betrachtet werden, erscheint mir aber dennoch als Ausgangspunkt für einen Vergleich sprachlicher und musikalischer Phänomene geeignet, zumal die oben erwähnte ästhetische Problematik auf diese Art und Weise zunächst außen vorgelassen werden kann.

2.3.2 Zur Übertragbarkeit linguistischer Terminologie und Methodologie

Nicht nur unter semiotisch orientierten Wissenschaftlern ist man sich weitgehend einig darüber, daß Musik zum einen als abstraktes System von regelhaft aufeinander bezogenen Einheiten existiert (auch über einzelne Musikstile hinaus), und daß auf der anderen Seite die aktuelle Benutzung dieses Systems steht. Eine analoge Dichotomie zu langue/parole kann also auch im musikalischen Bereich wiedergefunden werden.
Die Semiotiker gehen aber noch einen Schritt weiter. Adam Schaff, einer der Vertreter des musikalisch-semiotischen Ansatzes, brachte in den frühen 70er Jahren die Vorstellungen seiner Mitstreiter auf den Punkt:

"Die Sprache der Musik verfügt über alle Elemente, die nicht nur erlauben, eine Analogie zu den natürlichen Sprachen herzustellen, sondern sie in ähnlicher Weise zu analysieren." (Schaff 1973, S. 281)

Die Musik-Sprache-Analogie wird in dieser krassen Anschauung heute nicht uneingeschränkt geteilt. Gruhn (1989, S. 67/68) warnt beispielsweise vor einer zu engstirnigen Übertragung von linguistischen Prinzipien auf den musikalischen Bereich, denn dieses Vorgehen

"[...] fördert ein Denken in Analogien und verstellt eher den Blick für die spezifischen Differenzen zwischen sprachlich begrifflicher und musikalischer Bedeutung."

Schneider (1980, S. 240/241) meint sogar:

"Das Problem der "Bedeutung" von Musik, [...], kann nicht mit der Bedeutung linguistischer oder semiotischer Systeme verglichen bzw. überhaupt nicht semiotisch erfaßt werden. Vielmehr verlangt es eine eigenständige musikalische Gehaltsforschung."

Wie sich im weiteren zeigen wird, ist diese letzte Ansicht allerdings ebenso kurzsichtig wie die blinde Übertragung linguistischer Methoden, vor der Gruhn warnt. Eine kritische Hinterfragung sprachwissenschaftlicher Terminologie und Methodologie im musikalischen Bereich bringt nämlich durchaus einige Ähnlichkeiten ans Tageslicht.
Da der Aspekt der musikalischen Bedeutungskonstitution zentral für das Verständnis der Gemeinsamkeiten und Abweichungen sprachlicher von musikalischen Objekten ist, werde ich auf ihn größere Aufmerksamkeit richten, bevor ich mich dann - parallel zur Beschreibung des Sprachsystems in Kapitel 2.2 - der "musikalischen Syntax" und "Pragmatik" zuwende.

2.3.2.1 Musikalische Bedeutungskonstitution

Den obigen Ausführungen folgend möchte ich zu Anfang darauf hinweisen, daß zwischen einer Bedeutungskonstitution auf musikalischer "langue"-Ebene (= schriftlich fixierter Notentext) und derjenigen auf musi-kalischer "parole"-Ebene (= tatsächlich erklingende Musik) zu unterscheiden ist. Die Aufführung von Musik ist immer zugleich auch eine Interpretation des musikalischen Textes und vermag neue Bedeutungsaspekte mit einzubringen. Im folgenden soll es zunächst um die musikalische langue-Ebene gehen.

Wie in Kapitel 2.2 gezeigt wurde, ist eine Hauptfunktion von sprachlichen Zeichen der Verweis auf Gegenstände und Sachverhalte in der außersprachlichen Wirklichkeit (Darstellungsfunktion; s. Bühlers Organonmodell S. 20). Dieser Verweischarakter ist aber keineswegs auf den sprachlichen Bereich beschränkt. Von jeher ist auch mit musikalischen Mitteln versucht worden, auf etwas

außerhalb der Musik Existierendes Bezug zu nehmen. Daß Musik nicht nur Form und Klang ist, sondern auch Begriffliches verkörpern kann, wird insbesondere zur Zeit der Nachahmungsästhetik deutlich. Die Natur, d.h. reale hör- und sichtbare Vorgänge sowie menschliche Affekte sind hier das Vorbild, das es musikalisch abzubilden gilt.
Die Beziehung zwischen musikalischem Zeichen und bezeichnetem Sachverhalt kann dabei (muß aber nicht) wie beim sprachlichen Zeichen willkürlicher Art, also nachträglich "gesetzt" bzw. verabredet sein. Drei Beispiele sollen zur Verdeutlichung dieser arbiträren Codierungsart herausgegriffen werden:

a) Symbolik in Form eines Zahlenalphabets

Die Buchstaben des Alphabets werden durchnumeriert; durch Addition der jeweiligen Zahlen können etwa Namen in der Musik verschlüsselt werden. [Z.B. JOHANN SEBASTIAN BACH = 158 = Anzahl der Melodietöne in Bachs Orgelchoral "Wenn wir in höchsten Nöten sein" BWV 641]

b) Zahlensymbolik

Zahlen können konventionell für einen bestimmten Begriff stehen [z.B. 3 = Dreieinigkeit], der dann in der Anzahl an Stimmen, Tönen, Takten oder Sätzen verschlüsselt wird.

c) Tonbuchstabensymbolik

Mit denjenigen Buchstaben des Alphabets, die Notennamen be-zeichnen, kann musikalisch "geschrieben" werden. [Z.B. b-a-c1-h als drittes Thema von J.S. Bachs "Fuga a 3 soggetti" in der "Kunst der Fuge"; ein Beispiel aus der Romantik: das Thema der ABEGG-Variationen (op. 1) von R. Schumann]

Sprachliche wie musikalische symbolische Zeichen stellen allerdings nur eine Teilklasse der Zeichen im allgemeinen dar. Während bei ihnen der Zusammenhang zwischen Bezeichnendem und Bezeichnetem ausschließlich auf Konventionen der sprachlichen bzw. kulturellen Gemeinschaft beruht, hält die Semiotik für Zeichen, bei denen der o.g. Zusammenhang motivierter Natur ist, die Begriffe Ikon und Index bereit (s. Abb. 11).


Abb. 11: Die Codierungsarten (erweitert nach: Bierwisch 1978, S. 44)

Ein Ikon liegt vor, wenn zwischen Lautform und Bedeutung eine Ähnlichkeit besteht, also eine strukturelle Beziehung vorliegt. In der Sprache kennt man diesen Typ Zeichen von den lautmalenden Wortschöpfungen (Onomatopöie) wie "Kuckuck" oder "Bums". Auch in der Musik werden strukturell vermittelte Codierungsarten verwendet, die man in zwei Gruppen aufspalten kann:

a) Imitation

Die lautliche Form des Bezeichneten wird unmittelbar in die Musik übertragen. [Z.B. akustische Erscheinungen wie Tier-, insbesondere Vogelstimmen, Gewitter, Jagdrufe, etc.]

b) Deskription

Bei dieser Art der Tonmalerei wird optisch wahrnehmbare Bewegung, also etwa Vorgänge in der Natur oder szenische Handlungsabläufe in Tonbewegungen übertragen sowie Charakterzüge von Personen in Musik übersetzt. [So wird beispielsweise in den "Pièces de Clavecin" (1713) von F. Couperin die flatterhafte Bewegung von Schmetterlingen nachgezeichnet ("Les Papillions"), und in "Die Eilige" ("La Diligente") erscheinen unruhige Sechzehntelketten als Abbild hastiger Bewegung.]

Besteht zwischen Klanggestalt und Bedeutung dagegen ein kausaler Zusammenhang, so spricht man von indexikalischen Zeichen. Die kausale Verknüpfung kommt dabei durch das Eingebettetsein der Lautform in ei-nen bestimmten Verwendungszusammenhang zustande, der ihr so eine konkrete Bedeutung verleiht. Später kann die Klanggestalt die jeweilige Bedeutung dann auch assoziativ - ohne den ursprünglichen Kontext - vermitteln: beschleunigter Puls als Index für Fieber, eine werbefunktionale Wortneuschöpfung als

Anzeichen für ein bestimmtes Produkt ("aprilfrisch" --> bestimmter Weichspüler), etc.. In der (Bühnen-)Musik finden sich solche kausalen Verknüpfungen beispielhaft in Form von Leitmotiven, aber auch musikalische Zitate werden gezielt zur Bedeutungskonstitution eingesetzt. [Z.B. unterlegt R. Strauss in seiner Oper "Die Frau ohne Schatten" der Liebesmelodie des Kaisers ein Motiv aus "Elektra", das dort ursprünglich mit dem Text "Kinder will ich haben" unterlegt ist. Da der Kaiser, falls seine Frau nicht innerhalb eines Jahres ein Kind zur Welt bringt, versteinert wird, erwächst dem Zitat durch die textliche Bedeutungsübertragung die Funktion eines psychologischen Kommentars.] Neben wörtlichen Zitaten können selbst Genre- oder Stilzitate indexikalischen Charakter besitzen, denn auch musikalische Gattungen und Stile vermögen es, auf Erfahrungen basierende, reichhaltige Assoziationen auszulösen. Einige weitere Aspekte zu Musik und Verwendungs-zusammenhang folgen in Kapitel 2.3.2.3.
Zumindest am Rande muß jedoch angemerkt werden, daß eine systematische Kategorisierung der musikalischen bedeutungserfüllten Zeichen häufig nicht möglich ist. In vielen Fällen sind z.B. rhetorische Figuren ebenso sehr Naturnachahmung wie auch konventionell festgelegte Symbole. Die Grenzen sind daher eher fließend.

Neben der Möglichkeit, mit Musik die außermusikalische Wirklichkeit abzubilden, ist auch versucht worden, differenzierte Empfindungen in der Musik auszudrücken (bzw. hervorzurufen). Nicht erst seit der Verdrängung des Nachahmungs- durch das Ausdrucksprinzip um 1750 (vgl. auch erneut mit Bühlers Organonmodell, S. 20) spricht man von Musik als einer "Sprache der Gefühle". Während es sich allerdings im Barock bei der Darstellung von Affekten noch um einen intellektuellen Vorgang handelt, bei dem die Mittel des Ausdrucks ebensosehr auf Übereinkunft wie auf Deskription beruhen (Bsp. Figurenlehre), geht es ab der zweiten Hälfte des 18. Jahrhunderts in erster Linie um die Repräsentation individueller, intuitiver Empfindungen. Sie können vom Hörer z.T. unmittelbar nach-vollzogen werden, da sich Gefühle

"[...] in typischen Verhaltensweisen, Aktionen, Gesten und stimmlichen Äußerungen

In der Sprache finden sich emotionale Qualitäten vor allem im Bereich der Prosodie (= u.a. Sprachtonfall). Wird diese in der Musik ikonisch nachgeahmt, können so indirekt ebenfalls Empfindungen abgebildet werden. Man denke z.B. an die Sprechmotivik Janaceks oder den "Dialog" zwischen "Samuel Goldenberg und Schmuyle" in Mussorgskijs "Bilder einer Ausstellung".

[manifestieren]. Diese
können mit den Mitteln der Musik unter Ausnutzung von synästhetischen und intermodalen Qualtitäten [...] in ihrer Verlaufsform dargestellt bzw. imitiert und vielfältig variiert werden."

(Rösing 1993, S. 579).

Zwar kann diese ikonisch-deskriptive Codierung von Empfindungen einige elementare, universal nachweisbare Gefühlsqualitäten abbilden, die i.a. durch die vier Begriffe Freude, Trauer, Machtgefühl und Zärtlichkeit klassifiziert und durch kulturspezifisch geprägte Ausdrucksmuster ergänzt werden können (eine ausführliche Darstellung der zu den jeweiligen emotionalen Qualitäten analogen musikalischen Charakteristika findet sich in Rösing 1993, S. 580/581); es wäre jedoch mehr als zweifelhaft, ein "Lexikon des musikalischen Ausdrucks" entwerfen zu wollen, das die tonale Musik zwischen 1600 und 1900 regelrecht "seziert" und konkreten melodischen Konfigurationen jeweils einen ganz bestimmten affektiven Gehalt zuweist (so geschehen in Derryck Cooke's "The Language of Music" (1959)).


Tab. 2: Überblick über Ziel, Mittel und Art musikalischer Codierung

Das Herausreißen von Melodieabschnitten aus dem musikalischen Kontext ist hier ebenso dubios wie in allgemeiner Hinsicht die Einengung musikalischer Bedeutung auf den bisher vorgestellten Verweischarakter (s. Tab. 2 für einen Überblick über die musikalischen Codierungsarten und -ziele). Dies hieße nämlich, die Vielfalt musikalischer Bedeutungs- und Informationsebenen zu ignorieren. In diesem Sinne äußert sich Britten:

"Es gibt sehr wenig Musik, die sofort erfaßt werden kann. Ich bin bestürzt darüber, daß viele Leute Musik nur um der Gedanken willen lieben, die sie in ihnen beim Zuhören weckt. Sie stellen sich wundervolle Szenen vor, [...]. Das macht ihnen Vergnügen, aber es ist doch nicht die Musik, die sie erfreut, sondern die von der Musik angeregten Assoziationen. Das Höchste an Nutzen und Freude beim Anhören von Musik liegt viel tiefer: in der Wertschätzung und Liebe zu den Melodien um ihrer selbst willen, zum Erregenden der Rhythmen, zur Faszination der Harmonie um ihrer selbst willen; in der überwältigenden Befriedigung, die uns ein gut gebautes Musikstück gibt." (Britten 1993, S. 5)

Wie schon Hanslick ("Vom Musikalisch-Schönen", 1854) proklamiert Britten damit, daß auch Formmerkmale bedeutungskonstituierende Funktion besitzen. Dahinter steht die Ansicht, daß auch die Musik, ähnlich der Sprache, eine Syntax besitzt, die die musikalischen Einheiten regelhaft miteinander verknüpft. Wie in der Sprache entsteht durch das geregelte Zusammenfügen eine weitere Bedeutungsschicht, die sich nicht auf die einzelnen Elemente zurückführen läßt, und die rein innermusikalischer Art ist. Musikalische Bedeutung entsteht somit nicht nur durch einen verschlüsselten "Inhalt", sondern zeigt sich auch im tektonischen Aufbau einer Komposition. Adorno hebt in seinem " Fragment über Musik und Sprache " (1956/57) diesen Gesichtspunkt hervor:

"Der musikalische Inhalt aber ist in Wahrheit die Fülle alles dessen, was der musikalischen Grammatik und Syntax unterliegt." (in: Knaus 1973, S.75)

Auch dieser Standpunkt stellt natürlich erneut eine eingeengte Sichtweise musikalischer Bedeutungskonstitution dar, doch ist der syntaktische Aspekt unbestritten einer ihrer wesentlichen Bestandteile und soll nun näher beleuchtet werden.

2.3.2.2 Musikalische Syntax

Da Musik, wie Sprache, ein zeitliches Phänomen ist, setzt sie sich wie jene aus linear miteinander verknüpften Ereignissen zusammen. Letztere besitzen zwar nur vereinzelt eine semantische Fundierung wie die sprachlichen Symbole, doch sollte das nicht daran hindern, von musikalischer Syntax zu sprechen, da auch sogenannte "formale" oder "logische Sprachen" aus einem nicht-symbolischen Vokabular bestehen (s. Stoffer 1990, S. 61).

Das musikalische Linearitätsprinzip besitzt jedoch eine auffällige Besonderheit: zu jedem Zeitpunkt der Aufeinanderfolge können mehrere Ereignisse gleichzeitig stattfinden. In der Sprache wird ein solches Zusam-mentreffen aus Verständnisgründen zumeist vermieden, doch im Regelsystem der musikalischen Syntax müssen Mehrstimmigkeit und Akkordaufbau eine direkte Berücksichtigung finden.
Der formale Zusammenhang auf der Zeitachse läßt sich hingegen der Sprache ähnlich nach dem Hierarchieprinzip beschreiben: z.B.


Bei den in diesem Schema verwendeten Begriffen soll es sich um neutrale Einheiten handeln, die nicht mit einem bestimmten musikalischen Stil in Verbindung gebracht werden sollten.

Abb. 12: Musikalisches Hierarchieprinzip

Stufenweise können Einheiten höherer Ordnung gebildet werden, wobei Vorsicht geboten ist, z.B. Motive mit Wörtern (vgl. z.B. Houghton 1984, S. 78) oder Phrasen mit Sätzen gleichzustellen. Während sich nämlich sprachliche Zeichenfolgen lückenlos in Wörter zerlegen lassen müssen, gilt das gleiche nicht für die Einheiten einer musikalischen Passage. Auch nicht-motivisches Material kann auftauchen und sich mit benachbarten Motiven zu höheren Einheiten zusammenschließen (s. Bierwisch 1978, S. 41). Überhaupt sind die Grenzen musikalischer Einheiten häufig nicht so eindeutig bestimmbar wie in der Sprache:

"Linguistic grammars are strict and deal with strictly defined elements and subunits. Musical grammars are more or less flexible (at least at a certain level) and deal with elements or subunits which can often only be defined in fuzzy terms (e.g. 'combination of one ore more subjects in exposition')." (West/ Howell/Cross 1991, S.26)

Die genannten Besonderheiten musikalischer Syntax sollten aber nicht darüber hinwegtäuschen, daß auch sie eine durch das Linearitäts- und Hierarchieprinzip vertretene, sprachähnliche Regelhaftigkeit

Problematisch ist sicherlich, daß einige musikalische Stile des 20. Jahrhunderts (z.B. die Aleatorik) keine derartigen Regelhaftigkeiten aufweisen. Eine interessante, den weiteren Kapiteln vorgreifende Frage wäre in diesem Zusammenhang, ob die schwierige Nachvollziehbarkeit solcher Musik mit eben jener Regellosigkeit zusammenhängt. In Kapitel 4.4 komme ich genauer darauf zurück.

aufweist, die es ermöglicht, unendlich viele neue musikalische Sequenzen hervorzubringen. Selbstverständlich sind diese Gesetzmäßigkeiten von sich relativ schnell wandelnden musikalischen Stilen abhängig, so daß beispielsweise das tonale Prinzip der Wiener Klassik auf gänzlich anderen Regularitäten fußt als die Zwölftonmusik Schönbergs. Im ersten Fall garantiert - im Gegensatz zum zweiten - u.a. eine harmonisch-syntaktische Komponente, daß sich bei der Verknüpfung von musikalischen Einheiten durch den Bezug auf ein tonales Zentrum funktionale Bedeutungsaspekte ergeben. Dies ist in dem Sinne gemeint, daß in G-Dur die Folge c-e-g -> d-fis-a -> g-h-d eine andere Funktion (authentische Kadenz) und damit eine andere Bedeutung (Zäsur/Abschluß) besitzt als die gleiche Akkord-Folge mit e-g-h als letztem Akkord (= Trugschluß).
Auf der einen Seite gibt es also eine standardisierte Norm (Kadenz) und auf der anderen die Abweichung, die man auch als paradigmatische Variante bezeichnen könnte. Dieses Spannungsverhältnis ist insofern bedeutsam, als es wichtige Grundlage für die Entstehung ästhetischer Qualitäten von musikalischen (und manchmal sprachlichen) Gebilden ist (s. Gruhn 1989, S. 74). Eco schreibt dazu:

"Die ästhetische Mitteilung verwirklicht sich, indem sie gegen die Norm verstößt." ("Il messaggio estetico [...] si attua nella l'offendere la norma" Umberto Eco zitiert nach Ingmar Bengtsson 1973, S. 31)

Normen sind dabei zu definieren als ideale, invariante Grundstrukturen eines bestimmten Stils oder Genres.
An dieser Stelle wird deutlich, welche guten Dienste das Modell der gTG von Chomsky leisten könnte. Das standardisierte syntaktische Idiom eines Stils könnte der (wenn auch nicht durchgängig semantisch fundierten) Tiefenstruktur entsprechen, aus der die mehr oder weniger abweichende Oberflächenstruktur des individuellen musikalischen Textes abgeleitet werden kann. Die ästhetische Qualität wäre somit als Ausmaß der Irregularität bzw.

der angewandten Transformationsregeln beschreibbar. Tatsächlich hat es nicht an Versuchen gefehlt, die Ansätze der gTG auf die Musik zu übertragen. Dazu mehr in Kapitel 4.
In diesem Zusammenhang ist erwähnenswert, daß auch Musiktheoretiker formale Systeme zur Analyse von (tonaler) Musik vorgeschlagen haben, vornehmlich im harmonischen Bereich. Herauszuheben ist hier Heinrich Schenker, der im "Freien Satz" (1956) eine harmonische Analysemethode vorstellt, die häufig mit Chomskys Konzept verglichen wird (s. z.B. Ler-dahl/Jackendoff 1983 S. 337 Anm. 1; Sloboda 1985, Kap. 2.2). Schenker geht davon aus, daß es wichtige und weniger wichtige harmonische Ereignisse in tonalen Kompositionen (von Bach bis Brahms) gibt.
Durch wiederholte Über- und Unterordnung

Man beachte den hierarchischen Aufbau, der weiter oben schon angesprochen wurde.


könne man jede dieser Komposi-tionen auf ein einfachstes harmonisch-melodisches Skelett, den Ursatz (I-V-I plus Urlinie: 3-2-1), zurückführen. Dieser bildet den Hintergrund, der durch Verwandlungen aus dem Vordergrund, dem existenten musikalischen Text, gewonnen werden könne.
Die Nähe zu Chomskys Tiefenstruktur, Transformationsregeln und Oberflächenstruktur liegt auf der Hand, wenngleich Schenkers Orientierung nicht psychologischer Art ist wie die Chomskys. Die darüber hinaus bestehenden Unterschiede sollen und können hier nicht thematisiert werden. Mir ging es auch nur darum, zu zeigen, daß sowohl Linguistik als auch Musikwissenschaft die Möglichkeit und den Nutzen der Unterscheidung sprachlicher/musikalischer "Tiefen-" und "Oberflächenstrukturen" sowie die systematische Überführung der einen in die andere erkannt haben.

Zwei Arten musikalischer Bedeutungskonstitution habe ich bisher ausführlicher vorgestellt: expressive, tonale Gesten und Symbole und das Beziehungsgefüge der Syntax. Diesen quasi musikinternen Komponenten ist noch eine externe hinzuzufügen, die bereits in Kapitel 2.3.2.1 angeklungen ist: der historische und soziokulturelle Zusammenhang, in dem Musik erscheint und den man als musikalisch-pragmatischen Aspekt bezeichnen könnte.

2.3.2.3 Musik und Verwendungszusammenhang

Musikalische Kompositionen und ihr Gehalt sind nicht zu trennen von Entstehungskontext, Rezeptionsgeschichte und allgemeinem Verwendungszusammenhang, die allesamt konkrete Einflüsse auf die in den letzten Kapiteln beschriebenen innermusikalischen Bezüge haben. So konnten z.B. zur Zeit der Wiener Klassik im Zuge des Humanitätsgedankens nur einfache Strukturbildungen - u.a. die musikalische Periode - zur kompositorischen Norm werden.
Auch Ereignisse aus der Rezeptionsgeschichte können ein musikalisches Werk regelrecht "beschriften". Ein Beispiel dafür ist die regelmäßige Verwendung von Liszts "Les Préludes" zu Beginn der Wochenschauen im Dritten Reich. Sie stellt der Komposition bestimmte konnotative Bedeu-tungen zur Seite, die sie ursprünglich nicht mitbringt und die auch ohne den genannten Kontext bestehen bleiben. Diese "Beschriftung", deren Ursache also im funktionalen Verwendungszusammenhang liegt, ist zudem gebräuchliches Mittel in der Werbung oder läßt fragmentarische Melodien als Kennmelodien für Rundfunk- und Fernsehsendungen erscheinen (s. indexikalischer Zeichencharakter, Kap. 2.3.2.1).
Der Gebrauch von Zeichen und Strukturen trägt somit wesentlich dazu bei, neue Bedeutungen zu bilden und alte abzuwandeln. Der bei späterem Hören wahrnehmbare Verweis auf den ursprünglichen Gebrauch erstreckt sich auf alle kontextuellen Variablen, u.a. den Ort der Verwendung (z.B. Orgelklang als kirchliche Erscheinung) und den funktionalen Gebrauch (z.B. Erkennen eines bestimmten Liedes als Nationalhymne). Dieser Prozeß stellt aber keineswegs eine "Einbahnstraße" dar, soll heißen: Es ist nicht gleichgültig, welche Musik ich in einen bestimmten funktionalen Zusammenhang stelle, da sie, wie in den Kapiteln 2.3.2.1 und 2.3.2.2 dargestellt, immer auch schon von sich aus interne vorsprachliche Bedeutungsaspekte mitbringt. Beispielsweise wäre eine Musik im Zärtlichkeitsgestus ziemlich schlecht geeignet für einen Werbespot, der die Schmutzlösekraft eines Reinigungsmittels propagieren soll.
Beim Prozeß der musikalischen Bedeutungskonstitution entsteht also vielmehr eine Wechselwirkung, eine Verzahnung interner und externer Komponenten, wobei die von den innermusikalischen Bezügen der Werke eingebrachten Bedeutungselemente immer schon auch

"[...] ihrerseits musikalische Strukturen für einen bestimmten Verwendungszusammenhang konditionieren."
(Gruhn 1989, S. 77)

Die oben dargelegten, im weitesten Sinne kontextuellen Variablen machen damit zu einem wesentlichen Teil das aus, was man gemeinhin als den musikalischen Gehalt eines Werkes bezeichnet. Darin gehen letztlich die innere Logik der Komposition und ihr ästhetischer Gehalt auf, die es von den präsenten klanglichen Eigenschaften und den Strukturmerkmalen zu unterscheiden gilt.
Damit kann abschließend festgehalten werden, daß bei der Übertragung auf die Musik die Beschreibungsebenen von Semantik, Syntax und Pragmatik sowohl einige auffällige Gemeinsamkeiten mit der Sprache als auch spezifisch musikalische Phänomene zum Vorschein bringen.
Einen zusammenfassenden Vergleich stelle ich nun, gekoppelt mit der Verstehensproblematik, in Kapitel 2.4 vor.

2.4 Variablen des Sprach- und Musikverstehens: ein abschließender Vergleich

Für einen Vergleich der beiden Phänomene Sprache und Musik existieren zweifellos mehrere Zugangsweisen. Mir erschien eine kritische Überprüfung semiotischer/linguistischer Beschreibungsmethoden am Objekt Musik am fruchtbarsten und übergreifendsten, ist man doch durch den semiotisch-linguistischen Ansatz bei der Bestimmung eines konkreten musikalischen Bedeutungsbegriffs in weit ergiebigeres Terrain vorgedrungen als dies z.B. noch bei dem poetisierenden Vorgehen der musikalischen Hermeneutiker der Fall war. Einige der Ergebnisse, so verschieden sie sich z.T. in bezug auf Sprache darstellen, geben nämlich guten Anlaß, auch im Falle der Musik von Verstehen zu reden, wenngleich in einem etwas anderen Sinne.
Zur Verdeutlichung dieses Gedankens stelle ich noch einmal die in diesem Kapitel ermittelten Aspekte von Sprache und Musik nebeneinander (s. Abb.13):


Abb. 13: Parallelen und Unterschiede in der sprachlichen und musikalischen Bedeutungskonstitution

Die klanglichen Parallelen, d.h. vor allem die Überschneidung der akustischen Parameter bei Sprache und Musik sind in Kapitel 2.2.1 zur Sprache gekommen. Sie äußern sich in jeweils verschieden starker Ausprägung auch in Form intersubjektiv gültiger Intonationsmuster und Ausdrucksgesten.

Es ist ebenfalls gezeigt worden, daß sowohl Sprache als auch Musik als abstrakte Systeme beschrieben werden können, die eine syntaktische und eine pragmatische Komponente besitzen. Dazu kommt jeweils eine Komponente, die für die Bedeutungskonstitution die Referentialität der Zeichen sicherstellt, wobei die Beziehung

zwischen Zeichen und Wirklichkeit in der Sprache allerdings in erster Linie auf Konvention, im Falle der Musik dagegen vorwiegend auf Assoziativität und unmittelbar nachvollziehbarer Tonmalerei beruht.
Wenn man einmal davon absieht, daß die musikalische Syntax i.a. nicht semantisch fundiert ist, kann sie in vieler Hinsicht strukturell analog zur sprachlichen Syntax beschrieben werden. Sie funktioniert nämlich in beiden Fällen nicht (nur) auf der Basis traditionell semantischer Prinzipien, d.h. auf Grundlage von Zeichen mit Verweischarakter, sondern sie baut (auch) mit davon (z.T.) unabhängigen Regeln ein lineares und hierarchisch gegliedertes Beziehungsgefüge auf. Die so entstandenen Relati-onen zwischen den einzelnen Elementen verkörpern dabei einen allein ihnen immanenten funktionalen Bedeutungsaspekt. In diesen Kontext gehört auch das Faktum, daß gerade absichtsvoll eingeführte Abweichungen von syntaktischen Normen/Tiefenstrukturen die ästhetische Qualität musikalischer und (manchmal) sprachlicher Gebilde ausmachen.
Eine weitere wesentliche Übereinstimmung zwischen Musik und Sprache besteht in den über die internen Bedingungen der Textstruktur hinausweisenden Sinnzusammenhängen des Verwendungskontextes. Dazu zählen Variablen wie pragmatischer Gebrauch, historische und soziokulturelle Determinanten sowie situative Konstellationen.

Faßt man das Gesagte zusammen, so ist es angebracht, auch im Falle der Musik von Bedeutung zu sprechen, obwohl sie eher selten auf der Verwendung von symbolischen Zeichen basiert.

Dahlhaus (1979) möchte die Musik aus dem zuletzt genannten Grund auf die Syntax einerseits und die Pragmatik andererseits beschränkt wissen. Ich teile seine Ansicht aus dem folgenden Grund aber nicht.

Zwar kommt den verschiedenen Aspekten der Bedeutungskonstitution in Sprache und Musik unterschiedliches Gewicht zu, doch handelt es sich in beiden Fällen im-mer um einen

"mehrdimensionale(n), vielschichtige(n) Semioseprozeß aus semantisch infizierten, syntaktisch definierten und pragmatisch vermittelten Strukturelementen." (Gruhn 1989, S. 78),

der den Hintergrund für die konkrete Wirkung ausmacht.
Ich möchte mich daher Gruhn anschließen, der der Musik mehrere Ebenen von Bedeutung zuspricht. Er faßt diese im folgenden Diagramm zusammen:


Abb. 14: Ebenen musikalischer Bedeutung (aus: Gruhn 1989, S. 83; Ausschnitt)

Innerhalb dieses Argumentationszusammenhangs ist es ein logischer Schritt, von musikalischem Verstehen als einer

"[...] Umkehrung des Prozesses der Bedeutungskonstitution" (ebd., S. 195)

zu sprechen. Der Musikhörende sollte also, ähnlich dem Sprachrezipienten, die genannten Variablen der Bedeutungskonstitution nachvollziehen können, damit man von ihm sagen kann, er habe eine Komposition in ihrem emotiven Ausdruck, ihrer syntaktischen Funktion und/oder in ihrem Gehalt verstanden.

Der Verstehensprozeß ist jedoch - auf diese objektiven Bedeutungsanteile begrenzt - noch unvollständig. Der Verstehende selbst gestaltet nämlich den Verstehensprozeß auf aktive und sehr individuelle Weise mit. Diese subjektiven Bedeutungsanteile, die teilweise schon auf der ersten Bedeutungsebene des Gruhnschen Schemas angedeutet werden, kommen nun ausführlich im dritten Kapitel zur Sprache.

Kapitel 3
Zusammenhänge von Sprach- und Musikverarbeitung: die Subjektseite

____________________________

3.1 Der Wahrnehmende als Parameter des sprachlichen bzw. musikalischen Textes    41

(Die Rolle der Perspektive für das Verstehen - die dialektische Konzeption des Verstehens in der Hermeneutik und in der Experimentalpsychologie)

3.2 Die Erklärungsansätze von Psychologie und Kognitionswissenschaft    45

(Methodik - Wichtige Schlüsselbegriffe)

3.3 Zusammenhänge von Sprache und Musik auf neuronaler und mentaler Ebene    4151

(Vergleich auf neuronaler Ebene - Vergleich auf mentaler Ebene)


3.Zusammenhänge von Sprach- und Musikverarbeitung: die Subjektseite

3.1 Der Wahrnehmende als Parameter des sprachlichen bzw. musikalischen Textes

3.1.1 Die Rolle der Perspektive für das Verstehen

Nach den Ausführungen des letzten Kapitels ist es möglich, bei verschriftlichter und erklingender Sprache oder Musik von - sehr unterschiedlich gestalteten - Texten zu sprechen, die der Leser

Musik ist natürlich in wesentlich stärkerem Maße vom Klang abhängig, obwohl es für Geübte auch möglich ist, sie beim Lesen in der Vorstellung erklingen zu lassen.

/ Hörer schließlich psychisch zu verarbeiten hat. An dieser Stelle muß hervorgehoben werden, daß die Einbeziehung des Rezipienten und der Rezeptionssituation für die Textbedeutung mindestens ebenso wichtig ist wie die dem Text immanente klangliche und strukturelle Sinnfälligkeit. Erst der Wahrnehmende konstitutiert Sprache oder Musik als bedeutungsvoll, wird also quasi selbst zu einem Parameter des Textes. Von seinem Vorwissen, seiner Erfahrung und seiner situativen Gestimmtheit hängt es ab, wieviele der sprachlichen oder musikalischen Bedeutungsebenen er erfassen kann bzw. will.
Konkret könnte das heißen, daß beispielsweise ein unerfahrener Sprecher/Hörer des Englischen zwar die wörtliche Satzbedeutung von " How do you do? " begreifen, die Äußerung aber nicht als umgangssprachliche Floskel erkennen kann, die, statt einer Antwort im herkömmlichen Sinne, vom Gegenüber die gleiche Floskel verlangt. Ein ähnliches Beispiel aus dem musikalischen Bereich: Ein Musikhörer, der vorwiegend mit Pop-Musik vertraut ist, würde zwar Abschnitte und Schlußfloskeln in Mozarts "Ein musikalischer Spaß" (KV 522) erfassen können, nicht aber die auf die Spitze getriebene Konventionalisierung der klassischen Strukturbildung.
Der Punkt, um den es hier geht, ist der, daß

"Verstehen immer perspektivisches Verstehen" (meine Hervorhebung, N.K.) ist. (Gruhn 1989, S. 17).

Im Wesentlichen bedingt durch die jeweilige Wissensstruktur des Rezipienten, kann also die Art des Verständnisses sehr unterschiedlich ausfallen. Zofia Lissa schreibt dazu:

"Es gibt viele Stufen und Typen des musikalischen Verstehens, und alle wirken befruchtend auf den Geist des Hörers; doch je mehr Ebenen dieses Verstehens sich beim Hörer realisieren, umso tiefer ist es, umso mehr vermittelt ihm die Nachricht." (Lissa 1973, S. 221)

Die Vielfalt der Verstehenszugänge ist dabei in bezug auf Musik (und ästhetisierte Sprache) offensichtlich größer als bei der Alltagssprache, da es bei letzterer in erster Linie konkrete außersprachliche Inhalte zu "entschlüsseln" gilt. Erstere hingegen erlauben neben dem rational-analyti-schen auch einen überwiegend emotional-ganzheitlichen Umgang sowie sich daraus ergebende Zwischenstufen. Man kann sich einerseits ganz dem Kunstwerk hingeben und sich einfühlen, seine Gestik nachvollziehen oder es auch als ästhetisches Gebilde gewissermaßen distanziert-ganzheitlich genießen. Es ist allerdings zu fragen, ob hier schon von Verstehen gesprochen werden kann.


Abb. 15: Die verschiedenen Verstehenszugänge (nach Gruhn 1989, S. 83)

Vergleiche auch Lissa (1973, S. 223/224) und Rauhe/Reinecke/Ribke (1975, S. 167); die Verstehensebenen werden dort etwas anders bzw. aus einem anderen Blickwinkel (bewußt - unbewußt, Rauhe et al.) aufgegliedert, lassen sich aber in Gruhns Modell wiederfinden.
Anm.: In anderem Zusammenhang werden die Begriffe "kognitiv" und "mental" in dieser Arbeit von mir allerdings synonym verwendet.

Andererseits kann man sich ganz bewußt darauf konzentrieren, den Sinn des Werkes, d.h. seine kompositorische Intention aufzudecken. Das Erfassen von musikalischen Symbolen, das Erkennen

innermusikalischer Bezüge und deren Interpretation stehen dann im Vordergrund. Auch der Akt der Interpretation ist notwendigerweise perspektivisch gefärbt: durch die individuelle, soziokulturelle und zeitgeschichtlich geprägte Perspektive
Im weitesten Sinne sind damit auch die äußeren Umstände der Rezeptionssituation gemeint. Der verstehende Umgang mit einer Brahms-Sinfonie ist z.B. im Konzertsaal sicherlich anders als Zuhause während der Hausarbeit.
des Rezipienten, die dem historischen Entstehungskontext des Werkes gegenübersteht. Meiner Ansicht nach - und damit schließe ich mich Gruhns (1989) engem Verstehensbegriff an - ist es sinnvoll, erst in dem Fall von Verstehen zu sprechen, wenn der Hörer sich bewußt auf das Erkennen der kompositorischen Intention ausrichtet und von seinen eigenen ästhetischen Bedürfnissen abstrahiert.

Zusammenfassend möchte ich an Abbildung 14 auf Seite 39 erinnern. Die dort aufgeführten musikalischen Bedeutungsebenen spiegeln die verschiedenen Verstehenszugänge wider. Gruhn ordnet ihnen die in Abb. 15 (S. 42) dargestellten Verstehensebenen zu.
Am Rande sei bemerkt, daß die aufgeführten Verstehenszugänge wertfreie Alternativen darstellen, und daß es keinesfalls besseres oder schlechteres Verstehen gibt, wie dies in der Adornoschen Hörertypologie (1962) zum Ausdruck kommt.
Zu betonen ist auch noch einmal, daß sich kognitive und emotionale Anteile gegenseitig durchdringen können, so daß einerseits eine subjektiv-emotionale Erfahrung Anreiz für eine weiterführende Verstehensbemühung sein kann, andererseits sollte eine kognitive Interpretation der eigenen Gefühle das ästhetische Erlebnis vertiefen, was allerdings zunächst ein Absehen von der eigenen individuellen Gestimmmtheit voraussetzt:

"Das Erlebnis eines Affekts ohne den Vollzug dieses Affekts macht das ästhetische Erlebnis aus." (Gruhn 1989, S. 62)

3.1.2 Die dialektische Konzeption des Verstehens in der Hermeneutik und in der Experimentalpsychologie

Das bisherige Fazit dieses Kapitels besteht darin, daß sich der Wahrnehmende in jeden Verstehensprozeß selbst mit einbringt und so eine Wechselbeziehung mit dem sprachlichen oder musikalischen Text entsteht.

Diese Erkenntnis ist u.a. das Verdienst der philosophischen Hermeneutik, die bereits im 19. Jahrhundert das Verstehensproblem zu einem Hauptanliegen der Geisteswissenschaften werden ließ. Das dialektische Verhältnis zwischen Objektstruktur und Wissensstruktur des Subjekts kommt in dem Begriff des hermeneutischen Zirkels zum Ausdruck. Die dahinter stehende Idee ist die, daß der Grad von Erfahrung mit dem jeweiligen Objekt, d.h. das Wissen über seine konventionalisierten und invarianten Eigenschaften,

Diese Art von Wissen taucht in der Kognitiven Psychologie unter dem Begriff des Schemas auf und wird in Kap. 3.2.2.4 näher beleuchtet.

die Erkenntnismöglichkeiten auf bestimmte Perspektiven eingrenzt. Diese stellen die Grundlage dar für die Bildung allgemeiner Erwartungen, welche wiederum die Basis abgeben für die Integration und Aneignung der neuen, von außen kommenden Impulse. Verstehen kann also nur stattfinden, wo eigenes Wissen in den neuen Impulsen durchschimmert. Letztere können dabei auch die bisherige Wissensstruktur verändern, z.B. spezifische Details hinzufügen. Die perspektivische Zuwendung zum Neuen wird in der Hermeneutik als Horizontabhebung, die Aneignung als Horizontverschmelzung bezeichnet.

Das beschriebene dialektische Verhältnis von Objekt- und Subjektanteilen ist zu Anfang dieses Jahrhunderts ebenfalls in der Experimentalpsychologie erkannt worden. Die mit dem Namen des Schweizers Piaget verbundenen Begriffe der Assimilation und Akkomodation (vgl. z.B. Piaget 1964) drücken im wesentlichen den gleichen Sachverhalt aus, wie er oben im hermeneutischen Zirkel durch Zuwendung und Aneignung beschrieben wurde.

Überhaupt ist es die Psychologie, die gerade in den letzten 30 Jahren im Hinblick auf eine detaillierte Erklärung der Verstehensleistung des Menschen eine Schlüsselstellung eingenommen hat. Das folgende Teilkapitel befaßt sich daher ausführlicher mit psychologischen Erklärungsansätzen, vor allem solchen, die im Gefolge der immer mehr an Boden gewinnenden Kognitionswissenschaft entstanden sind.

3.2 Die Erklärungsansätze von Psychologie und Kognitionswissenschaft

3.2.1 Methodik

Möchte man mehr über den spezifischen Beitrag des Hörers zum Verstehensvorgang erfahren, so steht man vor dem Problem, daß die psychischen Prozesse, die zum Verstehen führen, nicht unmittelbar zugänglich sind. Sie laufen zum größten Teil unbewußt ab, sind also impliziter Natur.

Die psychologische Forschung, die als wissenschaftliche Disziplin erst ein gutes Jahrhundert alt ist, hat mit einer Vielzahl von Methoden versucht, dem komplexen menschlichen Verhalten näherzukommen. Die ganz zu Anfang angewandte introspektive Methode war aus dem oben genannten Grund relativ schnell zum Scheitern verurteilt. Ihre häufig widersprüchlichen Ergebnisse führten allerdings auch dazu, geistige Tätigkeiten ganz aus der psychologischen Forschung zu verbannen und nur das aus ihnen resultierende beobachtbare Verhalten zu untersuchen. Es ist nicht zu leugnen, daß einige wertvolle Resultate mit Hilfe dieses sogenannten behavioristischen Ansatzes gewonnen wurden, doch ist man sich heute weitgehend darüber einig, daß die in den sechziger Jahren vollzogene Wende zur Kognitiven Psychologie für das Verständnis menschlichen Verhaltens die bisher tiefgreifendsten Erkenntnisse gebracht hat (vgl. Anderson 1989, S. 21). Mentale Zustände und Vorgänge rückten erneut in den Mittelpunkt des Interesses und bildeten als nicht direkt zugängliche Black-Box-Phänomene das eigentliche Forschungsziel:

Input ---------->
z.B. sprachl.
Äußerung, musi-
kalische Kompo-
sition
Black Box ---------->
mentale Struk-
turen und Pro-
zesse
Output
Reaktion im
weistesten
Sinn: psy-
chisch, in-
tellektuell
motorisch

Abb. 16: Black-Box-Modell

Die Kognitive Psychologie versucht also - auf einen Nenner gebracht - Theorien darüber zu entwickeln, auf welchen zerebralen Mechanismen die menschliche Wahrnehmung, worauf Sehen, Hören,

Denken, Erinnern, Fühlen und Sprechen basieren. Mit anderen Worten: Da nur das Verhalten des Menschen/Subjekts in bezug auf ein bestimmtes Ereignis/Objekt beobachtbar ist, müssen Modelle erstellt werden, die der Grundannahme der Kognitiven Psychologie Rechnung tragen, nämlich

"daß der menschliche Organismus bedeutungsvolles Verhalten produzieren kann, indem er formale Operationen auf gespeicherte Wissensrepräsentationen anwendet."
(Schwarz 1992, S. 18)

Wie bereits in Kapitel 3.1 angedeutet wurde, ist dabei natürlich auch die Interaktion mit dem zu verarbeitenden Ereignis von Bedeutung, weshalb die erwähnten Modelle einerseits Analogien zu den spezifischen Objektcharakteristika aufweisen müssen, andererseits die subjektive Wissens-struktur verdeutlichen sollten. Man spricht in diesem Zusammenhang auch von der deskriptiven bzw. kognitiven Adäquatheit der Modelle. Abbildung 17 gibt den letzten Gedankengang noch einmal wieder:


Abb. 17: Der Modellbildungsansatz der Kognitiven Psychologie

Nachzutragen bleibt, daß Mitte der siebziger Jahre aus den gleichen Bestrebungen heraus eine verstärkte Zusammenarbeit zwischen Kognitiver Psychologie und Forschern im Bereich der Künstlichen Intelligenz begann, die die Gründung einer interdisziplinären Wissenschaft nach sich zog: die der Kognitionswissenschaft. Sie versucht mittlerweile fächerübergreifende Forschungsansätze aus Philosophie, Linguistik, Computer- und Neurowissenschaft sowie Psychologie in sich zu vereinigen, wobei jedem einzelnen dieser Bereiche die Aufgabe zukommt, einen bestimmten Aspekt der Kognition zu beleuchten: Es geht um erkenntnistheoretische Fragen, sprachliche Wissenssysteme, Möglichkeiten der künstlichen Intelligenz, um physiologische Grundlagen und allgemeine mentale Fähigkeiten des Menschen (s. Schwarz 1992, S. 15). Die zentrale

Stellung innerhalb der Kognitionswissenschaft nimmt dabei weiterhin die Psychologie ein.

Bezogen auf das Thema der vorliegenden Arbeit hat der kognitive Ansatz folgende Bedeutung: Das Verstehen von Sprache und Musik ist aus dieser Perspektive vor allem eine kognitive Leistung und läßt sich bestimmen durch die Ermittlung der mentalen Strukturen und Prozesse, auf denen die Wahrnehmungsfähigkeiten für Sprache bzw. Musik beruhen (s. Gruhn 1989, S. 9). Damit fällt der Kognitiven Wissenschaft eine wesentliche Vermittlerrolle für einen Vergleich von Sprach- und Musikverstehen zu. Bevor aber in Kapitel 3.3 gezielt auf konkrete Untersuchungsergebnisse einge-gangen werden kann, möchte ich zuerst den Rahmen für interdisziplinäre Betrachtungen abstecken, d.h. einige Schlüsselbegriffe der Kognitionswissenschaft klären.

3.2.2 Wichtige Schlüsselbegriffe

3.2.2.1 Modularität

Zwar fehlt noch eine einheitliche Theorie der Kognition, doch existieren im wesentlichen zwei Leitfragen, die übergreifend sind:

1. Wie sieht die Organisation und Repräsentation des (sprachlichen, visuellen, musikalischen, ...) Wissens aus ?
2. Wie geht die Anwendung dieses Wissens (Erinnern, Vorstellen, Verstehen,...) vor sich ?

Das bedeutet, daß man in der Kognitionswissenschaft von einer Zweiteilung des Wissens in einen statischen und einen dynamischen Aspekt ausgeht:


Abb. 18: Die Wissensarten

Für den Geist, also die Gesamtheit der Strukturen und Prozesse, ergibt sich weiterhin die Frage, ob er ein ungegliedertes und unteilbares Ganzes ist, oder ob er aus einem Komplex selbständiger, funktionsspezifischer Subsysteme - sogenannten Modulen - besteht, die allerdings für komplexe Verhaltensformen wechselseitig miteinander in Beziehung treten können.
Zumindest in bezug auf die Strukturen sprachlichen Wissens hat sich in der neueren Forschung die Modularitätshypothese gegenüber dem holistischen Ansatz durchgesetzt. Vor allem Ergebnisse aus der Aphasieforschung sprechen dafür, ein eigenes mentales System für Sprache und autonome Sub-Module z.B. für Syntax und Semantik anzunehmen (s. Bierwisch/Kaden 1983, S. 198; s. auch Kap. 3.3.1). Strittig ist aber noch, ob auch die bei der Anwendung dieses Wissens in Aktion tretenden Prozesse nur bereichsspezifisch, also modular, arbeiten, oder ob sie Interaktion gestatten.

Das prozedurale Wissen ist allgemein noch am wenigsten erforscht.

Bezüglich des musikalischen Wissens wäre es nun ebenfalls von Interesse, wie seine Organisation aussieht. Bildet es wie das sprachliche Wissen ein autonomes System oder ist es abhängig von verschiedenen, nicht musikspezifischen Strukturen und Prozessen, die möglicherweise sogar aus dem sprachlichen Wissensbereich stammen? Auf diese Frage wird in den folgenden Kapiteln zurückzukommen sein.

3.2.2.2 Universalien

Ein weiterer wichtiger Diskussionspunkt in der Kognitionswissenschaft sind die Universalien. Der Begriff ist schon in anderem - rein strukturellem - Zusammenhang angeklungen (Kap. 2.2, s. Abb.4, S.15) und steht hier für die Annahme, daß viele mentale Repräsentationen interindividuellen, unveränderlichen und angeborenen Organisationsprinzipien unterliegen. Man kann sich das so vorstellen, daß eine Universalie eine genotypisch angelegte Matrix von wählbaren Organisationsmöglichkeiten ist, die dann im Verlauf der erfahrungsbedingten Entwicklung des mentalen Systems durch Festlegung der Variablen eine spezifische, phänotypische Ausprägung erfährt.

So mag es beispielsweise eine sprachliche Universalie geben, die die Merkmale aller produzierbaren Laute bereitstellt, von denen durch den Kontakt mit einer konkreten Sprache nur diejenigen im mentalen System verankert werden, die aktuell genutzt werden. Ein weiteres Beispiel: wahrscheinlich stellt wiederum eine andere Grundlagenmatrix nach diesem Prinzip Variablen für mögliche Wortstellungen im Satz (Subjekt-Verb-Objekt, Verb-Subjekt-Objekt,...) zur Auswahl bereit, usw..
Kurzum: Forschungsziel ist die Erfassung der universalen mentalen Organisationsprinzipien und nicht die Konstruktion der psychischen Strukturen und Prozesse von Einzelphänomenen.
Die Universalienforschung in der Musik steckt noch in den Kinderschuhen, ist aber von Wichtigkeit für die Aufdeckung von Gemeinsamkeiten und Unterschieden in der Sprach- bzw. Musikverarbeitung, denn

"die Frage, ob Sprache und Musik gleichermaßen selbständige mentale Systeme sind, läuft auf die Identifizierung und Begründung entsprechender Universalien hinaus."(Bierwisch/ Kaden 1983, S. 206)

3.2.2.3 Neuronaler und mentaler Ansatz

Die Untersuchung kognitiver Fähigkeiten beruht im wesentlichen auf zwei unterschiedlichen Zugangsweisen. Die Vertreter des Physikalismus gehen von einem neuronalen Ansatz aus, d.h. sie rücken die physische Grundlage der Kognition in den Mittelpunkt ihrer Forschung. Dahinter steht die Idee, daß die mentalen Strukturen und Vorgänge auf neuronale Gesetzmäßigkeiten reduzierbar sind.
Die Anhänger der funktionalistischen Position hingegen sind der Ansicht, man müsse die Kognition losgelöst von ihrer materiellen Basis beschreiben, da viele funktionale Eigenschaften des Gehirns nicht allein auf einer neuronalen Grundlage erklärbar seien.
Diese verschiedenen Vorgehensweisen werden in Kapitel 3.3.1 bzw. 3.3.2 noch genauer betrachtet, wobei ich aber den sich gegenseitig aus-schließenden Charakter der beiden Positionen abmildern und eher integrativ vorgehen möchte. Gerade in jüngster Zeit hat nämlich mit dem sogenannten Token-Physikalismus ein vermittelnder Ansatz an Boden gewonnen, der der Tatsache Rechnung trägt, daß mentale Fähigkeiten zwar nicht auf physiologische Korrelate

reduzierbar sind, daß aber letztere die Vielfalt mentaler Modelle maßgeblich beschränken (s. Schwarz 1992, S. 58).

3.2.2.4 Gedächtnis und Schemata

Das weiter oben angesprochene strukturelle und prozedurale Wissen, auf dem jegliches komplexe Verhalten beruht, muß notwendigerweise auf irgendeine Art und Weise im menschlichen Informationsverarbeitungsmechanismus abgespeichert sein, um ständig verfügbar zu sein. Der kog-nitionspsychologische Begriff für diese Speicherkomponente ist der des Gedächtnisses. Im allgemeinen wird es in mehrere Subsysteme untergliedert, nämlich das sensorische oder Ultrakurzzeitgedächtnis (UKZG), das Kurzzeit- und das Langzeitgedächtnis (KZG, LZG). (s. Abb. 19)

sensor. Information ------> UKZG -----> KZG -------> LZG

Abb. 19: Mehrspeicher- Modell

(Die genaue Funktionsweise des Gedächtnisses nach dem allgemein bekannten Gedächtnis-Modell von Atkinson/Shiffrin kann bei Bedarf in Schwarz 1992, S. 77 nachgelesen werden.)
Das strukturelle und prozedurale Wissen hat innerhalb dieses Modells seinen Platz im LZG. Man geht heute davon aus, daß das statische Wissen in zwei verschiedenen Wissenssystemen untergebracht ist, die man als semantisches und episodisches Gedächtnis bezeichnet (s. Grimm/ Engelkamp 1981, S. 212), und von denen das eine allgemeines Wissen, das andere spezifische, in räumlich-zeitlichem Zusammenhang stehende Ereignisse umfaßt. Die elementaren Organisationseinheiten des Gedächt-nisses, die Konzepte, repräsentieren dabei das allgemeine und spezifische Wissen auf zwei Arten: auf eine aussagenartige/begriffliche (s. Bsp. "Musikerin" auf S. 16) und eine bildhafte/analoge Art und Weise.
In bezug auf Sprache und Musik wäre zu vermuten, daß sprachliche Konzepte aussagenartig, musikalische Konzepte dagegen analog codiert sind. Vieles spricht aber dafür, daß sowohl für Sprache als auch für Musik beide Arten der Wissensrepräsentation von Bedeutung sind (s. Kap. 3.3.2.2.2).

Von Interesse ist auch, inwieweit sich für beide Verhaltensweisen gleichermaßen größere Organisationseinheiten feststellen lassen, die man in der Kognitiven Psychologie zumeist als Schemata bezeichnet. Sie sind aus mehreren Konzepten zusammengesetzte komplexe Wissensstruktu-ren, die durch Erfahrungen erworben werden und die die prototypischen, immer wiederkehrenden Eigenschaften von bestimmten Situationen oder Handlungen codieren. So ist z.B. die gleichbleibende Handlungsfolge beim Kaffee-Kochen im Schema KAFFEE KOCHEN abgebildet, welches von den situationsabhängigen Variablen (wie Zubereitung mit der Maschine oder per Hand) abstrahiert. Durch die ganzheitliche Verfügbarkeit und den hierarchischen Charakter der Schemata ist es einem Hörer beispielsweise auch möglich, nicht explizit genannte Einzelheiten mit Hilfe des jeweils aktivierten Schemas hinzuzusteuern. (Wenn mir ein Freund erzählt, er habe ein Konzert gegeben, kann ich annehmen, daß er vor Publikum gespielt hat.)

Nachdem der Rahmen für einen Vergleich kognitiver Mechanismen der Sprach- bzw. Musikverarbeitung abgesteckt worden ist, sollen in Kapitel 3.3 Resultate empirischer Untersuchungen dargestellt werden, welche die psychologischen Gemeinsamkeiten und Unterschiede von Musik und Sprache aufzeigen.

3.3 Zusammenhänge von Sprache und Musik auf neuronaler und Ebene

Im Gefolge des kognitiven Ansatzes und seines Ziels, die zerebralen Mechanismen menschlichen Verhaltens zu bestimmen, wurden besonders sprachpsychologische Untersuchungen durchgeführt, wodurch die dem Sprachverstehen zugrundeliegenden Vorgänge vergleichsweise gut erforscht sind. Die psychischen Vorgänge musikalischen Verstehens wie Erkennen, Erinnern, Erleben, liegen dagegen zu einem großen Teil noch im Dunkeln. Grundsätzlich sind zwei Perspektiven zu unterscheiden, aus denen musikalisches Verhalten betrachtet werden kann:

"Unter der Perspektive der Systematischen Musikwissenschaft steht die Einzigartigkeit der Musik als künstlerisch geformter Gegenstand im Vordergrund. Es wird gefragt, wie die psychischen Vorgänge zu beschreiben sind, die das Spezifikum musikalischen Verstehens

ausmachen. Unter der Perspektive der Allgemeinen Psychologie wird das Gemeinsame von Musik und anderen Objektbereichen betont." (Stoffer 1990, S. 59)

Im Rahmen der vorliegenden Fragestellung liegt es auf der Hand, die letztgenannte Strategie zu verfolgen und in Erfahrung zu bringen, welche aus anderen Objektbereichen bekannten psychischen Vorgänge auch das musikalische Verstehen mitbestimmen. Aufgrund der Vorreiterrolle der Psycholinguistik sind die bisher erkannten Prinzipien der sprachlichen Informationsverarbeitung nicht selten auch im musikalischen Bereich überprüft, teilweise sogar die theoretischen Konzepte und Methoden an die Erforschung musikalisch-psychischer Mechanismen adaptiert worden (s. besonders Kap. 4).

Die folgenden ausgewählten Untersuchungsergebnisse sollen einen Überblick über den derzeitigen Wissensstand bezüglich Gemeinsamkeiten und Unterschieden in der Sprach- bzw. Musikverarbeitung geben. Sie werden getrennt nach neuronaler und mentaler Zugangsweise (s. Kap. 3.2.2.3) vorgestellt.

3.3.1 Vergleich auf neuronaler Ebene

Die physikalische Basis für alle kognitiven Fähigkeiten ist das Zen-tralnervensystem, innerhalb dessen Informationsverarbeitungsprozesse stattfinden. Besonders die neuronalen Funktionen der Großhirnrinde sind dabei von größter Bedeutung. Informationen werden in Form von elektrochemischen Signalen weitergeleitet und können auf verschiedene Art und Weise verschlüsselt sein: Sie werden im wesentlichen abgebildet durch die sich ständig ändernden elektrochemischen Aktionspotentiale der Nervenzellen, den Aufbau von Aktionsmustern in größeren Nervenzellverbänden sowie den neuronalen "Schaltplänen" des Gehirns (s. Anderson 1989, S. 29).

Die Hypothese, daß bestimmte Funktionen des Gehirns - wie z.B. Sprache - in abgrenzbaren Gebieten des Cortex lokalisierbar seien, war schon im 19. Jahrhundert Auslöser umfangreicher Forschungsarbeit. Dem funktionalistischen Ansatz (s. Kap. 3.2.2.3) folgend wurde nämlich davon ausgegangen, daß in gleichen Arealen lokalisierbare Funktionen auf den gleichen kognitiven Prinzipien beruhen müßten. Man untersuchte daher post mortem die Gehirne von

Patienten, deren spezifische Ausfallerscheinungen zu Lebzeiten genau festgehalten worden waren und gelangte so zu ersten Erkenntnissen auf dem Gebiet der Lokalisation von Sprache: Es wurden in der linken Hemisphäre zwei Zentren (das Brocasche und Wernickesche Zentrum) gefunden, die bei Schädigung für schwere motorische bzw. sensorische Sprachstörungen (Aphasien) verantwortlich waren.
Auch musikbezogene Ausfallerscheinungen - sogenannte Amusien - wurden bereits gegen Ende des letzten Jahrhunderts erforscht.

Dieses Unternehmen war und ist insofern problematisch, als häufig keine gesicherten Hinweise darüber vorliegen, ob es sich wirklich um musikalische Ausfallerscheinungen handelt, oder ob der Patient nicht schon vor der Verletzung nur beschränkte musikalische Fähigkeiten besaß. Im Gegensatz zu ungenügendem sprachlichem Kommunikationsvermögen können jene durchaus unbemerkt bleiben.

Sie ließen sich allerdings im Gegensatz zu den auf die linke Gehirnhälfte beschränkten Aphasien nicht in ausschließlich einer der beiden Hemisphären festmachen. Sowohl die rechte als auch die linke Hirnhälfte konnte ursächlich mit sensorischen/rezeptiven oder motorischen/ expressiven Amusien in Verbindung gebracht werden (s. Klemm 1987, S. 73 ff.).

Interessant für den Vergleich sprachlicher und musikalischer Fähigkeiten ist darüber hinaus noch ein anderes Faktum:

"[In summary, disorders of music perception do not seem to result from well defined localized foci.] To the contrary, they often tend to fuse and mix with the complex abnormalities of language or deficits of auditory object perception [...]." (Marin 1989, S. 257)

Amusien treten also meistens gemeinsam mit aphasischen Erscheinungen auf (Aphasien dagegen auch unabhängig von Amusien; s. Klemm 1987, S. 71 ff.). Möglicherweise deutet diese Tatsache darauf hin, daß musikalische Verarbeitungsmechanismen zumindest teilweise von sprach-lichen abhängig sind. Einige in diesem und im nächsten Teilkapitel folgende Untersuchungsergebnisse unterstützen diese These.

Aufgrund zunehmender Kritik an der zuvor genannten Vorgehensweise, d.h. dem Versuch, das Verhalten Gesunder von dem Kranker abzuleiten,

Das Problem liegt vor allem darin, daß die beobachtbaren Symptome der Krankheit von unzähligen Variablen abhängen, und zwar von " Ursache, Schwere und Dauer der Läsion sowie vom Zustand des Patienten v o r und seinem Alter b e i m Eintritt der Verletzung ". (Klemm 1987, S. 69)

ist man verstärkt dazu übergegangen, Methoden zur Untersuchung gesunder Menschen zu entwickeln.

Die vier gebräuchlichsten aus der Sicht von Sprache und Musik sind heute:

a) EEG (Elektroencephalogramm)
b) Wada-Test
c) dichotisches Hören
d) Fingertapping und andere "Interferenz"-Methoden

Durch Messung der Hirnströme (EEG) bei sprachlichen bzw. musikalischen Tätigkeiten kann die aktivere Hemisphäre und sogar besonders aktive Hirnareale bestimmt werden. Diese Methode ist vorwiegend im musikalischen Bereich genutzt worden und hat dort weitgehend die Ergebnisse aus der pathologischen Forschung bestätigt; eine strikte Lokalisierung musikalischer Funktionen ist auch auf diese Weise nicht möglich, denn

"[...] different and extended areas in both hemispheres undergo changes in musical tasks." (Petsche/Pockberger/ Rappelsber-ger 1987, S. 75)

Die ältere Auffassung, daß die linke Hirnhälfte auf sprachliche und die rechte auf nicht-sprachliche auditive Aktivitäten (und damit auch auf Musik) spezialisiert sei (s. Stoffer 1990, S. 68; s. auch Tab. 3, S. 56), konnte somit widerlegt werden. Die Frage nach funktionellen Gemeinsamkeiten bei der Verarbeitung von Sprache und Musik erscheint dadurch überhaupt erst einer Diskussion wert.

Ähnliche Resultate erbringen auch die anderen Methoden, unter ihnen der sogenannte Wada-Test. Bestimmte Teile einer Hemisphäre können durch Injektion eines Barbiturats zeitweilig in ihrer Funktion ausgeschaltet werden. Sprachliche oder musikalische Ausfallerscheinungen geben dann Hinweise auf den im Normalfall ausschlaggebenden Verarbeitungsort.

Die am häufigsten benutzte Untersuchungsmethode ist das dichotische Hören. Dabei geht es um die Bestimmung von Verarbeitungsvorteilen der beiden Hemisphären. Das Prinzip sei kurz erläutert: die vom rechten Ohr aufgenommenen auditiven Reize werden von Nervenfaserbündeln vornehmlich zur linken Hemisphäre weitergeleitet, die linksseitigen Reize dementsprechend zur rechten Hirnhälfte. Über Kopfhörer werden den Probanden gleichzeitig zwei

miteinander konkurrierende Stimuli eingespielt, die entweder mit einem oder mehreren nachfolgenden Reizen verglichen oder später erinnert werden sollen. Unterschiede in der Re-aktionszeit zwischen den beiden Ohren sowie die Qualität der Reaktion (falsch-richtig) geben Aufschluß über Vorteile einer Hemisphäre in der Verarbeitung bestimmter Stimuli (z.B. sprachlicher oder musikalischer).

Gelegentlich wird nach dem gleichen Prinzip eine monaurale Methode angewandt, d.h. akustische Reize werden nur über das rechte oder nur über das linke Ohr dargeboten.

(Vgl. z.B. Robinson/Solomon 1974)

Fingertapping und andere sogenannte "Interferenz"-Methoden erlauben ebenfalls die Bestimmung der für eine konkrete Aufgabe dominanten Hemisphäre. Beim Fingertapping müssen die Versuchspersonen mit der rechten oder linken Hand schnell und regelmäßig eine Taste betätigen und zur gleichen Zeit eine sprachliche/musikalische Aufgabe bewältigen. Wird z.B. ein mit der rechten Hand ausgeführtes Tapping schlechter, geht man davon aus, daß die Verarbeitung der sprachlichen bzw. musikalischen Aufgabe in der linken Hemisphäre abläuft (aufgrund der sich kreuzenden Nervenbahnen, s.o.), die aber bereits durch das Tapping ausgelastet ist. (Vgl. z.B. Tsunoda 1987)

Es ist im Rahmen dieser Arbeit nicht möglich, auf einzelne Untersuchungsergebnisse einzugehen.

Eine tabellarische Übersicht über erzielte Ergebnisse und benutzte Methoden einer ganzen Reihe von neuropsychologischen Untersuchungen gibt Klemm (1987, S. 85-93).

Eine Darstellung der übergreifenden Resultate soll genügen, um einen Überblick über die derzeitige Forschungslage zu gewinnen.

Die herausragendste Erkenntnis der neuropsychologischen Untersuchungen ist die, daß die Asymmetrie der Reizverarbeitung in den beiden Hemisphären nicht vom dargebotenen sprachlichen oder musikalischen Material bestimmt wird, denn gerade Musik kann sowohl in der rechten wie in der linken Gehirnhälfte verarbeitet werden. Zudem scheinen auch der Grad des musikalischen Trainings sowie die musikalische Begabung Einfluß auf den Ort der Verarbeitung ausüben zu können (s. Fassbender 1993, S. 624/625). Ebenso hat die Sprache Varianten (z.B. Intonation, Vokale, konventionalisierte Redewendungen) mit rechts-hemisphärischen Zügen. Die folgende Tabelle schlüsselt die Verteilung partiell auf:
-------------------------------------------------------------------
Linke HemisphäreRechte Hemisphäre
= rechtes Ohr= linkes Ohr
-------------------------------------------------------------------
I.Verarbeitungsvorteile bei Musik
sehr kurze TöneMelodien
RhythmenKlangfarben
zeitliche Abfolgen von TönenTonhöhen
 Intensität
 Akkorde
II. Verarbeitungsvorteile bei Sprache
KonsonantenVokale
Silben(Intonation)
Folgen von Wörtern(Redewendungen)
-------------------------------------------------------------------

Die eingeklammerten Begriffe sind meine Hinzufügung , N.K.;

Tab. 3: Dominanz der Hemisphären für bestimmte sprachliche und musikalische Parameter (aus: Bruhn 1989, S. 97)

Vergleicht man das sprachliche und musikalische Material, das in der linken Hemisphäre Verarbeitungsvorteile besitzt, so stellt der rhythmisch-zeitliche Aspekt das kleinste gemeinsame Vielfache dar. Auf der anderen Seite verarbeitet die rechte Hemisphäre zwar ebenfalls komplexe aku-stische Reize, hier steht aber der ganzheitliche Aspekt der Wahrnehmung im Vordergrund. Aus dieser Perspektive wird deutlich, daß sich beide Hirnhälften regelrecht ergänzen und, was entscheidend ist, daß ihre Asymmetrie funktionaler und nicht reizspezifischer Natur ist. Demnach sind die verschiedenen Verarbeitungsstrategien der Hirnhälften ausschlaggebend: die analytisch-sequentielle der linken und die ganzheitlich-synthetische der rechten Hemisphäre (s. Fassbender 1993, S. 623).
Das erklärt auch, warum musikalisches Training und Begabung Einfluß auf den Ort der Verarbeitung nehmen können: Musiker sind flexibler in der Wahl des Verarbeitungsmodus, während bei Nicht-Musikern aufgrund fehlender Übung die ganzheitliche gegenüber der analytischen Strategie dominant ist. Zwar muß die Spezialisierung der Gehirnhälften schon genetisch angelegt sein, da sie bereits wenige Tage nach der Geburt nachgewiesen werden kann (ebd., S. 626), doch der Zugang zu den Verarbeitungsstrategien hängt eindeutig von Lernvorgängen und Erfahrungen ab (einige weitere Details werden in Kap. 3.3.2.2 angesprochen).

Eine Untersuchung verdient es, besonders herausgehoben zu werden (Reineke 1981), da in ihr gezielt musikalische und sprachliche

Reize gleichzeitig dichotisch dargeboten und folgende bemerkenswerten Ergebnisse erzielt wurden:

"[...] some processing requirements are common to both [speech and music] and these common aspects are processed in the left hemisphere. [...] When music is processed while speech is occupying the left hemisphere, that aspect of music processed by the left hemisphere is ignored or suppressed and right ear performance drops, resulting in significant left ear superiority." (ebd., S. 73)

Zwar wirft dies neue Fragen auf (z.B.: Warum werden die linksseitigen musikalischen Aspekte "herausgefiltert" und nicht die sprachlichen?), doch liefert die Untersuchung durchaus einen weiteren Hinweis darauf, daß einige Verarbeitungsprozesse von Musik und Sprache gleichermaßen in Anspruch genommen werden.

Am Rande sei noch einmal an die Interaktion zwischen Subjektwissen und Objektmerkmalen erinnert, die auch in den letzten Ausführungen wieder zum Ausdruck gekommen ist. Die Dominanz einer der beiden Hemi-sphären wird bestimmt durch subjektive Erfahrungen auf der einen und die Art des akustischen Materials (musikalische/sprachliche Parameter) auf der anderen Seite. Dazu treten die im sprachlichen wie im musikalischen Verstehensprozeß wichtigen situativen Bedingungen, die immer mit ausschlaggebend sind für ein mehr ganzheitlich orientiertes Verstehen oder einen eher analytischen Zugang.

Bevor im nächsten Teilkapitel die mentale Seite von musikalischen und sprachlichen Verarbeitungsmechanismen näher beleuchtet wird, verdient noch ein letzter Aspekt Beachtung. Ebenso wie man zunächst davon ausging, daß Musik und Sprache in verschiedenen Gehirnhälften verarbeitet werden, wurde die Entstehung von Emotionen ausschließlich subkortikalen Strukturen zugeschrieben. Nach den neuesten experimentellen Studien ist auch diese Auffassung nicht mehr haltbar. Nicht nur Musik und Sprache, sondern auch Emotionen setzen sich nämlich aus perzeptiven, (ganzheitlich) kognitiven und affektiven Anteilen zusammen, wie die folgende Übersicht aus Bruhn (1989, S.93) verdeutlicht:
-------------------------------------------------------------------
 MusikSpracheEmotion
-------------------------------------------------------------------
perzeptivAufnahme mu-
sikbezogender
Ereignisse
Aufnahme von
sprachlichen
Äußerungen
Wahrnehmung
körperlicher
Veränderungen
kognitivErfahrungen,
kultureller
Hintergrund
Gedächtnis,
persönliche
Lernerfah-
rungen
Erwartungen,
Antizipatio-
nen
affektivsituative
Befindlich-
keit, habi-
tuelle Reak-
tionen
mitschwin-
gend Stim-
mungen
emotions-
spezifische
Färbungen
Stimmungen
-------------------------------------------------------------------

Tab. 4: Perzeptive, kognitive und affektive Anteile von Musik, Sprache und Emotion

Es ist ebenfalls wichtig, zu erkennen, daß emotionale/affektive Zustände - die häufig als nur der Musik zugehöriger Bestandteil angesehen werden - auch in der Sprache eine wenngleich geringere Rolle spielen. Dadurch erhalten mögliche "Überschneidungen" in den jeweiligen Verarbeitungsvorgängen eine weitere Fundierung.

3.3.2 Vergleich auf mentaler Ebene; allgemein-psychologische

Die andere Möglichkeit, musikalische und sprachliche Verarbeitungsmechanismen miteinander zu vergleichen, liegt in der Konstruktion und empirischen Überprüfung hypothetischer mentaler Prinzipien. Die "Klammer" für diesen Vergleich bildet in jüngster Zeit das interdisziplinäre Vorgehen der Kognitionswissenschaft.
Welche Gemeinsamkeiten und welche Unterschiede bestehen zwischen den psychischen Akten, die zum Sprach- bzw. Musikverstehen führen? Das ist die Frage, die nunmehr in der Forschung zielgerichteter angegangen wird, nachdem lange Zeit auf getrennten Wegen nach spezifisch sprachlichen und musikalischen Verarbeitungsprinzipien gesucht wurde und das Entdecken von Gemeinsamkeiten quasi ein "Abfallprodukt" darstellte.
Die zentralen Fragen für die Erstellung psychologischer Modelle sind die folgenden: Wie sieht die musikalische und sprachliche Kompetenz des Hörers aus, d.h. welche der objektiv feststellbaren

sprachlichen und musikalischen Strukturaspekte (s. Kap. 2) werden vom Hörer tatsächlich wahrgenommen? Wie werden sie repräsentiert, und wie kann auf dieses Wissen zurückgegriffen werden? Es ist nicht erstaunlich, daß in diesem Rahmen die differenzierten Strukturbeschreibungen der Musiktheorie und insbesondere der Sprachwissenschaft oftmals als Ausgangspunkt für Hypothesen und Experimente benutzt werden.
Nach Darstellung einiger entwicklungspsychologischer Überschneidungen (Kap. 3.3.2.1) werden nun sprachliche und musikalische Wahrnehmungs-, Verarbeitungs- und Speichermodelle (Kapitel 3.3.2.2) miteinander verglichen.

3.3.2.1 Entwicklungspsychologische Erkenntnisse

Psychologische Ähnlichkeiten zwischen Musik und Sprache finden sich bereits im kindlichen (Erst-) Spracherwerb bzw. im Erwerb des jeweiligen kulturspezifischen Musiksystems. So wie man heute Chomskys Postulat von linguistischen Universalien, die dem Kind als Spracherwerbsmechanismus angeboren sind, weitgehend anerkennt (s. Schwarz 1992, S. 105), setzt sich auch in der musikpsychologischen Entwicklungsforschung immer mehr die Ansicht von musikalisch-genetischen Universalien durch, die durch Umwelteinflüsse in eine kulturspezifische Musikauffassung umgeprägt werden (vgl. z.B. Osmond-Smith 1989, S. 89; Sloboda 1985; Serafine 1988; Bruhn/Oerter 1993, S. 280) (s. auch Abb. 4, S. 15). Universalien sind in diesem Sinne bestimmte mentale Strukturen, die die Verarbeitung von Musik ganz unterschiedlicher Kulturen ermöglichen und nicht Eigenschaften der musikalischen Struktur selbst (vgl. Dowling 1989, S. 249). Sowohl Sprache als auch Musik werden schließlich von allen Kindern erworben, sofern sie einem normalen Maß an sprachlichen und mu-sikalischen Darbietungen ausgesetzt sind und sofern keine hirnphysiologischen Störungen vorliegen. Auch im musikalischen Erwerbsprozeß ist spezielle Unterweisung weder notwendig noch ausreichend:

"Although it may facilitate some aspects of the [cognitive] processes, it is fair to say that it is probably a much less potent predictor of musical understanding than might be expected." (Serafine 1988, S. 234)

Die Entwicklung musikalischen und sprachlichen Verhaltens weist außerdem nicht nur ähnliche Entfaltungsprozesse auf, sondern ist vor allem in der Anfangsphase eng miteinander verzahnt. Der erstgenannte Aspekt betrifft das Grundprinzip, daß sprachliche und musikalische Erwerbsvorgänge vom Globalen zum Spezifischen fortschreiten. Ganzheitlich wahrnehmbare Eigenschaften der Sprache wie die Prosodie werden früher "verstanden" als Wortbedeutungen oder syntaktische Beziehungen (vgl. Grimm/Engelkamp 1981, S. 125-127). Auch im musikalischen Bereich wird z.B. der Melodiekontur eher Aufmerksamkeit geschenkt als den exakten Intervallen zwischen den Einzeltönen der Melodie (s. Bruhn 1993c, S. 286/287).
Aus dem Gesagten wird ebenfalls deutlich, daß Sprache in der Anfangsphase auf ihre musikähnlichen, prosodischen Merkmale beschränkt ist. Musik und Sprache besitzen demnach einen gemeinsamen Ursprung in den ersten frühkindlichen, emotionalen Lautäußerungen und entwickeln sich erst nach und nach zu eigenständigen Erscheinungen. Klemm (1987, S. 107) berichtet von einer Untersuchung, durch die deutlich wird, daß Sprachklang und Musik sich erst im Alter von etwa zehn Jahren verselb-ständigt haben. Kinderreime, die von den jungen Versuchspersonen gelesen werden sollten, wurden nämlich erst in diesem Alter sinngemäß betont und nicht mehr musikalisch gestaltet. In dieser engen Verzahnung liegt sicherlich auch der Grund dafür, daß im Vorschulalter die Nachahmung rhythmischer Modelle nicht z.B. durch Tanzen oder Klatschen am besten gelingt, sondern durch übertrieben rhythmisches Sprechen/Deklamieren (ebd., S. 106).

Darüber hinaus gibt es im sprachlichen wie im musikalischen Entwicklungsprozeß Phasen, in denen Lernfortschritte besonders evident sind. Sie heißen auch sensible Phasen. Für die Ausbildung der sprachlichen Syntax gilt beispielsweise ungefähr die Zeit zwischen zweitem und fünftem Lebensjahr als kritischer Zeitraum, in welchem sie durch unbewußte Lernvorgänge und damit am einfachsten erworben wird. Es gibt unterschiedliche Ansichten darüber, wann genau der Erstspracherwerb als abgeschlossen gelten kann (s. Bussmann 1983, S. 476), doch im allgemeinen scheint dies vor der Pubertät der Fall zu sein.
Auch beim Erwerb musikalischer Fähigkeiten konnten sensible Phasen für verschiedene Teilbereiche (z.B. Melodie- und

Rhythmusgedächtnis, Erkennen von Schlußwirkungen, etc.) nachgewiesen werden (vgl. z.B. Serafine 1988; Klemm 1987, S. 112-114). Im Querschnitt ergibt sich das Bild eines überdurchschnittlichen Entwicklungsfortschritts zwischen dem 7. und 12. Lebensjahr. Auch hier liegen also die entscheidenden Phasen vor der Pubertät.

Sprachliche und musikalische Fähigkeiten können also aufgrund der obigen Ausführungen als Ergebnis kognitiver Reifungsprozesse betrachtet werden, die sich aus dem Wechselspiel zwischen genetischen und umweltbedingten Faktoren ergeben. Bis zu einem gewissen Grad greifen dabei sprachliche und musikalische Erwerbsprozesse ineinander.

3.3.2.2 Wahrnehmung, Verarbeitung und Gedächtnis

Daß die menschliche Informationsverarbeitung hierarchisch gegliedert ist, ist bereits in Kapitel 3.2.2.4 angeklungen. Das grundlegende Prinzip ist noch einmal in Abbildung 20 dargestellt:


Abb. 20: Hierarchie menschlicher Informationsverarbeitung (nach: Bruhn 1993b, S. 441)

Auf wahrnehmungsbezogene Prozesse, durch die die sprachlichen und musikalischen Schallereignisse zunächst in Repräsentationen von Laut-folgen/Wörtern oder in musikalische Wahrnehmungskategorien (Tonhöhe, Lautstärke, Klangfarbe, Dauer, etc.) überführt werden, folgt eine kognitive,

(Bruhn 1993b, S. 440) gibt den wichtigen Hinweis, daß kognitiv nicht mit "bewußt" gleichgesetzt werden darf, sondern bestenfalls mit "bewußtseinsfähig".

strukturelle Analyse dieser Informationen. Die Analyse bezieht immer zugleich Wissen mit ein, das als Ergebnis früherer Erfahrungen im Gedächtnis (LZG) abgespeichert ist. Es ist daher sinnvoll, statt von analytischen von konstruktiven Prozessen zu sprechen, deren Ergebnis das Erfassen der Bedeutung und Intention der sprachlichen Mitteilung (z.B. Aufforderung zu etwas) oder der (ästhetische) Gehalt des musikalischen Ereignisses ist. Diese können wiederum bestimmte Handlungen oder z.B. rhythmische Mitbewegungen

Anmerkung: Rhythmische Mitbewegungen beim Musikhören müssen nicht immer Ergebnis kognitiver Verarbeitungsprozesse sein, sondern können auch reflexartigen Charakter haben. (Vgl. Scheytt 1983, S. 224)

nach sich ziehen, was aber für die vorliegende Fragestellung von untergeordneter Bedeutung ist.
Dieses stark vereinfachte Prinzip kann gleichermaßen für Sprache (vgl. z.B. Anderson 1989, Kap.12) und für Musik (vgl. z.B. Williams 1982) nutzbar gemacht werden.

3.3.2.2.1Wahrnehmung als Kategorisierung und die Bildung kognitiver Verarbeitungseinheiten

Lange Zeit wurde davon ausgegangen, daß die Sprachwahrnehmung über einzigartige psychische Prozesse und Mechanismen verfüge. Als erstes konnte dies aber in den siebziger Jahren an einem perzeptuellen Mechanismus widerlegt werden, der in der Psycholinguistik als Kategorisierung bekannt ist.
Bei der Aufnahme von sprachlichen Reizen aus der Umwelt kommt es zu lautlichen Klassenbildungen, die in Kapitel 2 in ihrer Gesamtheit (allerdings unter rein strukturellem Aspekt) als Phoneminventar einer Sprache bezeichnet wurden. Das Prinzip der Kategorisierung sieht so aus, daß ein Vokal oder Konsonant in der Wahrnehmung eine gewisse Variabilität in seinen akustischen Eigenschaften aufweisen kann und dennoch einer bestimmten Vokal-/ Konsonant-Klasse zugeordnet wird. Dabei geht die Wichtigkeit

der Unterscheidung zwischen den Klassen auf Kosten der Unterscheidung innerhalb der Kategorien (s. Krumhansl 1991, S. 281).
Kategoriale Perzeption konnte aber mittlerweile auch außerhalb der Sprache, nämlich bei der visuellen und bei der Musikwahrnehmung nachgewiesen werden. Im Falle der Musikwahrnehmung liegen heute gesicherte Erkenntnisse im Bereich verschiedener akustischer Merkmale vor: Tonhöhen, Intervalle, Akkorde (s. Stoffer 1990, S. 69) und Dauern (s. Sloboda 1985, S. 28 ff.). Auch hier erscheinen absolute akustische Werte von untergeordneter Bedeutung gegenüber den relativen Qualitäten in bezug auf ein Tonsystem oder einen konkreten Rhythmus.

Damit wird deutlich, welche große Bedeutung dem Kontext beim Hören zukommt, da er Informationen über konkrete Bezugssysteme für die elementaren Verarbeitungseinheiten bereitstellt.

"Das Tonsystem stellt vergröbernde Kategorien der Wahrnehmung bereit, die für das Hören von Musik dieses Tonsystems ökonomisch sind." (Nauck-Börner 1987, S. 41)

Allerdings scheint die kategoriale Wahrnehmung im Falle der Musik kein interindividuell gleichermaßen ausgeprägter Mechanismus zu sein, da bei musikalisch Vorgebildeten das auf der Kategorisierung beruhende Prinzip des Zurechthörens (z.B. verstimmter Intervalle) deutlichere kategoriale Grenzen aufweist als dies bei Personen ohne musikalische Ausbildung der Fall ist (s. ebd., S. 40/41). Der Grad der Vertrautheit mit dem jeweiligen Tonsystem erhält damit einen ähnlichen Status wie die Vertrautheit mit dem Phoneminventar einer bestimmten Sprache. Als wenig fortge-schrittener Lerner des Arabischen wird man z.B. anfangs (ähnlich dem Musiklaien) Schwierigkeiten haben, die differenzierenden akustischen Merkmale der einzelnen Phoneme des arabischen Inventars - welches dem Deutschen völlig unbekannte Phoneme enthält - zu bestimmen.
Phoneme und u.a. Klassen von Tonhöhen sowie Akkorden (als Bestandteile eines bestimmten Tonsystems) stellen somit gleichermassen fundamentale Kategorien der Wahrnehmung dar. Sie bestimmen die Bildung grundlegender Verarbeitungseinheiten (s. Serafine 1988, S. 63/64), die sich später, basierend auf allgemeinen Gruppierungsprinzipien, zu größeren Verarbeitungseinheiten zusammenschließen. Diese Gruppierungsprinzipien sind bekannt als Gestaltgesetze und bedürfen hier keiner näheren Erläuterung (zum Nachlesen: Anderson 1989, S. 63-65). Ausschlaggebend ist, daß sie für die Wahrnehmung allgemeingültige, unbewußt ablaufende Mechanismen darstellen, die in bezug auf auditive wie visuelle

Informationen in gleicher Weise Anwendung finden, Musik und Sprache eingeschlossen.
Die in den Gestaltgesetzen zum Ausdruck kommende Idee, daß das Ganze mehr ist als die Summe seiner Teile (= Kriterium der Übersummativität), spiegelt sich sowohl in sprachlichen wie in musikalischen Wahrnehmungsprozessen wider. So erhält beispielsweise eine Lautfolge erst als Ganzes (als Morphem bzw. als Wort) eine Bedeutung, die nicht auf die in ihr enthaltenen einzelnen Lautwerte zurückzuführen ist. Ebenso kann erst die Gestaltbildung dem Musikrezipienten eine fallende Melodielinie als solche sinnfällig machen.

3.3.2.2.2 Zur psychologischen Realität der Grammatik und die Rolle kognitiver Schemata für sprachliche und musikalische Verstehensprozesse

Es schließt sich die Frage an, ob auch auf höherem Verarbeitungsniveau Übereinstimmungen zwischen Musik und Sprache existieren. Im folgenden sollen kognitive Verarbeitungs- und Gedächtnisaspekte aufgrund der engen Verzahnung von Wissens- und kognitivem Bereich (s. Abb. 20, S. 61) gemeinsam betrachtet werden, zuerst für den Bereich Sprache und dann für die Musik.

Auf der Suche nach umfassenden kognitiven Verarbeitungsmechanismen hat man im Bereich der Psycholinguistik versucht, die psychologische Realität der in der Sprachwissenschaft entwickelten grammatischen Beschreibungsmodelle nachzuweisen, d.h. man überprüfte die Hypothese, daß die Chomskysche generative Transformationsgrammatik nicht nur deskriptiv, sondern auch kognitiv adäquat ist (s. Kap. 2.2.4, S. 20/21). Die sich anschließenden experimentellen Untersuchungen erbrachten das Resultat, daß in sprachlichen Verstehensprozessen tatsächlich so etwas wie eine Tiefen- von einer Oberflächenstruktur unterschieden werden muß, wenn auch die psychologische Realität der von Chomsky postulierten, zwischen den beiden Strukturen vermittelnden Transformationsregeln nicht nachgewiesen werden konnte (s. Anderson 1989, S. 293; Schwarz 1992, S. 141). Es wurde z.B. gezeigt, daß ein gehörter Satz nur für sehr kurze Zeit nach der Darbietung noch in seiner wörtlichen Form verfügbar ist und dann in einer

abstrakteren, nur die Bedeutung der Aussage wahrenden Form abgespeichert wird, die man als Tiefenstruktur bezeichnen könnte (s. Hörmann 1976, S. 461).
Die Verarbeitung der Oberflächenstrukturen von Äußerungen ließ sich ebenfalls analog zu Chomskys Phrasenstrukturbäumen als hierarchisch gegliederter Vorgang bestätigen. In erster Linie mit Hilfe der sogenannten Klick-Experimente wurde gezeigt, daß der Hörer einen Satz während des Verstehensprozesses in solche Konstituenten unterteilt verarbeitet, wie sie sich in dem zugehörigen Phrasenstrukturbaum wiederfinden. Den Probanden wurden Sätze dargeboten, in denen an unterschiedlichen Stellen "Klick"-Geräusche eingefügt waren. Daß die linguistischen Einheiten auch funktionale Einheiten der Sprachverarbeitung sind, zeigte sich daran, daß die Versuchspersonen dazu tendierten, das Geräusch näher an der nächsten Konstituentengrenze zu lokalisieren als an der tatsächlichen Position (einen Überblick über die bisher durchgeführten Klick-Experimente gibt Stoffer 1981, S. 300 ff.).

Was die semantische Verarbeitung betrifft, so wurde schon erwähnt, daß sprachliche Informationen nicht in ihrer wörtlichen Form verfügbar bleiben. Grundsätzlich geht man heute davon aus, daß sie auf zwei verschiedene Arten umcodiert werden (s. Hörmann 1976, S. 461 ff.). Die Dual-Coding-Hypothese von Paivio besagt, daß konkrete Sätze (z.B.: Peter repariert das Grammophon) in anderer Form gespeichert werden können als abstraktes verbales Material (z.B.: Hans glaubt nicht an Wunder). Während der erste Beispielsatz auch in einen bildlichen Vorstellungscode "übersetzt" und damit quasi als Ganzes gespeichert werden kann, liegt das Ergebnis der Umcodierung des zweiten Satzes weit näher an der ursprünglichen verbalen Form (s. auch analoge und aussagenartige Codierung, Kap. 3.2.2.4) und stellt nach Paivio eine frühere Verarbeitungsphase dar als die Umcodierung in Vorstellungsbilder.
Die semantische Informationsmenge eines Satzes wird in Form von Propositionen beschrieben, die nach Meinung von Sprachwissenschaftlern auch gleichzeitig Gedächtniseinheiten darstellen.

Es existieren noch andere Erklärungsansätze (vgl. Grimm/Engelkamp 1981, S. 84 ff.). Ich stelle jedoch nur das propositionale Modell vor, da es besonders gut auch zur Erklärung musikalischer Sachverhalte herangezogen werden kann (s. Kap. 4.2).

Sie beschreiben unabhängig von der syntaktischen Form einer Aussage die Relationen zwischen Sachverhalten und bestehen aus

einem oder mehreren Argumenten und einem relationalen Ausdruck (= Prädikat). Z.B. gibt die Proposition
reparieren ( Peter, Grammophon )

den semantischen Gehalt des oben genannten ersten Beispielsatzes wieder. Nach diesem Modell läuft der Verstehensprozeß so ab, daß

"[...] der Rezipient den Wörtern im Satz Argumentkonzepte zuordnet, diese bezüglich ihrer Funktion in Beziehung zum Prädikat setzt und somit die dem Satz zugrundeliegende Proposition erkennt [...]." (Schwarz 1992, S. 146)

Dieser Erklärungsansatz besagt letztlich, daß alle benötigten Informationen für den Aufbau einer semantischen Repräsentation im Satz selbst vorhanden sind und aus ihm extrahiert werden können (= bottom-up-Prozeß). Wie aber an anderer Stelle bereits deutlich geworden ist, muß davon ausgegangen werden, daß auch der Kontext und ältere Wissensbestände den semantischen und syntaktischen Verarbeitungsvorgang mitbestimmen (= top-down-Prozeß), so daß der propositionale Ansatz inzwischen um das Schema-Modell erweitert wurde.
Charakteristika und Funktionsweisen von den im LZG gespeicherten Schemata sind schon in Kapitel 3.2.2.4 zur Sprache gekommen. Als top-down-Komponente steuern sie in der Sprachrezeption syntaktische und semantische "Lesarten" des verbalen Inputs und ermöglichen die Bildung plausibler, nicht im Text genannter Zusammenhänge oder auch die Ergänzung akustisch fehlerhafter Informationen.
Man kann sich das so vorstellen, daß bei der syntaktischen Analyse die Reihenfolge der wahrgenommenen Wörter (ausgehend von ihrer Zugehörigkeit zu syntaktischen Kategorien) mit den im LZG gespeicherten syntaktischen Mustern für einzelne Satz- und Konstituententypen verglichen wird. Auch syntaktisch mehrdeutige Sätze (vgl. den Beispielsatz auf S. 22) können auf diese Weise entschlüsselt werden. Die semantische Analyse läuft unter Rekurs auf Schemata, die Weltwissen codieren, ähnlich ab. Schon die zwei Sätze

Susi durchwühlte die ganze Tasche nach ihrem Portemonnaie. Die Kassiererin wartete geduldig.

vermögen es, das EINKAUFEN-Schema auszulösen, welches Schlußfolgerungen auf nicht explizit genannte Einzelheiten ermöglicht.

Sprachverstehen ist demnach ein komplexer Prozeß, an dem gedächt-nisfunktionale Prinzipien, situative Faktoren und das Weltwissen des Re-zipienten gleichermaßen beteiligt sind. In gewisser Weise hat der Hörer dabei die Wahl zwischen verschiedenen Vorgehensweisen, oder besser Wahrnehmungsstrategien. Die Art des Verstehens und die Behaltensleistung hängen nämlich davon ab,

a) worauf der Hörer seine Aufmerksamkeit ausrichtet (z.B. auf die syntaktische Richtigkeit oder den semantischen Gehalt des Gehörten); (s. auch Kap. 3.1.1: die Rolle der Perspektive für das Verstehen)
b) ob beim Hörer Schemata vorhanden sind, auf die er den sprachlichen Input beziehen kann;
c) wieviel Zeit für den Verarbeitungsprozeß zur Verfügung steht (s. Hörmann 1976, S. 488).

Damit ist Sprachverstehen zu einem wesentlichen Teil ein konstruktiver und nicht nur ein analytischer Vorgang.

Im Vergleich zum Kenntnisstand in der Psycholinguistik ist das Wissen um musikalische Verarbeitungsvorgänge eher dürftig. Zwar sind gerade unter dem Einfluß der Kognitionswissenschaft große Fortschritte gemacht worden, doch:

"Der Versuch, ein übergreifendes theoretisches Modell für die Verarbeitung musikalischer Reize zu finden, ist bisher wenig erfolgreich gewesen." (Bruhn 1993b, S. 439)

Bislang ist in erster Linie die Wahrnehmung einzelner musikalischer Parameter (Tonhöhe, Lautstärke, Klangfarbe, Dauer, Melodiegedächtnis, etc.; vgl. Nauck-Börner 1987) Gegenstand psychologischer Forschung gewesen. Verarbeitungsmodelle für die gleichzeitige Darbietung mehrerer Parameter und ihre gegenseitige Beeinflussung stehen noch weitgehend aus.
Außer Frage steht jedoch, daß musikalisch-akustische Stimuli nicht in analoger Weise verarbeitet und langfristig gespeichert werden, was die im letzten Teilkapitel angeführte kategoriale Wahrnehmung bestätigt. Melodien werden außerdem nicht in den absoluten Tonhöhen ihrer Einzeltöne gespeichert, sondern können von jeder beliebigen Tonstufe aus wiedererkannt und reproduziert werden (s. Sloboda 1985, S. 27). In diesen Zusammenhang gehört auch eine aufschlußreiche Untersuchung von Sloboda und Parker (1985, S. 143-167),

in der kurze tonale Melodien nachgesungen werden sollten. Es stellte sich heraus, daß

"memorising simple, well-formed tonal melodies involves building a mental model of the underlying structure in which not all of the surface detail is necessary retained. Recall involves processes akin to improvisation, which fill in structurally marked slots according to general constraints about what is appropriate to the piece or genre." (ebd., S. 160)

Tonsystem, Metrik, Satz- und Harmonielehre stellen - ähnlich der Grammatik einer Sprache - Bezugssysteme dar, die neben der kurzfristigen analogen Repräsentation eine begriffsähnliche, aussagenartige Speicherung auch für größere Verarbeitungseinheiten möglich machen. Diese wie im Falle der Sprache vorhandene duale Codierungsweise spiegelt sich nicht zuletzt auch in der traditionellen Notationsschrift wider, die eine Mischung aus analogem (z.B. Tonhöhenverlauf) und aussagenartigem Code (z.B. Schlüssel, Vorzeichen, funktionsharmonische Bezeichnungen) darstellt (s. Nauck-Börner 1984).


Abb. 21: Phrasenstruktur der verwendeten Kinderlieder (aus: Stoffer 1985c, S. 198)

Wie bei der Sprachverarbeitung ist es also möglich, auch bei musikalischen Verarbeitungsvorgängen zwischen Oberflächen- und Tiefenstrukturen zu unterscheiden, die durch regelgeleitete Prozesse ineinander überführt werden. Diese Prozesse sind nur in Ansätzen erforscht, denn das Hauptaugenmerk lag bislang auf der mentalen Repräsentation musikalischer Strukturen (statischer Wissensbegriff). Ausgehend von der Frage, welche der objektiv beschreibbaren musikalischen Strukturaspekte auch tatsächlich

wahrgenommen und mental repräsentiert werden, konnte man mit Hilfe experimenteller Untersuchungen nachweisen, daß sich der Hierarchie-Aspekt tonaler Musik (s. Kap. 2.3.2.2) auch in den kognitiven Repräsentationen wiederfinden läßt. Stoffer (1985c) konnte z.B. durch zwei Klick-Experimente (s. S. 65) bestätigen, daß musikalisch erfahrene Probanden dargebotene Kinderlieder beim Hören in Phrasen gliedern, die dem hierarchischen Aufbau des dazugehörigen Strukturbaumes (s. Abb. 21) entsprechen.
Daß dies, wie beim Sprachverstehen, nicht allein das Ergebnis von bottom-up-Prozessen ist, zeigte das zweite Experiment, welches mit musikalisch unerfahrenen Testpersonen durchgeführt wurde. Es stellte sich heraus, daß die oben abgebildete binäre Struktur für diese Personen eine idealtypische Gliederung für Kinderlieder zu sein schien, da sie sie auch auf Lieder mit anderer Strukturierung übertrugen.
An dieser Stelle wird besonders deutlich, daß auch beim Musikverstehen eine top-down-Komponente angenommen werden muß, die man anhand von musikalischen Schemata erklären könnte. Kandidaten für solche Schemata, die implizites musikalisches Wissen repräsentieren, gibt es viele: Tonsysteme, Stilrichtungen (Klassik, Romantik, etc.) Formtypen (Sonate, Lied, etc.) musikhistorisches Wissen, etc..

Die Organisation musikalischer Schemata hat Stoffer (1985a, S. 165) hypothetisch in folgendem Modell dargestellt:


Abb. 22: Hypothetische Struktur der kognitiven Schemata zur Repräsentation musikalischen Wissens (Ausschnitt)

Dieses hierarchische Modell verdeutlicht, daß der Hörer über das "Musikschema", das sein gesamtes musikalisches Wissen umfaßt, auch Zugang zu außermusikalischem Wissen hat. So könnte z.B. das "Weltwissen" ein Subschema "historisches Wissen" besitzen, welches erneut ein Subschema "musikhistorisches Wissen" beinhaltet. Die musikalischen Schemata sind selbst wiederum hierarchisch gegliedert und weisen wie diejenigen, die für das Sprachverstehen ausschlaggebend sind, Leerstellen auf, die von den musikalischen Stimuli belegt werden können. Letztere dienen dann quasi als "Fingerzeig", ob ein Schema "paßt", ob es verändert (und damit etwas Neues gelernt), oder ob ein an-deres aktiviert werden soll.

Neuere Theorien gehen davon aus, daß schematische Wissenstrukturen in der neuronalen Architektur des Gehirns verschlüsselt sind, d.h. die konnektiven Muster des neuronalen Netzes ermöglichen die Codierung von Informationen, indem einige Verbindungen (z.B. durch häufige Inanspruchnahme) verstärkt, andere dagegen abgeschwächt werden (s. Bharucha 1987; Gruhn 1993b).

In diesem Sinne ist Musikverstehen ein

"Gefüge kognitiver Prozesse [...], in deren Verlauf eine Konzeptstruktur [...] entsteht, die eine kognitive Repräsentation kategorialer Beziehungen zwischen musikalischen Einheiten unterschiedlicher Korngröße und zeitlicher Erstreckung erzeugt, wobei möglicherweise Wissen über musikalische Formtypen, die Musikgeschichte und Kompositionstypen berücksichtigt wird und außerdem ein Erkennen musikalischer Bedeutungsaspekte stattfindet sowie Einordnungen in ästhetische Bewertungssysteme vorgenommen werden." (Stoffer 1990, S. 67)

Damit kann festgehalten werden, daß Sprache und Musik nicht nur über die gleichen Wahrnehmungskanäle und hierarchisch gegliedert verarbeitet werden, sondern daß das Musik- wie das Sprachverstehen als erfahrungsgeleitetes Problemlösen angesehen werden kann, während dessen akustischer Input und gespeichertes Wissen miteinander interagieren.
Die Funktionen der Schemata sind bei diesem Vorgang vielfältig: Sie ermöglichen die Integration neuer Informationen, die Bildung von Erwartungen und die Steuerung der Aufmerksamkeitszuwendung. Der letzte Punkt bezieht sich auf die Tatsache, daß abhängig von Vorerfahrung und Handlungsintention auch beim Musikhören verschiedene Verarbeitungsstrategien möglich sind. Der Hörer kann entscheiden, auf welche Repräsentationsebene (z.B. globale Klassifikation oder Kernschema eines bestimmten Formtyps, etc.; s. Abb. 22) er seine Aufmerksamkeit richten möchte,

"[...] ob überhaupt Schemata und Prototypen zur strukturellen (meine Hervorhebung, N.K.) Repräsentation von Musik aktiviert werden sollen, und ob nicht vielmehr die Merkmalsvariation auf der fokussierten Repräsentationsebene unter Verwendung von Schemata und Prototypen weiterverarbeitet werden soll, die affektive (meine Her-vorhebung, N.K.) oder Ausdrucksqualitäten der Musik zu repräsentieren erlauben." (Stoffer 1985a, S. 170)

Unter diesem Aspekt erscheint es plausibel, daß unterschiedliche Ebenen musikalischen Verstehens (s. Kap. 3.1.1) existieren können. Da Musik in der Kognition immer wieder neu und anders erzeugt werden kann, erscheinen auch solche radikal-konstruktivistischen Betrachtungsweisen einleuchtend, die der Musik "außerhalb von menschlichen Köpfen" keine Existenz zugestehen (s. Stadler/Kobs/ Reuter 1993).

Nachdem deutlich gemacht werden konnte, daß die in der Psycholinguistik genutzte Schematheorie auch Erklärungswert für musikalische Verstehensprozesse besitzt, muß nun gefragt werden, wie das in den Schemata repräsentierte musikalische Wissen genau aussehen und wie es mit sprachlichem Wissen in Verbindung stehen könnte. Erklärungsansätze hierzu existieren bisher fast ausschließlich im Bereich des musikalisch-syntaktischen Wissens. Affektiv-ästhetische oder kulturhistorische Aspekte des Musikhörens sind in der Schematheorie noch unzureichend berücksichtigt worden.
Im folgenden Kapitel stelle ich einige der musikalisch-syntaktischen Ansätze vor, die auf der Basis linguistischer Beschreibungsmethoden entstanden sind.

Kapitel 4

_______________________________

4.1 Zur Übertragung psycholinguistischer Ansätze auf die musikalische Verstehensforschung     73

4.2 Harmonielehre als Grammatik der Musik     75

4.3 Zwei produktive generative Grammatiken    81

(Eine Grammatik für schwedische Kinderlieder - Eine Syntax deutscher Volks- und Kinderlieder)

4.4 Eine generativ-analytische Theorie tonaler Musik     87

4.5 Erörterung der Ergebnisse     98


4. Interdisziplinäre Ansätze zur Erklärung strukturellen Verstehens von Musik

4.1 Zur Übertragung psycholinguistischer Ansätze auf die musikpsychologische Verstehensforschung

Als Systeme regelhaft aufeinander bezogener Einheiten besitzen Sprache und Musik gerade auf der syntaktischen Ebene viele Gemeinsamkeiten (s. Kap. 2). Ausgehend von dieser Erkenntnis und in der Hoffnung auf differenziertere Analysemöglichkeiten, ist man seit den siebziger Jahren verstärkt dazu übergegangen, musikalische Strukturen mit dem methodischen Repertoire der Linguistik darzustellen. Dieses Vorgehen fand nicht nur ungeteilte Zustimmung, zumal den strukturellen Besonderheiten der Musik häufig nicht genug Rechnung getragen wurde (s. Gruhn 1989, S.114). Im Laufe der Zeit sind jedoch auch musikalisch-syntaktische Beschreibungsmodelle entstanden, die nicht nur "blind" linguistische Methoden übernommen, sondern sie auch an die besonderen syntaktischen Merkmale der Musik adaptiert und entsprechend weiterentwickelt haben (z.B. Lerdahl/Jackendoff 1983; s. Kap. 4.4).
So wie die Psycholinguistik erhebliche Impulse von der Grammatiktheorie Chomskys empfangen hat, greift man auch in der kognitiven Musikpsychologie in jüngster Zeit häufig auf die o.g. deskriptiven Strukturbeschreibungen zurück, die dann

"[...] Eingang finden in die Bildung von Hypothesen zu strukturellen Aspekten der Verarbeitung beim Hören von Musik, und Aufgabe der Musikpsychologie wäre es, die Nützlichkeit solcher Hypothesen im Rahmen einer Theorie der Verarbeitung und Repräsentation musikalischer Strukturen zu beurteilen." (Stoffer 1985a, S. 148)

Wie komplex das musikalisch-syntaktische Wissen von Hörern z.T. sein kann, zeigt sich z.B. daran, daß sogar stilistische Eigenarten von Komponisten der gleichen Epoche unterschieden werden können. Sicherlich ist das strukturelle Wissen von Hörer zu Hörer unterschiedlich stark ausgeprägt. Für die ästhetische Sinnkonstitution hat jedoch das Erkennen der syntaktischen Funktionen einer Komposition eine besondere Bedeutung (s. Kap. 2.3.2.2). Dies verdeutlicht das folgende Schema, das in Anlehnung an Chomskys Idee einer generativen Transformationsgrammatik entworfen wurde:


Abb. 23: Verstehensvorgänge bei der Strukturerfassung (aus: Gruhn 1989, S. 129)

Die Spannung zwischen Norm und Abweichung ist es, die es zu entdecken gilt, eine Tatsache, die sich auch im sprachlichen Bereich aufzeigen läßt. Sloboda (1985, S. 2/3) führt z.B. eine Analogie zwischen dem Verstehen eines Witzes und dem Musikverstehen an: Einen Witz erfassen heißt, Wörter, Sätze und die darin zum Ausdruck gebrachten Propositionen zu erkennen, eine mentale Repräsentation aufzubauen und schließlich mit Hilfe des sprachlichen und des Weltwissens die Art der Inkongruenz, Zweideutigkeit, etc. herauszufinden, die den Witz ausmacht. Ähnliches gilt für die Musik (s. Abbildung).
Im Mittelpunkt der nachfolgenden Ausführungen steht die Konkretisierung der dem Verstehen zugrundeliegenden syntaktischen Normen/ Schemata. In Kapitel 4.2 geht es zunächst um die Darstellung der mentalen Strukturen, die für das Verständnis der differenzierten harmonischen Strukturen tonaler Musik notwendig sind. In den anschließenden Teilkapiteln werden formtypen- und stilspezifische Modelle vorgestellt.

4.2 Harmonielehre als Grammatik der Musik

Ein herausragendes Charakteristikum der westlich-europäischen Musik ist die Herausbildung einer zunehmend komplexeren Mehrstimmigkeit (welche auf Kosten einer stärkeren Ausdifferenzierung anderer musikalischer Parameter, z.B. des Rhythmus oder der Melodik, ging), die schon im Mittelalter Theorien über die Beziehungen von Zusammenklängen notwendig machte. Als Begründer der heutigen Harmonielehre wird i.a. Rameau ("Traité de l'harmonie", 1722) angesehen. Er verdeutlicht in seiner Schrift die grundlegende Funktion der Harmonik für die westlich-europäische Musik und legt ihre Regeln dar, u.a. das Basisprinzip, daß innerhalb des musikalischen Beziehungsgefüges jeder Akkord eine bestimmte Funktion besitzt, dadurch, daß er in Relation zu einem tonalen Zentrum steht.
Die Analogie zur sprachlichen Grammatik ist offensichtlich. Auch dort erhalten sprachliche Einheiten ihre Funktion erst in Relation zu den anderen Einheiten des Sprachsystems.
Diese Gemeinsamkeit legt es nahe, im Falle der Harmonielehre von einer "Grammatik der Musik" zu sprechen. Herbert Bruhn (1988) geht in seinem Buch der Hypothese nach, daß die Analogie nicht nur auf der Ebene der objektiven Strukturbeschreibung besteht, sondern auch psychologische Realität besitzt, d.h.,

"daß die Verarbeitung harmonischer Zusammenhänge in der Musik in Beziehung zur Verarbeitung sprachlicher Zusammenhänge steht." (ebd., S. 4)

Die Möglichkeit, von einer musikalisch-harmonischen Grammatik sprechen zu können, stützt Bruhn auf die Tatsache, daß sich harmonische Beziehungen und Strukturen ebenso wie sprachliche Zusammenhänge mit Hilfe von Propositionen (siehe Kap. 3.3.2.2.2) beschreiben lassen. So ist z.B. die Proposition

Subdominante ({4,6,1},{1,3,5})

die Beschreibung der Relation zwischen dem Akkord, der die Tonleiterstufen 4, 6 und 1 beinhaltet und demjenigen, der die Stufen 1, 3 und 5 umfaßt. Diese Subdominant-Beziehung (S) sowie die Dominant-Beziehung (D) bezeichnet Bruhn als konditionale Relationen, die von der Existenz eines tonalen Zentrums abhängig sind. Durch diese Abhängigkeitsbeziehung erzeugen (S) und (D) Spannung, während die Tonika-Beziehung als Identitätsrelation dies

nicht vermag. Spannungserhöhend, -abbauend oder -erhaltend können sogenannte konjunktive und disjunktive Relationen (V = Vertreterrelationen) sein. Die ihnen entsprechenden Propositionen können verschiedene, aber gleichwertige Argumente besitzen. Man denke nur an die vielen unterschiedlichen Vertreterklänge der Dominante (D, d, Dp, D7, D7), die in D-Relation zur Tonika zu stehen vermögen, entweder (disjunktiv) einer von ihnen allein oder (konjunktiv) mehrere nacheinander.

Bruhn postuliert, daß Propositionen nicht nur ideal sind, um die harmo-nischen Beziehungen formal zu beschreiben, sondern daß sie auch die mentalen Relationen zwischen Schemata kennzeichnen. Propositionale Beziehungen, so Bruhn, bestünden auch zwischen den Akkorden von möglicherweise mental existierenden Tonalitätsschemata (z.B. C-Dur, s. Abb. 24)


Abb. 24: Propositionales Schema von C-Dur (Ausschnitt aus den theoretisch möglichen Beziehungen; aus: Bruhn 1988, S. 85)

oder zwischen den Formteilen größerer musikalischer Formen, beispielsweise des Volksliedes. Die Nähe des Propositionsgedankens zum "setting" von Geschichten und zu textsortenspezifischen Erzählstrukturen (Märchen, Parabeln, Berichten, ...) ist augenscheinlich. Sobald genügend musikalische oder sprachliche Informationen eingegangen sind, kann der Rezipient einen dazugehörigen Bezugsrahmen - ein Tonalitäts- oder setting-Schema - aktivieren, in den auch die nachfolgenden Informationen eingeordnet werden.
Ein musikalisches Beispiel: In Mozarts "Kleiner Nachtmusik" (s. Abb. 25) wird spätestens in Takt 13 der Akkord des ersten Taktes (G-Dur) als Tonalitätszentrum bestätigt, da hier nach Tonika und Dominante auch die zur eindeutigen Bestimmung einer Tonart notwendige Subdominante erscheint. Der Aufbau des propositionalen Schemas beim Hörer könnte in diesem Falle so aussehen:

Takt 4    Vermutung: D (V(D7, D-Dur), G-Dur)
Takt 13    Bestätigung, denn hier erscheint:         S(V(a-Moll, C-Dur), G-Dur)


Abb. 25: Beginn des ersten Satzes von "Eine kleine Nachtmusik"
(W.A. Mozart, KV 525; aus: Bruhn 1988, S. 90)

Ähnlich wie bei sprachlichen Texten kann in Takt 4 trotz unzureichender propositionaler Informationen ein Tonalitätsschema inferenziert werden, das später bestätigt wird (vgl. z.B.: (a) Peter stellte sich hinter die Dame im langen Abendkleid in die Schlange an der Kasse. [--> Schema "In-die-Oper-gehen"] (b1) "Hoffentlich ist "Aida" noch nicht ausverkauft." dachte er bei sich. [Bestätigung des Schemas]).
Lassen sich nachfolgende Informationen nicht in das aktivierte Schema einordnen, kann im musikalischen wie im sprachlichen Fall der Sinnbezug retrospektiv umgedeutet werden (statt (b1) aus obigem Beispiel: (b2) "Was die Dame wohl heute noch vorhat?" dachte er bei sich und legte seine Einkäufe auf das Band. [--> neuer Sinnbezug: Schema "Einkau-fen"]). Für die Verdeutlichung

des Gedankens einer retrospektiven Umdeutung in der Musik mögen die Anfangstakte aus dem 4. Satz von Schuberts Sonate D 960 dienen (s. Abb. 26).


Abb. 26: Franz Schubert, Sonate B-Dur, D 960, 4.Satz

Bis zum Ende der ersten Zeile muß der Hörer ständig rätseln, wo sich das tonale Zentrum befinden könnte. In Abb. 27 ist dargestellt, wie der Hörprozeß vermutlich abläuft, nämlich in einer häufigen Neuorientierung, die sich in der Aktivierung neuer harmonischer Schemata äußert. Mit dem ge-änderten tonalen Zentrum kann auch eine retrospektive Umdeutung der vorangegangenen Harmonien einsetzen. Mit dem Erreichen der endgültigen Tonika schreibt Schubert eine Wiederholung der ersten acht Takte vor, wie um dem Hörer noch einmal die Möglichkeit zu geben, seine retrospektiven Umdeutungen zu überprüfen oder zu vervollständigen.


Abb. 27: Schematische Darstellung der retrospektiven Umdeutung von propositionalen Beziehungen im 4. Satz der Schubert- Sonate D 960

Im empirischen Teil seines Buches versucht Bruhn im folgenden nachzuweisen, daß objektive und subjektive harmonische Struktur isomorph sind, d.h., daß

a) Angehörige unseres Kulturkreises über Schemata verfügen, musikalische Akkorde voneinander unterscheiden zu können;
b) die Relationen zwischen den musikalischen Informationen durch die Existenz entsprechender mentaler propositionaler Verbindungen erfaßt werden können;
c) durch die mentalen propositionalen Beziehungen ein sinnvolles Strukturieren des (musikalischen) Materials möglich ist (im Sinne der Musiktheorie);
d) für die Fähigkeiten unter a)-c) nicht notwendigerweise deklaratives (= bewußtseinsfähiges) Wissen erforderlich ist, sondern daß prozedurales (= nicht bewußtseinspflichtiges) Wissen ausreicht.

In verschiedenen Experimenten sollten über Kopfhörer dargebotene Akkorde auf Identität/Unterschiedlichkeit (Exp.1) bzw. den Grad der Zusammengehörigkeit (Exp.2) hin beurteilt sowie selbst Folgen von zwei und drei Akkorden komponiert werden (Exp.3). Gegenstand der Experimente waren alle möglichen aus kleinen und grossen Terzen bildbaren Drei- und Vierklänge (= 11 Akkordtypen). Die Gruppe der Versuchspersonen (Vpn) bestand aus musikalischen Experten und musikalischen Laien, deren Ergebnisse jeweils getrennt behandelt wurden.

Die Basishypothese einer Entsprechung von objektiver und subjektiver Struktur mußte nach Auswertung der Ergebnisse zurückgewiesen werden. Die Annahme erwies sich als nicht haltbar, da die Vpn nicht immer zwischen ähnlichen und identischen Akkorden unterscheiden konnten. Zwar schienen alle Teilnehmer Schemata zu besitzen, nach denen sie konsequent urteilten, doch diese mußten aufgrund der Ergebnisse unterschiedlich ausgeprägt sein.

Hypothese b) konnte dagegen in Experiment 2 bestätigt werden. Sowohl Laien als auch Experten bewerteten die Beziehungen zwischen Akkorden dem Regelwerk der Harmonielehre entsprechend, d.h. die Funktionen der Akkorde innerhalb der Sequenz wurden erkannt.
Auch Hypothese c) bestätigte sich. In Experiment 3 stellte sich nämlich heraus, daß alle Vpn Akkorde sinnvoll so zusammenfügen

konnten, daß sie mit harmonischen Propositionen (s.o.) beschreibbar waren.
Hypothese d) hätte sich verifiziert, wenn die Ergebnisse von Laien und Experten in den drei Experimenten gleich gewesen wären. Dies war aber nicht der Fall. In Untersuchung 1 hörten Experten "absoluter", während sich Novizen weniger gut von propositionalen Beziehungen lösen konnten. Auch in den Experimenten 2 und 3 ergaben sich Abweichungen zwischen den beiden Gruppen, wenngleich sie nur geringfügiger Art waren. Hypothese d) konnte daher weder als falsch noch als richtig be-zeichnet werden.

Festzuhalten ist also, daß es wahrscheinlich nicht-bewußtseinspflichtiges, prozedurales Wissen ist, das auch Laien das Erkennen von relationalen Beziehungen ermöglicht. Im Gegensatz zum physikalischen Unterscheidungsvermögen, das den Experten vorbehalten bleibt, ist das Wissen über propositionale Relationen allgemein ausgeprägt und entspricht der in objektiven Strukturbeschreibungen nachweisbaren Analogie der propositionalen Strukturen von Sprache und Musik. Damit liegt der Unterschied zwischen musikalischen Laien und Experten vor allem in den unterschiedlichen Anteilen an bewußtseinsfähigem und nicht bewußtweinspflichtigem Wissen, das in den mentalen Schemata repräsentiert ist.

Die in Bruhns Untersuchung zum Ausdruck gekommene Strukturparallelität zwischen sprachlichen Zusammenhängen und musikalisch-harmonischen Sequenzen läßt vermuten, daß strukturelles sprachliches und musikalisches Wissen zwar möglicherweise bereichsspezifisch und damit modular aufbewahrt wird, daß das bottom-up-Prozesse leitende prozedurale Wissen dagegen - zumindest im harmonischen Bereich - sowohl für musikalische als auch für sprachliche Verarbeitungsvorgänge eingesetzt wird. Diese allgemeinen intellektuellen Strategien würden auch

"[...] erklären, warum Mitglieder außereuropäischer Musikkulturen westliche Musik nicht nur verstehen, sondern darüber hinaus diese Musik so gut reproduzieren lernen, daß ihre Tätigkeit von professionellen Musikern des westlich-europäischen Kulturkreises als bedrohliche Konkurrenz angesehen wird (z.B. bei japanischen Pianisten, Dirigenten, Geigern, usw.)."

Einschränkend ist hier natürlich anzumerken, daß japanische Musiker zumeist bereits von frühester Kindheit an mit der europäischen Musiktradition vertraut gemacht wurden und werden und somit einen den europäischen Kollegen ähnlichen Erfahrungsschatz mitbringen.

(Bruhn 1988, S. 211)

Diese Überschneidungen zwischen sprachlichem und musikalischem Wissen sind aber möglicherweise nur ein kleiner Ausschnitt der denkbaren Gemeinsamkeiten, zumal die Bruhnsche Untersuchung auf westlich-europäische tonale Musik begrenzt war. Eine Ausweitung des vorgestellten Ansatzes auf interkulturelle und entwicklungspsychologische Aspekte wäre daher wünschenswert (vgl. Bruhn 1988, S. 212).

Weitere Forschungsperspektiven auf linguistischer Grundlage betreffen musikalisches Form- und Stilwissen. Drei herausragende Modelle zu diesem Thema sollen im folgenden vorgestellt und bewertet werden.

4.3 Zwei produktive generative Grammatiken

Im Gegensatz zu natürlichen Sprachen, in denen es jeweils eine gültige Syntax gibt, existiert nicht eine Syntax tonaler Musik,

"[...] vielmehr wird man gezwungen sein, für jede einigermaßen objektiv abgrenzbare musikalische Form und für die verschiedensten Kompositionsstile eigene Syntaxen zu entwickeln, [...]" (Stoffer 1979, S. 26),

die es dann auf ihre kognitive Adäquatheit hin zu überprüfen gilt.

Zwar bestehen Vermutungen, daß es syntaktische Regeltypen gibt, die den meisten musikalischen Stiltypen gemeinsam sind (vgl. auch Kap. 4.4), doch wird ebenfalls angenommen, daß die konkreten Inhalte dieser Regeln unterschiedlich sind (s. Stoffer 1979, S. 26; Sundberg/Lindblom 1991, S. 260). Bislang hat man sich in erster Linie mit tonaler Musik und hier insbesondere mit dem Formtyp des Volks- und Kinderliedes beschäftigt (einen Überblick geben Sundberg/Lindblom 1991).
In vielen Fällen sind solche Syntaxen in Anlehnung an Chomskys gTG entwickelt worden, wobei die so entstandenen musikalischen generativen Theorien in zwei Gruppen eingeteilt werden können:

  1. Theorien, die aus einer musikalischen Tiefen- eine Oberflächenstruktur generieren ("produktiver Ansatz");
  2. Theorien, die die Interpretation(en) einer musikalischen Oberflächenstruktur generieren, indem eine zugrundeliegende Tiefenstruktur angenommen wird ("analytischer Ansatz").

Die Vertreter dieser Theorien gehen zwar von unterschiedlichen Seiten an die Sache heran, haben sich aber beide zum Ziel gesetzt, formal adäquate Beschreibungen für musikalische Stile und Formen bereitzustellen. Zur ersten Gruppe gehören die generativen Ansätze von Sundberg/Lindblom (1976) und Stoffer (1979), zur zweiten die in Kapitel 4.4 vorgestellte generative Theorie tonaler Musik von Lerdahl/Jackendoff (1983).

4.3.1 Eine generative Grammatik für schwedische Kinderlieder

Sundberg/Lindblom sind nach dem Konzept vorgegangen, genau diejenigen Regeln ausfindig zu machen, die bei ihrer Anwendung nur solche Musikstücke hervorbringen, die dem Idiom schwedischer Kinderlieder entsprechen bzw. die verschiedenen Versionen eines Liedes erklären können. Den Ausgangspunkt bildete eine Untersuchung der syntagmatischen und paradigmatischen Relationen zwischen den Tönen einer Reihe von unharmonisierten Kindermelodien (= Distributionsanalyse). Das Ergebnis waren hierarchische Konstituentenstrukturbäume, wie sie in Abb. 28 dargestellt sind:


Abb. 28: Die hierarchischen Strukturen der Kinderlieder (aus: Sundberg/ Lindblom 1976, S. 106, 117)

Als nächstes wurden auf dieser Grundlage Betonungsränge für die einzelnen Töne der Melodie abgeleitet. Dafür griffen Sundberg/ Lindblom auf eine linguistische Methode von Chomsky/Halle ("The Sound Pattern of English", 1968) zurück, durch die die Prosodie des Englischen (z.B. die Betonungen bestimmter Wörter und Silben) aus der Konstituentenstruktur der jeweiligen Äußerung hergeleitet werden kann. Im Falle der schwedischen Kinderlieder erhielt jede Zählzeit zuerst den Betonungsrang 1 und das Gebilde als Ganzes eine der Konstituentenstruktur entsprechende Klammerdarstellung (s. Abb. 29 für den Fall einer 8-taktigen Periode).


Abb. 29: Ableitung der Betonungsränge in einer 8-taktigen Periode (aus: Sundberg/Lindblom 1991, S. 251/252)

Die Auflösung der Klammern erfolgte schrittweise von innen nach außen, wobei auf Fußebene der Rang, der links in der verbleibenden Klammer stand, beibehalten wurde, während der rechte um 1 erhöht wurde. Auf den anderen Ebenen war es in der verbleibenden Klammer hingegen der vorletzte rechte Betonungsrang, der gleich blieb. So erhielten Sundberg/Lindblom eine Betonungsrangfolge (prominence contour), bei der der stärkste Rang auf die vorletzte Zählzeit fiel, so, wie es für 8-taktige schwedische Kinderlieder üblich ist (s. Abbildung).

Ausgehend von diesen Betonungsrängen wurden in drei weiteren Teilen der Theorie anhand bestimmter Regeln Tondauern und Harmonien ausgewählt (z.B. wurde dem höchsten Betonungsrang immer die Tonika zu-gewiesen, und nur Zählzeiten mit Rängen <= 4 durften neue Akkorde einführen; für Details s. Sundberg/Lindblom 1976) und anschließend die Tonhöhen bestimmt (bei hohen Betonungsrängen waren beispielsweise nur Noten des jeweiligen Akkordes möglich, sonst auch Durchgangsnoten und Vorhalte), so daß eine harmonisierte Melodie entstand. Das vollständige generative Modell wird noch einmal in Abb. 30 dargestellt:


Abb. 30: Das generative Modell von Sundberg/Lindblom (aus: Sundberg/Lindblom 1976, S. 105)

Dieses Regelsystem erzeugt in der Tat Melodien, die Stilmerkmale schwedischer Kinderlieder aufweisen und besitzt im Aufbau viele Gemeinsamkeiten mit der generativen Phonologie von Chomsky/Halle.
Folgender Schluß von Sundberg/Lindblom ist aber übereilt:

"It is believed that such parallels between language and music reflect characteristics of man's perceptual and cognitive capacities." (Sundberg/Lindblom 1976, S. 99)

Erstens ist - soweit mir bekannt - diese musikalische Syntax niemals durch musikpsychologische Untersuchungen auf ihre kognitive Adäquatheit hin überprüft worden, und zweitens hat sie auch von einer anderen Seite her Kritik erfahren. Es ist z.B. nicht stichhaltig, daß bei der Vergabe der Betonungsränge ein Unterschied gemacht wird zwischen der Fußebene und den übrigen Ebenen (eine Unterscheidung, die es übrigens bei Chomsky/Halle nicht gibt). Dieses Vorgehen grenzt an Willkürlichkeit (s. West/Howell/Cross 1991, S.44).
Außerdem ist das Verfahren sehr stark beschränkt auf den speziellen Typus des schwedischen Kinderliedes. Die Ableitung von

Betonungsrängen ist nach der Methode von Chomsky/Halle nicht einmal für den ähnlichen Typus des deutschen Volks- und Kinderliedes möglich (s. Stoffer 1979, S. 25), was eine Abbildung auf kognitive Vorgänge höchst unwahrscheinlich werden läßt. Empirische Untersuchungen müßten dies allerdings noch unter Beweis stellen.

Ausgereifter ist da schon die im folgenden vorzustellende generative Theorie deutscher Volks- und Kinderlieder von Stoffer, die in der Konkretisierung eines musikalisch-syntaktischen Wissens beim Hörer noch einen Schritt weiter geht als Sundberg/Lindblom.

4.3.2 Eine generative Syntax deutscher Volks- und Kinderlieder

Stoffer (1979) hat wie Sundberg/Lindblom ein Regelsystem entworfen, das eine unendliche Menge (neuer) deutscher Volks- und Kinderlieder erzeugen kann. Es weicht allerdings formal in vieler Hinsicht von dem Modell der Schweden ab, und vor allem vermeidet es Stoffer, voreilig von seiner generativen Syntax auf kognitive Verarbeitungsprozesse zu schließen.

"Das Syntaxmodell ist weder ein Modell der kognitiven Repräsentation noch ein Modell der kognitiven Verarbeitung von Musik; seine Realität ist die der notierten Musik und nicht die der kognitiv repräsentierten Musik; [...]" (Stoffer 1981, S. 289)

Stoffer benutzt die Syntax lediglich als Beschreibungssystem für musikalische Strukturen, auf dessen Grundlage Hypothesen über spezifische Relationen zwischen objektiv gegebener Struktur und mentalen Fähigkeiten gebildet werden. In den sich anschließenden empirischen Überprüfungen der Hypothesen kommt der Syntax eine weitere nützliche Funktion zu:

"[...] Sie ist außerdem ein methodisches Instrument zur Herstellung von Musik als Reizmaterial, das es in objektiver Weise gestattet, strukturell gleichartiges oder systematisch variiertes Reizmaterial zu erzeugen, so daß die strukturelle Vergleichbar-keit des Reizmaterials zwischen Versuchsbedingungen auch bei Darbietung völlig verschiedener Musik gewährleistet ist; [...]" (ebd., S. 282/283)

Anhand der Syntax für deutsche Volks- und Kinderlieder kann Stoffer in seiner Dissertation (1981) durch experimentelle

Untersuchungen weitest-gehend nachweisen, daß das musikalisch-syntaktische Wissen entsprechend der Konstituentenstruktur seiner Syntax hierarchisch aufgebaut sein muß,

Dies zeigte sich vor allem daran , daß Hörer für einen Vergleich musikalischer Einheiten, die zeitlich nah beieinander waren, wesentlich mehr Zeit benötigten, wenn diese Einheiten nicht gleichzeitig auch syntaktisch nah waren, d.h. nicht demselben Segment auf der nächst höheren Ebene der Hierarchie angehörten.

d.h. daß es kognitive Segmentierungskriterien bereitstellt, die ein Erkennen von Motiven, Phrasen, etc. ermöglichen. Wenigstens in dieser Hinsicht haben sich die unfundierten Schlußfolgerungen von Sundberg/Lindblom als richtig erwiesen, denn auch ihre Syntax basiert auf dem Hierarchieprinzip (s.o.).

Um sich ein Bild von den Unterschieden und Gemeinsamkeiten der beiden Syntaxen für Kinderlieder machen zu können, wird Stoffers Theorie im folgenden in ihren wesentlichen Bestandteilen vorgestellt.
Durch eine sogenannte Distributionsanalyse werden zunächst - wie bei Sundberg/Lindblom - die syntagmatischen und paradigmatischen Beziehungen zwischen den musikalisch-syntaktischen Einheiten von 71 deutschen Volks- und Kinderliedern bestimmt. Für die sich ergebenden 8-, 10, 12- und 16-taktigen hierarchisch gegliederten Periodenstrukturen wird dann ein Regelsystem entworfen, das genau solche Strukturen generieren kann. Durch drei stark an Chomskys gTG-Konzept angelehnte Regeltypen wird die Struktur ebenenweise, ausgehend von der höchsten Ebene, abgeleitet. Die transformationellen Ersetzungsregeln (TE-Regeln) sorgen für die vertikale Gliederung, d.h. benachbarte Einheiten einer Ebene werden auf der nächstniedrigeren Ebene weiter untergliedert. Dabei wird gleichzeitig durch Transformationsregeln (T-Regeln) die strukturelle Verwandtschaft der auf einer Ebene benachbarten Segmente (Wiederholung, Umkehrung, Sequenz, etc.) bestimmt. Auf der niedrigsten Ebene erhält jeder Taktschlag einen Betonungsrang gemäß seines metrischen Gewichts. Zuletzt kommen die Ersetzungsregeln (E-Regeln) zum Einsatz, die die Segmentklassen durch Töne und ihre harmonischen Funktionen ersetzen. Wie die anderen Regeltypen sind auch sie kontextsensitiv, d.h. in bestimmten Kontexten werden nur solche Harmonien und Töne abgeeitet, die dort aufgrund der Distributionsanalyse erlaubt sind.
Eine schematische Übersicht über die Funktionen der Regeltypen folgt in Abbildung 31:


Abb. 31: Die Regeltypen in Stoffers Theorie

Je nachdem in welcher Richtung die Regelhierarchie durchlaufen wird, kann ein Lied erzeugt oder analysiert werden.
Das Modell von Stoffer ist in formaler Hinsicht letztendlich dem von Sundberg/Lindblom überlegen: durch die Möglichkeit verschiedene Periodenstrukturen ableiten zu können, durch eine zusätzliche Definition struktureller Verwandtschaften in Form von Transformationsregeln und durch eine explizitere Angabe der Ableitungsregeln (der letzte Aspekt konnte hier aus Gründen der Komplexität nicht gezeigt werden; für Details siehe Sundberg/Lindblom 1976 und Stoffer 1979). Der hierarchische Aufbau ist dagegen beiden Theorien gemeinsam und findet sich auch in der Theorie von Lerdahl/Jackendoff (1983) wieder, die derzeit als das differenzierteste Modell musikalisch-syntaktischer Beschreibung gilt.

4.4 Eine generativ-analytische Theorie tonaler Musik

Lerdahl/Jackendoff (1983) halten es im Gegensatz zu Sundberg/Lindblom für nicht angebracht, von der Erzeugung musikalischer Beispiele auf die Verarbeitungsfähigkeiten beim Hörer zu schließen. Sie schlagen den umgekehrten Weg ein und versuchen, psychologisch relevante Ergebnisse über die Analyse der Struktur tonaler Kompositionen (vornehmlich aus der Wiener Klassik) zu erhalten. Mit einer endlichen Menge formaler Regeln wollen Lerdahl/Jackendoff eine unendliche Menge musikalischer Strukturen beschreiben. Ihre Theorie soll dabei gleichzeitig eine Darlegung der musikalischen Wahrnehmungsfähigkeiten eines idealisierten, in einem Idiom erfahrenen Hörers sein und offenbart damit eine Parallele zur gTG

Chomskys, die ebenfalls eine Theorie der Kompetenz eines idealen Sprechers/Hörers (s. Kap. 2.2.4) ist. Die Autoren betonen allerdings, daß linguistische Konzepte nicht einfach unbedacht übernommen werden:

"If we have adopted some of the theoretical framework and methodology of linguistics, it is because this approach has suggested a fruitful way of thinking about music itself. If substantive parallels between language and music emerge [...], this is an unexpected bonus but not necessarily a desideratum." (ebd., S. 6)

Das ist übrigens genau der Punkt, den sie Sundberg/Lindblom und anderen Anwendern linguistischer Methoden (z.B. Bernstein 1981) vorwerfen: die unkritische Übertragung linguistischer Aspekte auf musikalische Phänomene (Lerdahl/Jackendoff 1983, S. 5).
Lerdahl/Jackendoff stehen außerdem auf dem Standpunkt, daß es in der Musik - anders als in der Sprache - nur an zweiter Stelle darum geht, darzulegen, was möglich (grammatisch) oder unmöglich (ungrammatisch) ist, sondern vielmehr darum, die Mehrdeutigkeiten musikalischer Passagen offenzulegen (s. Lerdahl/Jackendoff 1983, S. 9). Die Darstellung wird dabei auf zwei Aspekte musikalischer Struktur beschränkt: die Festlegung von Wahrnehmungseinheiten und die hierarchischen Relationen zwischen diesen Einheiten. Hier ist anzufügen, daß es den Autoren auf die Beschreibung des strukturellen Wissens des Hörers ankommt und nicht auf die kognitiven Prozesse, die zum Verstehen der musikalischen Strukturen führen. Die Frage, als was und nicht wie der Hörer eine musikalische Struktur versteht, steht im Mittelpunkt der Ausführungen.

Um das Gesagte zu verdeutlichen, soll die Theorie tonaler Musik in groben Zügen dargestellt werden.
Laut Lerdahl/Jackendoff müssen vier Arten struktureller Analyse/ Repräsentation, die alle hierarchisch gegliedert sind, unterschieden werden :

Die Fachtermini werden absichtlich nicht übersetzt, da ihr Sinn meiner Ansicht nach dabei höchstens verfremdet wird. Ihre Bedeutung kann besser aus den nachfolgenden Erklärungen erfaßt werden.

grouping structure, metrical structure, time-span reduction und prolongational reduction.

Als erster Anhaltspunkt mag folgende Definition genügen: Die grouping structure unterteilt die Musik in hierarchisch organisierte zeitliche Segmente (Motive, Phrasen, etc.), die metrical structure weist ihr ein metrisches Betonungsmuster zu, und auf der

Grundlage dieser beiden Strukturebenen wird in der time-span reduction für die Tonhöhen ein Baumdiagramm der relativen strukturellen Wichtigkeit erstellt. In der prolongational reduction schließlich geht es ebenfalls um die Tonhöhenorganisation, doch hier werden die Beziehungen zwischen den Elementen untersucht, ihr Zusammenhang und ihre Entwicklung sowie ihr harmonisch-melodischer Wert in bezug auf Spannung und Entspannung.
Innerhalb jeder dieser Strukturanalysen kommen zwei verschiedene Regeltypen zur Anwendung: Der erste bringt mögliche /"grammatische" Strukturen hervor (= well-formedness rules), und der zweite wählt aus den möglichen Strukturen jene aus, die beim erfahrenen Hörer am wahrscheinlichsten als mentale Organisationen der Komposition entstehen (= preference rules). Mit dem letzten Regeltyp tragen die Autoren ihrer Feststellung Rechnung, daß in der Musik häufig für dieselbe Passage unterschiedliche strukturelle Interpretationen möglich sind, von denen erfahrene Hörer möglicherweise bestimmte bevorzugen. Dies gilt es zu erklären.

Die allgemeine Idee der Theorie von Lerdahl/Jackendoff kann man sich noch einmal anhand von Abbildung 32 vergegenwärtigen. Ein dritter Regeltyp - die transformational rules - kann Abweichungen (z.B. Auslassungen) von der hierarchischen Struktur der von den well-formedness rules erzeugten Analysen bewirken. Er spielt allerdings im Gegensatz zu den Transformationsregeln, die in der gTG zur Anwendung kommen, eine geringere Rolle.


Abb. 32: Schematische Darstellung der Theorie von Lerdahl/Jackendoff (ebd., S. 10)

Die Inhalte der Regeln können hier nicht im Detail besprochen werden (ein Überblick über die Regeln befindet sich im Anhang A), soll aber zumindest mit Hilfe eines Beispiels verdeutlicht werden. Eine simplifizierte, um Wechselnoten und Nachschläge gekürzte Fassung des Anfangs von Mozarts Sonate KV 331 soll als Anschauungsobjekt für die vier verschiedenen Strukturanalysen dienen (s. Abb. 33 und 34).


Abb. 33: Grouping und metrical structure sowie time-span reduction der Anfangstakte von Mozarts Sonate KV 331 (aus: Lerdahl/Jackendoff 1983, S. 118, West/Howell/Cross 1991, S. 37 und Clynes 1983, S.100))


Abb. 34: Die prolongational reduction für obiges Beispiel (aus: West/Howell/Cross 1991, S. 39, Lerdahl/Jackendoff 1977, S. 144)

Die grundlegendste Komponente des musikalischen Verständnisses ist die grouping structure, die unabhängig von einem bestimmten Idiom erstellt werden kann. Die well-formedness rules dieser Komponente sind recht generell gehalten und erlauben nur hierarchisch gegliederte grou-ping structures. Die preference rules sind auf Detailebene hergeleitet von den ursprünglich aus der visuellen Informationsverarbeitung stammenden Gestaltgesetzen und auf höheren Organisationsebenen von den Kriterien Parallelismus (d.h. bei der Wiederholung eines rhythmischen oder melodischen Fragments wird dieses als Einheit aufgefaßt) und Symmetrie (d.h. es besteht eine Bevorzugung einer Subdivision in zwei Teile gleicher Länge). Im Mozart-Beispiel (s. Abb. 33) ist die bevorzugte hierarchische grouping structure durch die eckigen Klammern wiedergegeben.

Beim Aufbau einer metrical structure, die im Beispiel durch Punkte dargestellt ist, wird der musikalischen Passage ein hierarchisches Muster an starken und schwachen Betonungen zugewiesen. Eine Betonung ist dabei um so stärker, je mehr Punkte sie im Endeffekt auf allen Ebenen zusammen besitzt (die stärksten Betonungen im Beispiel sind auf Zählzeit 1 der Ebene der punktierten ganzen Noten). Die well-formedness rules garantieren auch auf dieser Strukturebene einen hierarchischen Aufbau sowie den gleichmäßigen Abstand zwischen den Betonungen, der einem Mitklatschen auf Ebene der punktierten Ganzen, der punktierten Halben und der punktierten Viertelnoten entsprechen würde. Die preference rules wählen Zählzeiten für starke Betonungen aus und berücksichtigen Interaktionen mit der grouping structure, die für die Wahl mit ausschlaggebend sein können.

Der dritten Art der Strukturanalyse - der time-span reduction - legen Lerdahl/Jackendoff folgende psychologische Hypothese zugrunde: "a. Pitch-events are heard in a strict hierarchy [...].
b. Structurally less important events are not heard simply as insertions but in a specified relationship to surrounding more important events."
(Lerdahl/Jackendoff 1983, S. 106)

Stoffer (1981) hat diese Hypothese empirisch nachgewiesen.

Die Schenkersche Analysemethode (s. S. 34) und ihre Idee einer Hierarchie struktureller Wichtigkeit, die aus jeder tonalen Komposition abgeleitet werden kann, steht im Einklang mit der o.g. Hypothese und hat Lerdahl/Jackendoff für die Entwicklung der time-span (und prolongational) reduction in vieler Hinsicht Pate gestanden. Im allgemeinen wird auf Basis der grouping und metrical structure und in Abhängigkeit von musiktheoretischen Regeln (die in well-formedness und preference rules unterteilt werden) aus jeder Gruppe das strukturell wichtigste Ereignis ausgewählt, von dem alle anderen dieser Gruppe nur Erweiterungen (elaborations) darstellen. Durch Wiederholung dieses Vorganges auf den nächsthöheren hierarchischen Ebenen entsteht ein Skelett der strukturell wichtigsten Ereignisse einer musikalischen Komposition/ Passage, das in Form eines Baumdiagrammes wiedergegeben wird (s. Abb. 33).

Dieser Baum darf nicht mit einer linguistischen Konstituentenstruktur gleichgesetzt werden (s. Abb. 7, S. 19), da bei jener in Kopfposition der vollständige Satz steht, dessen Subkonstituenten Teile von ihm sind, während im vorliegenden musikalischen Baum eine wiederholte Selektion von Alternativen dargestellt wird und in Kopfposition nur ein kleiner Ausschnitt des Ganzen steht.

Eine Lesehilfe für den Baum dieser Strukturanalyse bietet folgende Abbildung:


Abb 35: Die Bedeutung der Verzweigungen im time-span reduction tree (aus: Jackendoff/Lerdahl 1980, S. 8)

Wichtigstes Element des Mozart-Beispiels ist somit der Ton auf Zählzeit 1, da die preference rules u.a. solchen Tönen besondere strukturelle Wichtigkeit zuweisen, die harmonische Stabilität (--> Tonika) besitzen, die im unterliegenden Akkord vorkommen und/oder die Teil eines konsonanten Klanges sind.

Die prolongational reduction schließlich wird wiederum von der time-span recuction abgeleitet und macht in Form eines weiteren Baumdiagrammes (s. Abb. 34) das Muster harmonischer Spannung und Entspannung eines musikalischen Abschnitts deutlich. Hier bestehen die größten Parallelen zur Schenkerschen Analyse. Das folgende Schema mag als Legende für den prolongational tree des Mozart-Beispiels dienen:


Abb 36: Die Bedeutung der Verzweigungen im prolongational tree (nach: Lerdahl/Jackendoff 1983, S. 181/182)

Die well-formedness rules dieser Analyse-Ebene entsprechen denen der time-span reduction, und die preference rules sorgen für ein Muster von Spannung und Entspannung, das auf Grundlage musiktheoretischer Prinzipien der harmonischen Stabilität und Entwicklung entsteht.

Die meisten dieser in vereinfachter Form wiedergegebenen Regeln für klassische tonale Musik, insbesondere die well-formedness rules, halten Lerdahl/Jackendoff für universal (s. Anhang A.). Das ist nicht in dem Sinne zu verstehen, daß die Regeln in allen musikalischen Idiomen und Kulturen zur Anwendung gelangen müssen, sondern sie sollten vielmehr als angeborene Aspekte der (musikalischen) Kognition angesehen werden, wobei spätere Abweichungen in den musikalischen Grammatiken von unterschiedlichen Lernprozessen herrühren (s. Kap. 3.3.2.1). Diese kultur- und idiomspezifischen Abweichungen kann man sich im Rahmen der hier beschriebenen Theorie als zusätzliche oder abgewandelte transforma-tional und preference rules vorstellen.
Natürlich können die Regeln nur beim Hören solcher Musik zur Anwendung kommen, die diejenigen Struktureigenschaften aufweist, für die die (universalen) Regeln ausgelegt sind, z.B. nur Musik mit hierarchischen Eigenschaften. Dies würde auch erklären, warum viele zeitgenössische Kompositionen so schwer zugänglich sind. Dadurch, daß häufig eine musikalische Hierarchie fehlt (die der Wahrnehmende als Hörerwartung bevorzugt), wird der Hörer gezwungen, seine Aufmerksamkeit auf nicht-hierarchische Aspekte der musikalischen Struktur (z.B. Dynamik, Klangfarbe, etc.) zu richten. Das Ergebnis ist dann

"[...] a kind of music perceived very locally, often as a sequence of gestures and associations." (Lerdahl/Jackendoff 1983, S. 298)
(vgl. auch Gruhns Ebene des intuitiven Verstehens; s. Abb. 15, S. 42)

Serielle Kompositionsprinzipien sind außerdem vor allem aufgrund der beschränkten Kapazität des KZG beim Hören allein nicht entschlüsselbar (wobei die schwere Zugänglichkeit nicht als ästhetisches Wertmaß verstanden werden sollte).

Eine Frage, die sich an diese Überlegungen zu musikalischen Universalien anschließt, betrifft den Sinn solch komplexer

musikalisch-genetischer Anlagen. Offenbar haben sie keinen direkten Überlebenswert, der ihre evolutionäre Selektion rechtfertigen würde. Lerdahl/Jackendoff vermuten daher, daß viele Prinzipien der musikalischen Grammatik sich auch in an-deren Gebieten der Kognition wiederfinden und nur u.a. für musikalische Verarbeitungsvorgänge nutzbar gemacht werden (s. Lerdahl/ Jackendoff 1983, S. 283).
Tatsächlich können die Autoren einige Parallelen zwischen ihrer Theorie tonaler Musik und Theorien aus der Psychologie und Linguistik anführen, die diese Annahme untermauern. So ist z.B. die Parallele zur Gestalttheorie offensichtlich. Die strukturelle Analyse von Musik verläuft nicht strikt bottom-up vom Detail zum Ganzen, sondern die Interaktion zwischen den vier Arten der Analyse weist auch top-down-Komponenten auf, d.h. globale Informationen einer höheren Verarbeitungsebene (z.B. der prolongational reduction) können strukturelle Regeln einer niedrigeren Ebene (z.B. der time-span reduction) außer Kraft setzen (vgl. time-span reduction preference rule 6 [TSRWFR 6], s. Anhang A).
Eine zweite Gemeinsamkeit besteht in der Anwendbarkeit von preference rules in Musiktheorie und Linguistik. Zwar geht es in der Sprachwissenschaft primär um die Grammatikalität von Äußerungen und damit um die Beschreibung von well-formedness rules, doch finden sich auch in der linguistischen Theorie Phänomene, die der Funktion von preference rules entsprechen. Um nur ein Beispiel herauszugreifen: In der täglichen Kommunikation werden häufig Äußerungen verwendet, die nicht wörtlich gemeint sind (Beispiel: Musikexperte zu seinem Freund während eines äußerst schlechten Bach-Konzerts: " Wußte ich's doch, daß Bach Zeitgenosse Schönbergs war. " --> Ironie) und die nur auf Grundlage bestimmter pragmatischer Prinzipien zu verstehen sind. Diese sogenannten Konversationsmaximen hat Grice (1975) beschrieben:

(a)Maxime der Quantität: Mache deinen Beitrag zur Kommunikation so informativ wie nötig.
(b)Maxime der Qualität: Versuche deinen Beitrag zur Kommunikation so zu machen, daß er wahr ist.
(c)Maxime der Relation: Mache deinen Beitrag relevant.
(d)Maxime der Modalität: Sei klar und deutlich.

Der Hörer wird im umgekehrten Fall folgende Hypothese aufstellen:

Gehe davon aus, daß der Sprecher sich an die Maximen hält.

Im obigen Beispiel wäre die Qualitätsmaxime verletzt, wodurch der Hörer gezwungen wird, nach plausibleren Erklärungen für die Äußerung zu suchen. Hier kommt die Nähe der Konversationsmaximen zu den preference rules deutlich zum Ausdruck.
Eine weitere Analogie zwischen musikalischer und linguistischer Theorie existiert zwischen der formalen Beschreibung der time-span structure und derjenigen sprachwissenschaftlichen Analyse, bei der es um die Betonungsverteilung innerhalb einer bestimmten Sprache geht (prosodic structure). Ein detaillierter Vergleich würde hier zu sehr ausufern (für Einzelheiten s. Lerdahl/Jackendoff 1983, S. 314-330) und soll daher auf die eigentlichen Ergebnisse beschränkt werden. In beiden Fällen wird das musikalische bzw. phonologische Ereignis in eine mehrere Ebenen um-fassende Hierarchie segmentiert (s. Abb. 37), und in beiden Fällen werden erst mögliche Baumstrukturen abgeleitet, bevor dann anhand bestimmter (preference-)Regeln aus ihnen die wahrscheinlichste ausgewählt wird. Auffällig ist ebenfalls, daß die prosodischen und musikalischen Baumdarstellungen einander sehr ähnlich sind und ineinander überführt werden können, obwohl beide Theorien völlig unabhängig voneinander entstanden sind:


Abb. 37: Prosodic structure tree (links) und die "Übersetzung" in die time- span reduction (rechts) (aus: Lerdahl/Jackendoff 1983, S. 315, 317)

Diese theoretischen Parallelen nehmen Lerdahl/Jackendoff als Beweis dafür, daß die Organisationen musikalischer und sprachlicher kognitiver Fähigkeiten in einigen Bereichen von den gleichen Prinzipien Gebrauch machen, daß sie möglicherweise nur

unterschiedliche Ausprägungen einer allgemeineren kognitiven Fähigkeit sind, die zeitliche Phänomene strukturiert (s. Lerdahl/Jackendoff 1983, S. 330). Dies sind starke Behauptungen, die ohne empirische Beweise ziemlich wertlos sind, denn in Kapitel 3 ist bereits deutlich gemacht worden, daß nicht bedingungslos von theoretischen Beschreibungen auf mentale Fähigkeiten geschlossen werden darf.
Seit Veröffentlichung der Theorie von Lerdahl/Jackendoff sind nachträglich jedoch einige musikpsychologische Untersuchungen durchgeführt worden, die die kognitive Adäquatheit der beschriebenen musikalischen Strukturbildung zumindest teilweise bestätigen konnten. Jeder der vier Typen struktureller Analyse wurde bisher ansatzweise überprüft, und die Ergebnisse deuten tatsächlich auf eine mentale Repräsentation dieser Art hin (grouping structure: Deliège 1987, Clarke/Krumhansl 1990; metrical structure und time-span reduction: Palmer/Krumhansl 1987a, b, 1990; für prolongational reduction s. Krumhansl 1991, S. 294). Eine Ausdehnung der Untersuchungen - auch auf andere musikalische Stile - ist aufgrund der Tatsache wünschenswert, daß diese Theorie am vollständigsten metrische, rhythmische, tonale und harmonische Gesichtspunkte in eine einzige mentale Repräsentation integriert,

Allerdings fehlt noch eine exakte Beschreibung der Relationen zwischen den vier Typen musikalischer Strukturrepräsentation (s. Stoffer 1993, S. 476).

was in anderen Modellen nicht der Fall ist. Eine Ausweitung auf andere musikalische Stile und Kulturen könnte weitere universale und kulturspezifische kognitive Fähigkeiten zutage fördern, die für das klassische tonale Idiom nicht vonnöten sind und daher dort nicht ausgemacht werden können.
Der größte Nutzen des Modells von Lerdahl/Jackendoff besteht meiner Ansicht nach aber vor allem darin, durch die Unterscheidung von well-formedness rules und preference rules flexibel zu sein gegenüber individuellen Unterschieden bei der Musikwahrnehmung. Die Theorie ist zwar ausgelegt für einen idealen, erfahrenen Hörer, bietet aber die Voraussetzungen zu einer Adaption an Hörertypen unterschiedlichen musikalischen Erfahrungsgrades (vgl. West/Howell/Cross 1991, S.38).
Ein häufig angeführter (vgl. z.B. Laske 1980, S. 82) Nachteil der Theorie ist die Beschränkung auf das strukturelle Wissen des Hörers und die Ausklammerung des prozeduralen Wissens. In einer Erweiterung des Modells um diesen Aspekt dürfte in Zukunft eine mögliche Forschungsperspektive liegen.

4.5 Erörterung der Ergebnisse

In diesem Kapitel sind einige Modelle vorgestellt worden, die sich der Musik-Sprache-Analogie bedienen. Am Ende kann festgehalten werden, daß diese Analogie durchaus heuristischen Nutzen besitzt.

Auf der einen Seite ist in den dargestellten Theorien deutlich geworden, daß konkrete Methoden der Sprachbeschreibung auch auf musikalisch-syntaktische Strukturaspekte anwendbar sind, sei es die Beschreibung harmonischer Beziehungen durch Propositionen oder die Ausnutzung des generativen Konzepts für die Verdeutlichung stil- und formtypenspezifischer Charakteristika; die Struktur tonaler Musik kann unter Berücksichtigung musikspezifischer Besonderheiten mit linguistischen Mitteln adä-quat beschrieben werden.
Auf der anderen Seite hat sich gezeigt, daß die Möglichkeit eines analogen Methodeneinsatzes zwar keine Garantie für ein analoges mentales Wissen bei der Sprach- und Musikverarbeitung darstellt, daß aber einige Hypothesen, die auf der Basis linguistischer Ansätze aufgestellt wurden, in empirischen Untersuchungen bestätigt werden konnten. Die Ergebnisse des Bruhnschen Experiments machten z.B. deutlich, daß musikalisch-harmonisches ebenso wie sprachliches Wissen in erster Linie Wissen über relationale Zusammenhänge und weniger über absolute akustische Eigenschaften ist. Die experimentellen Untersuchungen zu den Theorien von Stoffer und Lerdahl/Jackendoff bestätigten außerdem eine hierarchische Gliederung musikalischen Wissens, ähnlich den aus der Linguistik übertragenen Strukturbäumen.
Auch wenn dies nur erste Ansätze sind, mentale Überschneidungen zwischen sprachlichem und musikalischem Wissen aufzudecken, so besitzen die Ergebnisse dennoch bereits Erklärungswert für bestimmte musikalische Verhaltensweisen. So wurde in Kapitel 4.4 angedeutet, daß die Verarbeitungsschwierigkeiten bei einigen Arten zeitgenössischer Musik u.a. auf das weitgehende Fehlen hierarchischer Bezüge in dieser Musik zurückgeführt werden können.
Stoffer (1990, S. 64) trifft den Kern der Sache, wenn er schreibt:

"Der heuristische Nutzen der Musik-Sprache-Analogie erweist sich möglicherweise gerade dann, wenn die Musik in besonderem Maße sprachunähnlich ist: Die verbreitete Rede vom "Sprachzerfall" in Teilen der Neuen Musik beruht auf der möglicherweise zutreffenden Erkenntnis,

daß die dem Verstehen von Sprache und Musik zugrundeliegenden kognitiven Prozes-se bei solcher Musik Schwierigkeiten der Verarbeitung zeigen, die ihre Sprachunähnlichkeit bezüglich des syntaktischen Aspekts ins Extreme steigert."

Es ist außerdem nicht zu erwarten, daß der Rahmen für sprachmusik-analoge Forschungen damit bereits ausgeschöpft ist. Insbesondere das Modell von Lerdahl/Jackendoff ist erweiterungsfähig in bezug auf andere Stile und Formtypen sowie den prozeduralen Aspekt musikalisch-syntaktischen Wissens und bezüglich unterschiedlichen Hörverhaltens aufgrund verschiedener Hörerfahrung. Ausgehend von den bisherigen Resultaten halte ich es somit für wahrscheinlich, daß eine an die Psycholinguistik adaptierte Kognitive Musikpsychologie Auslöser für weitere Einblicke in mentale Verarbeitungsvorgänge von Musik (und Sprache) sein kann.

Kapitel 5

__________________________

5.1 Resümee     101

5.2 Praxisrelevante Aspekte und Ausblick     103

5. Abschließende Überlegungen und Ausblick

5.1 Resümee

Die konkreten Ergebnisse der Kapitel 2 bis 4 sollen im folgenden noch einmal zusammengestellt werden:

(1) Die vom Hörer abstrahierbaren Phänomene Sprache und Musik können beide im weitesten Sinne als Zeichensysteme betrachtet werden, die allerdings sehr unterschiedliche Textstrukturen ausbilden.

(2) Diese Texte unterscheiden sich vor allem in der Art und Weise, in der sich Bedeutung konstituiert. In Sprache und Musik werden die Möglichkeiten der Bedeutungskonstitution zwar ähnlich ausgeschöpft, jedoch in unterschiedlichen Gewichtsanteilen.

(a) Die referentielle Bedeutung - im sprachlichen Zeichensystem vorherrschend - spielt in der (nicht-funktionellen Instrumental-) Musik eine weitaus geringere Rolle.

(b) Regeln über syntaktische Relationen sowie der allgemeine Verwendungszusammenhang stellen sowohl in der Sprache als auch in der Musik zwei weitere Arten der Bedeutungskonstitution dar. In der Musik sind sie aber ausgeprägter als in der Sprache.

(3) Definiert man "Verstehen" in erster Linie als Nachvollzug der Ebenen der Bedeutungskonstitution, als "Erkennen von etwas als etwas" (Gruhn 1989, S. 177), dann kann man Musik und Sprache gleichermaßen als Verstehensobjekte klassifizieren.

(4) Der Hörer muß als weitere Variable in den Verstehensprozeß einbezogen werden, da es von seinem Vorwissen und seiner situativen Gestimmtheit abhängt, welche Bedeutungsebenen er erfassen kann bzw. will. Verstehen ist somit immer perspektivisch.

(5) Aus (4) resultieren verschiedene (neutral zu bewertende) Verstehenszugänge, bei denen rational-analytische und ganzheitlich-emotionale Anteile unterschiedlich gewichtet sein können.

(6) Verstehen kann - aus der Perspektive des Hörers - auch definiert werden als die Gesamtheit der mentalen Strukturen und Prozesse, auf denen sprachliche und musikalische Wahrnehmungsfähigkeiten beruhen. Verstehen von etwas als etwas bedeutet also die Aktivierung bereits vorhandener mentaler Repräsentationen von Sprache bzw. Musik.

(7) Ausgehend vom interdisziplinären Vorgehen der Kognitionswissenschaft lassen sich in neuronaler und mentaler Hinsicht Parallelen in Sprach- und Musikverarbeitung aufzeigen.

(a) Weder die Verarbeitung von Sprache noch die von Musik findet in einer Hemisphäre statt. Da die Gehirnhälften funktionale Spezialisierung aufweisen, kann festgehalten daß beide Verstehensvorgänge zum einen ganzheitlich-synthetische und zum anderen analytisch-sequentielle Strategien beinhalten.

(b) Musik und Sprache sind - entwicklungspsychologisch gesehen - in gleicher Weise Reifungsprozesse, die teilweise ähnlich verlaufen und bis zu einem gewissen Grad sogar eng miteinander verzahnt sind.

(c) Weitere Parallelen bestehen in allgemein-psychologischer Hinsicht;

(c1) Die Wahrnehmung von sprachlichen und musikalischen Reizen wird auf niedrigem Verarbeitungsniveau von sogenannten Kategorisierungsprozessen geleitet, d.h. die eintreffenden akustischen Reize werden an mental gespeicherten Bezugsgrößen (Lautklassen bzw. Klassen für Tonhöhen und Akkorde) gemessen und entsprechend zugeordnet.

(c2) Aufgrund zahlreicher experimenteller Ergebnisse müssen auf auf höherem Verarbeitungsniveau größere Bezugssysteme (Schemata) existieren, so daß man Sprach- und Musikverstehen gleichermaßen als erfahrungsgeleitete Problemlösungsvorgänge bezeichnen kann.

(8) Detailliertere Vergleiche sprachlicher und musikalischer Schemata liegen bislang erst aus dem Bereich des syntaktischen Wissens vor. Der dabei benutzte Ansatz, (psycho-)linguistische Methoden an die Musikpsychologie zu adaptieren, brachte

Modelle musikalisch-syntaktischen Wissens hervor, die nicht nur als deskriptiv, sondern als kognitiv adäquat gelten können (z.B. Stoffer 1979, Lerdahl/Jackendoff 1983).
Die herausragendsten Ergebnisse dieses direkten Vergleichs sind:

(a) Sprachliches und harmonisches musikalisches Wissen zeichnet sich in erster Linie durch die mentale Repräsentation relationaler Zusammenhänge (= prozedurales Wissen) aus; nur sehr erfahrene, geschulte Hörer vermögen ihre Aufmerksamkeit auf absolute akustische Werte zu richten und zwischen feinen Unterschieden zu differenzieren (= strukturelles Wissen) (vgl. auch Punkt (7)(c1)).

(b) Das sprachliche und musikalische Wissen ist jeweils hierarchisch gegliedert, d.h. der Hörer unterteilt Sprache bzw. Musik bei der kognitiven Verarbeitung (soweit möglich) in ein Netzwerk voneinder abhängiger Konstituenten. Diese Analogie kann die schwere Zugänglichkeit vieler Arten zeitgenössischer Musik erklären helfen, denen die sprachähnliche hierarchische Gliederung fehlt.

5.2 Praxisrelevante Aspekte und Ausblick

In den vorangegangenen Kapiteln sollte versucht werden zu zeigen, daß zwischen Sprach- und Musikverstehen weitreichende Parallelen existieren. Dabei ist allerdings deutlich geworden, daß besonders in musikpsychologischer Hinsicht noch viele Fragen zu klären sind, bevor die in Kapitel 1 vorgestellten pädagogischen und therapeutischen Konzepte beweiskräftig untermauert bzw. neue, gezielt einsetzbare Verfahren entwickelt werden können. Aufgrund dessen werde ich mich im folgenden auf einige allgemeinere Gedanken zur gegenwärtigen Nutzbarkeit der o.g. Ergebnisse beschränken müssen.

Ein erster Aspekt betrifft die Individualität von Verstehensprozessen. Es ist deutlich geworden, daß das, als was wir etwas verstehen, nicht ausschließlich dem Verstehensobjekt selbst sowie seinem Verwendungszusammenhang erwächst, sondern daß vor allem die individuellen kognitiven Voraussetzungen die Art des Verstehenszugangs bestimmen. Es kann unmöglich ein einziger

"richtiger" Zugang bestimmt werden; bei sprachlichen und musikalischen Kunstwerken noch weniger als bei der Alltagssprache. Die Vielfalt der Wege, die dadurch entsteht, daß erst der Hörer ein sprachliches oder musikalisches Ereignis als für ihn persönlich bedeutungsvoll konstituiert, findet in der Praxis allerdings häufig keine Umsetzung. Ursache dafür ist nicht nur die Kommerzialisierung musikalischer und sprachlicher Kunstwerke, die die bestehenden Freiräume drastisch einschränkt. Auch eingefahrene Bräuche der Aufführungspraxis und ihrer Kritik stehen der o.g. Ansicht individuellen Verstehens entgegen.

"Die Vorstellung zu hegen, man sei als lehrender Virtuose oder als ruhmvoller Kritiker nicht Träger und Verkünder einer über einen selbst hinausweisenden Wahrheit, verlangt ganz gewiß eine persönliche Größe, deren Verbreitetheit nicht zu vermuten ist." (Stadler/Kobs/ Reuter 1993, S. 20)

Ebenso steht die ästhetische Erziehung in den Schulen häufig leider immer noch unter der Leitidee, in expositorischen Lehrverfahren lediglich abfragbares Wissen vermitteln zu müssen (z.B. "Diese Komposition ist eine Fuge, weil sie diese und jene Merkmale besitzt."), wodurch sprachliche und musikalische Werke zu reinen Beispielen für begriffliche Lernziele degradiert werden und der Hörer selbst zur "Nebensache" abgestempelt wird bzw. das Gelernte nur wiederzuerkennen hat. Dies ist übrigens ein Phänomen, das auch häufig in der Gestaltung von Programmheften wiederzufinden ist; die Auflistung von Opuszahl und Entstehungsdatum machen den Hörer glauben, dies sei schon die Sache selbst. Obwohl dies hilfreiche Informationen für das Verstehen sein können, müßte hier dann aber erst die eigentliche Interpretationsleistung anschließen.
Die Vermittlung unterschiedlicher, individueller und kreativer Hörweisen wäre schon alleine deshalb sinnvoller, weil gezeigt wurde, daß für Verstehensprozesse Vorerfahrungen wichtig sind, an die angeknüpft werden kann. Diese Vorerfahrungen können jedoch innerhalb einer Schulklasse sehr verschieden ausgeprägt sein. Sie nutzen hieße, auch solche Erfahrungen zu berücksichtigen, die nicht notwendigerweise aus dem musikalischen (---> Musikunterricht) bzw. sprachlichen (---> Deutsch/Fremdsprachenunterricht) Bereich stammen. Es wäre z.B. möglich, einen Dialogtext auf die Anfangstakte von Mozarts Sonate KV 331 (s. S. 91) zu erfinden und ihn von zwei Schülern singen zu lassen, wodurch einerseits

das satztechnische Prinzip von Melodie und Begleitung und andererseits das Prinzip von Vordersatz und beantwortendem Nachsatz in der musikalischen Periode erarbeitet werden kann. Das Versmaß eines Gedichtes könnte in ähnlicher Weise durch Ausführung passender (Tanz-)Schritte verdeutlicht werden, etc..
Daß auch ohne die mentale Repräsentation spezifisch musikalischer Terminologie tatsächlich schon Verstehensleistungen stattfinden können, konnte z.B. Gruhn (1993 a,b) anhand von Ergebnissen einer Untersuchung zeigen, in der er Schüler unterschiedlicher Altersstufen Hörgeschichten zu L. Berio's "Rendering" schreiben ließ. Der Rückgriff auf außermusikalische Repräsentationen ermöglichte es einigen Schülern, den in der Komposition verwirklichten Konflikt zwischen Altem (= Schubert-Skizzen) und Neuem (= Berio's eigene Einschübe) auf ihre eigene Art und Weise zu erfassen (z.B. "Rembrandt meets Hundertwasser" oder "Vater-Sohn-Konflikt"). Gruhn konnte sogar eine klare Rangfolge in der Ausprägung sprachlicher Repräsentationen feststellen:

"Allem Erkennen vorgeordnet ist eine pauschale ästhetische Eindrucksqualität. Wo weder musikalische Erfahrungen aktiviert werden können noch assoziative Reaktionen sich einstellen, äußern die jugendlichen Hörer ausschließlich globale Geschmacksurteile ("mag ich - mag ich nicht"). Danach bilden sich reiche assoziative Umschreibungen aus, die sich zunächst in reiner Aktionssprache kundtun, die also beschreiben, was nacheinander geschieht. Erst allmählich mit dem Erreichen formaler Repräsentationen wird die Darstellungsform der Texte statisch, [...]" (Gruhn 1993a, S. 4)

Im Kontext dieser Ergebnisse erscheint das Geltenlassen auch mehr emotionaler Zugänge, die dann - wie in Kapitel 3.1.1 bereits angedeutet wurde - Anreiz für weitere Verstehensbemühungen sein können, als zentraler Aspekt. Auch wenn noch keine mentale Repräsentation einer bestimmten musikalischen Form oder eines Gedichttyps vorhanden ist, so kann gerade eine davon unabhängig entstehende Empfindung dem Kunstwerk gegenüber als Ausgangspunkt für den Aufbau eines formalen Wissens (s.o.) dienen. Es ist demnach wichtiger - wie Gruhn (1993b, S. 78) es ausdrückt - "Treffpunkte" zu finden, d.h. den vorhandenen Erfahrungshorizont der Schüler zu bestimmen und dort anzuknüpfen, statt unmotiviert Begrifflichkeiten "einzuflößen".
Auch und gerade das Selbstentdecken-lassen von Zugangsweisen kann im Musik- bzw. Sprachunterricht eine sinnvolle Alternative zum traditionellen Frontalunterricht darstellen. Während bei

letzterem die Vermittlung von Wissensinhalten im Vordergrund steht, würde die genannte Methode dazu beitragen, daß der Schüler auch ein prozedurales Wissen erwirbt, auf das er später in anderem Zusammenhang zurückgreifen kann, um neue Wissensinhalte zu erschließen. Wichtig ist also nicht nur der Erwerb von deklarativem Wissen, sondern der Schüler muß in die Lage versetzt werden, das "Lernen zu lernen". Aufgrund der Tatsache, daß es in einer Schulklasse mit dreißig Schülern beinahe ebensoviele Lerntypen geben kann, ist es sinnvoll,

"[...] die Schüler so früh wie möglich an[zu]leiten [...], ihren eigenen individuellen Lerntyp herauszufinden. Kurz, wir müssen das ganze Problem - wenn schon der Lehrer als aktiver Faktor ausscheidet - auf den Schüler abwälzen." (Vester 1991, S. 99)

In der Form eines offenen, handlungsorientierten Unterrichts,

Rauhe/Reinecke/Ribke (1975) haben diesen Ansatz auf die Musikdidaktik übertragen.

in dem die Schüler aus einem vielfältigen Angebot unterschiedlicher Zugangsweisen (gestisches bzw. bewegungsmäßiges Gestalten, Visualisieren, Verbalisieren, etc.) auswählen dürfen, liegt die Möglichkeit, jeden Schüler dort "abzuholen", wo er erfahrungsmäßig steht, und dabei kann dann u.a. sprachliches Handlungswissen für das Musikverstehen nutzbar gemacht werden und umgekehrt.

Der angesprochene Lerntransfer ist zwar immer noch nicht hinreichend psychologisch geklärt, doch gibt es vermehrt Hinweise darauf, daß einige Prozesse der kognitiven Verarbeitung für Musik und Sprache die gleichen sind (s. Kap. 3 und 4), während die Informationsgrundlage für die Prozesse - die deklarativen Wahrnehmungs- und Gedächtnisrepräsentationen - durchaus unterschiedlich ausgeprägt sein können. Anders ausgedrückt: Der für jedes Verstehen essentielle Vorgang der Erwartungsbildung funktioniert wahrscheinlich unabhängig von der Art der Erwartung, die dann entsteht. Einige Wissenschaftler vermuten aus diesem Grund einen übergeordneten kognitiven Organisationsmechanismus, der auch die Basis für musikalische und sprachliche Wahrnehmungsfähigkeiten bildet. Campbell/ Heller (1981) stellen dies folgendermaßen dar:

"We propose that both language and music stem from some more basic brain organizing capability and that each may satisfy the brains developmental need for imposing structure and meaning." (ebd., S. 5) (vgl. auch Kap. 4.4, S. 97/98)

Dies könnte eine interessante Perspektive für weitere Forschungsprojekte abgeben. Ein gezielter Vergleich der psychischen Verarbeitungsvorgänge von zeitlich strukturierten Ereignissen unterschiedlicher Art (Sprache, Musik, Tanzschrittfolgen, etc.) brächte vielleicht neue oder ergänzende Erkenntnisse im Hinblick auf eine psychologisch fundierte Musik- bzw. Sprachpädagogik.

Auch für den therapeutischen Bereich wäre das Wissen um ähnliche Verarbeitungsstrategien von Musik und anderen zeitlich strukturierten Ereignissen sehr nützlich. Eine Vorahnung therapeutischer Behandlungsmöglichkeiten bekommt man, wenn man die Beobachtungen des Neuropsychologen Oliver Sacks reflektiert:

"Novalis führte aus, daß jede Krankheit ein musikalisches Problem, die Heilung eine musikalische Auflösung sei. Man findet diese Idee buchstäblich und erstaunlicherweise bei Patienten mit Parkinsonismus und postencephalitischem Syndrom

postencephalitsch = auf eine Gehirnentzündung folgend

bestätigt. Es gibt Patienten, die unfähig sind, einen einzigen Schritt zu gehen, aber mit vollendeter Leichtigkeit und Anmut tanzen können. Und es gibt Patienten, die kein Wort auszusprechen vermögen, jedoch mühelos singen und dabei in die Musik das richtige Maß und die Vielfalt der Intonation, das ganze Gefühl, das erforderlich ist, legen. Man entdeckt Patienten mit verkrampfter oder zittriger Mikroschrift, die - ganz plötzlich - "hineinkommen" in das, was sie tun, und dann mit ihrer gewohnten Geschmeidigkeit und ihrem Stil schreiben und genau das wiedererlangen, was Luria die "kinetische Melodie" des Schreibens genannt hat." (Sacks 1991, S. 336)

In einer ersten Annäherung kann man Musik in all diesen Fällen als "inneren Schrittmacher", als "Metronom" beschreiben, das auf wirksame Art und Weise zu strukturieren vermag, wo andere abstrakte Formen von Organisation ausgefallen sind. Anders ausgedrückt: Musik kann - wie die Beobachtungen zeigen - selbst bei Patienten mit schweren kognitiven Ausfällen die Rolle einer Ersatzstrategie übernehmen und dabei u.a. auch sprachliche bzw. sprechmotorische Defizite ausgleichen.

Weiterführende empirische Untersuchungen sind jedoch nötig, um solche eher am Rande entdeckten Phänomene systematisieren zu können. Im Zuge dessen müßte gerade auch der genaue Zusammenhang zwischen Perzeption und Produktion thematisiert werden, der in der vorliegenden Arbeit noch außer acht gelassen wurde. Außerdem wird die Erfassung von Regelhaftigkeiten im gemeinsamen

Auftreten von sprachlichen und musikalischen Ausfällen ebenso wichtig sein wie die Fragestellung, inwiefern das Ausmaß der musikalischen Vorerfahrungen andere therapeutische Behandlungsmöglichkeiten erfordert bzw. eröffnet.

Das Spektrum denkbarer (sprach-)therapeutischer Anwendungsfelder von Musik liegt z.Zt. noch weitestgehend im Dunkeln. Auf Anfrage bei diversen sprach- und musiktherapeutischen Einrichtungen, beim Deutschen Berufsverband für Logopäden sowie bei der Deutschen Gesellschaft für Musiktherapie konnte man mir keine Angaben darüber machen, ob bereits entsprechende Forschungsprojekte durchgeführt wurden bzw. derzeit laufen. Lediglich von einem Logopäden erfuhr ich, daß er aufgrund guter Erfahrungen häufig parallel zur Therapie an Rhythmik-Institute überweist. Es ist daher davon auszugehen, daß dieses und die in Kapitel 1.2 vorgestellten, auf sehr wackligen Füßen stehenden therapeutischen Konzepte weiterhin die einzige Annäherung an das weite Feld der Anwendungsmöglichkeiten darstellen. Von einer psychologisch fundierten Sprech-/Sprachtherapie, die gezielt musikalische Mittel einzusetzen in der Lage ist, kann demnach noch nicht gesprochen werden.

Abschließend kann also festgehalten werden, daß der direkte Vergleich von Sprach- und Musikverstehen z.Zt. zwar vielversprechende neue Perspektiven für Pädagogik und Therapie vorzeichnet, daß es aber noch weiterer intensiver Forschung bedarf, bevor fundierte Konzepte für die Praxis ausgearbeitet werden können.

Mit dem folgenden Fragenkatalog sollen bislang vernachlässigte Aspekte aufgezeigt werden, die in zukünftigen Projekten eine Rolle spielen müßten:

Wie können affektiv-ästhetische Aspekte von Verstehensvorgängen in der Schematheorie detailliert berücksichtigt werden?

Können die pragmatischen Gesichtspunkte, die das Musikhören beeinflussen (kontextuelle und historische Faktoren, musikalisches Vorwissen), systematisiert und in musikalisch-syntaktische Modelle (s. Kap. 4) integriert werden?

Wenn man schon von musikalischen Texten sprechen kann, ist es dann nicht auch sinnvoll, neben den Methoden der Satzlinguistik solche der Textlinguistik einzubeziehen, um Musik zu beschreiben (wodurch eine mehr ganzheitliche Auffassung von Musik gefördert würde)?

Wie kann das für die Sprach- und Musikverarbeitung benötigte prozedurale Wissen eingehender untersucht werden? (Da die Überschneidungen vor allem in diesem und weniger im Bereich des de-klarativen/statischen Wissens zu liegen scheinen, dürfte es sich hier um ein zentrales Anliegen handeln.)

Welche Parallelen, welche Unterschiede bestehen zum Musik- (vielleicht sogar Sprach-)Verstehen in anderen Kulturen? (Eine interkulturelle Betrachtungsweise könnte helfen, Universalien aufzudecken.)

Gibt es sprachliche und musikalische Ausfälle, die stets gemeinsam auftreten? (Diese Nachforschungen könnten allerdings nur mit Patienten durchgeführt werden, deren musikalische Vorgeschichte bekannt ist, bzw. es müßten bereits gesicherte Erkenntnisse aus der Universalienforschung vorliegen.)

Ist die Produktion von Sprache und Musik lediglich ein Umkehrprozeß des Sprach- bzw. Musikverstehens (s. auch S. 108)?

Wenn sich bestätigen ließe, daß Sprache und Musik auf ähnliche Prozeduren zurückgreifen, könnte die gezielte Förderung einer Tätigkeit dazu beitragen, die Leistung in der anderen zu verbessern oder den Lernprozeß zu erleichtern - sowohl in der pädagogischen wie in der therapeutischen Praxis.
In dem Mosaik der notwendigen Forschung sind zwar noch sehr viele Lücken zu verzeichnen, doch hoffe ich, mit dieser Arbeit einige Ecksteine gesetzt und zu weiteren Bemühungen auf diesem Gebiet angeregt zu haben.

Anhang A.:

Liste der Regeln aus Lerdahl/Jackendoff's
A theory of tonal music  (S. 345-352)

Note: Rules marked with an asterisk are idiom-specific. We believe the rest are universal.
 
Grouping 
Structure
GWFR 1 
Any contiguous sequence of pitch-events,
 drum beats, or the like can constitute a group,
 and only contiguous sequences can constitute a
 group.

 GWFR 2
 A piece constitutes a group.

 GWFR 3
 A group may contain smaller groups.

 GWFR 4
 If a group G1 contains part of a group G2, it must 
 contain all of G2.

 GWFR 5
 If a group G1 contains a smaller group G2, then G1 
 must be exhaustively partitioned into smaller groups.

 GPR 1, alternative form
 Avoid analyses with very small groups - the smaller,
 the less preferable.

 GPR 2 (Proximity)
 Consider a sequence of four notes n1n2n3n4. All else 
 being equal, the transition n2-n3 may be heard as a 
 group boundary if
 a. (Slur/Rest) the interval of time from the end of n2
  to the beginning of n3 is greater than that from the 
  end of n1 to the beginning of n2 and that from the
  end of n3 to the beginning of n4, or if
 b. (Attack-Point) the interval of time between the 
  attack points of n2 and n3 is greater than that
  between the attack points of n1 and n2 and that
  between the attack points of n3 and n4.

GPR 3 (Change)
Consider a sequence of four notes n1n2n3n4. All else
being equal, the transition n2-n3 may be heard as a
group boundary if
a. (Register) the transition n2-n3 involves a greater
 intervallic distance than both n1-n2 and n3-n4, or
 if


 
b. (Dynamics) the transition n2-n3 involves a change  in dynamics and n1-n2 and n3-n4 do not, or if
c. (Articulation) the transition n2-n3 involves a  change in articulation and n1-n2 and n3-n4 do not,  or if
d. (Length) n2 and n3 are of different lenghts and both pairs n1,n2 and n3,n4 do not differ in lenght.

GPR 4 (Intensification)
Where the effects picked out by GPRs 2 and 3 are relatively more pronounced, a larger-level group boundary may be placed.

GPR 5 (Symmetry)
Prefer grouping analyses that most closely approach
the ideal subdivision of groups into twoparts of equal
length.

GPR 6 (Parallelism)
Where two or more segments of the music can be
construed as parallel, they preferably form parallel
parts of groups.

GPR 7 (Time-Span and Prolongational Stability)
Prefer a grouping structure that results in more stable
time-span and/or prolongational reductions.

Grouping Overlap
Given a well-formed underlying grouping structure G
as described by GWFRs 1-5, containing two adjacent
groups g1 and g2 such that
 g1 ends with event e1,
 g2 begins with event e2, and
 e1 = e2,
a well-formed surface grouping structure G' may be
formed that is identical to G except that
it contains one event e1 where G had the sequence
e1e2,
   e' = e1 = e2,
 all groups ending with e1 in G end with e' in G', and
 all groups beginning with e2 in G begin with e' in G'.

Grouping Elision
Given a well-formed underlying grouping structure G
as described by GWFRs 1-5, containing two adjacent
groups g1 and g2 such that
 g1 ends with event e1,
 g2 begins with event e2, and
 (for left elision) e1 is harmonically identical to e2
and less than e2 in dynamics and pitch range or
 (for right elision) e2 is harmonically identical to e1
and less than e1 in dynamics and pitch range,
a well-formed surface grouping structure G' may be
formed that is identical to G except that
 it contains one event e1 where G had the sequence
 e1e2,


 

 
 
 

Metrical
Structure

 (for left elision) e' = e2,
 (for right elision) e' = e1,
 all groups ending with e1 in G end with e' in G', and
 all groups beginning with e2 in G begin with e' in G'.

Metrical MWFR 1 (revised)
Structure Every attack point must be associated with a beat at
 the smallest metrical level present at that point in the
 piece.

 MWFR 2 (revised)
 Every beat at a given level must also be a beat at all 
 smaller levels present at that point in the piece.

 MWFR 3 *
 At each metrical level, strong beats are spaced either
 two or three beats apart.

 MWFR 4 (revised) *
 The tactus and immediately larger metrical levels 
 must consist of beats equally spaced throughout the
 piece. At subtactus metrical levels, weak beats must 
 be equally spaced between the surrounding strong 
 beats.

 MPR 1 (Parallelism)
 Where two or more groups or parts of groups can be
 construed as parallel, they preferably receive parallel
 metrical structure.

 MPR 2 (Strong Beat Early)
 Weakly prefer a metrical structure in which the 
 strongest beat in a group appears relatively early in
 the group.

 MPR 3 (Event)
 Prefer a metrical structure in which beats of level Li 
 that coincide with the inception of pitch-events are 
 strong beats of Li.

 MPR 4 (Stress)
 Prefer a metrical structure in which beats of level Li 
 that are stressed are strong beats of Li.

 MPR 5 (Length)
 Prefer a metrical structure in which a relatively strong
 beat occurs at the inception of either
 a.  a relatively long pitch-event,
 b. a relatively long duration of a dynamic,
 c.  a relatively long slur
 d. a relatively long pattern of articulation
 e.  a relatively long duration of a pitch in the relevant 
  levels of the time span reduction, or
 f.  a relatively long duration of a harmony in the 
  relevant levels of the time-span reduction (harmonic 
  rhythm).

 MPR 6 (Bass)
 Prefer a metrically stable bass.


 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Time-Span 
Reduction

 MPR 7 (Cadence)
 Strongly prefer a metrical structure in which cadences 
 are metrically stable; that is, strongly avoid violations 
 of local preference rules within cadences.

 MPR 8 (Suspension) *
 Strongly prefer a metrical structure in which a suspen-
 sion is on a stronger beat than ist resolution.

 MPR 9 (TimeSpan Interaction)
 Prefer a metrical analysis that minimizes conflict in 
 the time-span reduction.

 MPR 10 (Binary Regularity)
 Prefer metrical structures in which at each level every
 other beat is strong.

 Metrical Deletion
 Given a well-formed metrical structure M in which
 i. B1, B2, and B3 are adjacent beats of M at level Li,
  and B2 is also a beat at level Li+1,
 ii. T1 is the time-span from B1 to B2 and T2 is the
  time-span from B2 to B3, and
 iii. M is associated with an underlying grouping 
  structure G in such a way that both T1 and T2 are 
  related to a surface time-span T' by the grouping 
  transformation performed on G of
   (a) left elision or
   (b) overlap,
 then a well-formed metrical structure M' can be
 formed from M and associated with the surface 
 grouping structure by
 (a) deleting B1 and all beats at all levels between B1 
  and B2 and associating B2 with the onset of T', or
 (b) deleting B2 and all beats at all levels between B2
  and B3 and associating B1 with the onset of T'.

Time-Span Segmentation Rule 1
Reduction Every group in a piece is a time-span in the time-span 
 segmentation of the piece.

 Segmentation Rule 2
 In underlying grouping structure,
  a. each beat B of the smallest metrical level deter-
   mines a time-span TB, extending from B up to but 
   not including the next bar of the smallest level,
 b. each beat B of metrical level Li determines a 
   regular time-span TB, which is the union (or sum) 
   of the time-spans of all beats of level Li-l (the next 
   smaller level) from B up to but not including
   (i)  the next beat B' of level Li* or
   (ii) a group boundary,
   whichever comes sooner, and
 c. if a group boundary G intervenes between B and 
  the preceding beat of the same level, B 


 
determines an augmented time-span T'B, which is the 
  interval from G to the end of the regular time-span
  TB.

 TSRWFR 1
 For every time-span T there is an event e (or a 
 sequence of events e1e2) that is the head of T.

 TSRWFR 2
 If T does not contain any other time-span (that is, that 
 T is at the smallest level of time-spans), then e is 
 whatever event occurs in T.

 TSRWFR 3
 If T contains other time-spans, let T1,...,Tn be the 
 (regular or augmented) time-spans immediately 
 contained in T and let e1,...,en be their respective 
 heads. Then:
 a. (Ordinary Reduction) The head of T may be one 
  of the events e1,...,en.
 b. (Fusion) If e1,...,en are not seperated by a group 
  boundary ("locality" condition), the head of T may 
  be the superimposition of two or more of e1,...,en.
c. (Transformation) If e1,...,en are not seperated by
  a group boundary, the head of T may be some 
  mutually consonant combination of pitches 
  chosen out of e1,...en. *
 d. (Cadential Retention) The head of T may be a 
  cadence whose final is en (the head of Tn - the 
  last time-span immediately contained in T) and
  whose penult, if there is one, is the head of a 
  time-span immediately preceding Tn, though not 
  necessarily at the same level. *

 TSRWFR 4
 If a two-element cadence is directly subordinate to a 
 head e of a time-span T, the final is directly subordi-
 nate to e and the penult is directly subordinate to the 
 final.

 TSRPR 1 (Metrical Position)
 Of the possible choices for head of a time-span T, 
 prefer a choice that is in a relatively strong metrical 
 position.

 TSRPR 2 (Local Harmony)
 Or the possible chices for head of a time-span T, 
 prefer a choice that is 
 a. relatively intrinsically consonant,
 b. relatively closely related to the local tonic.

 TSRPR 3 (Registral Extremes)
 Or the possible choices for head of a time-span T, 
 weakly prefer a choice that has
 a. a higher melodic pitch
 b. a lower bass pitch

 TSRPR 4 (Parallelism)
 If two or more time-spans can be construed as 
 motivically and/or rhythmically parallel, preferably
 assign them parallel heads.

 
 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Prolongational 
Reduction 

 TSRPR 5 (Metrical Stability)
 In choosing the head of a time-span T, prefer a choice
 that results in more stable choice of metrical structure.

 TSRPR 6 (Prolongational Stability)
 In choosing the head of a time-span T, prefer a choice 
 that results in more stable choice of prolongational 
 reduction.

 TSRPR 7 (Cadential Retention)
 If the following conditions obtain in a time-span T, 
 then label the progression as a cadence and strongly 
 prefer to choose it as a head:
  i. There is an event or sequence of two events 
   (e1)e2 forming the progression for a full, half, or 
   deceptive cadence. *
    ii. The last element of this progression is at the end 
   of T or is prolonged to the end of T.
   iii. There is a larger group G containing T for which 
   the progression can function as a structural 
   ending.
 TSRPR 8 (Structural Beginning)
 If for a tome-span T there is a larger group G con-
 taining T for which the head of T can function as the 
 structural beginning, then prefer as head of T an 
 event relatively close to the beginning of T (and hence 
 to the beginning of G as well).

 TSRPR 9 *
 In choosing the head of a piece, prefer the structural 
 ending to the structural beginning.

Prolongational PRWFR 1
Reduction There is a single event in the underlying grouping 
 structure of every piece that functions as prolon-
 gational head.

 PRWFR 2
 An event ei can be a direct elaboration of another 
 event ej in any of the following ways:
 a. ei is a strong prolongation of ej if the roots, bass 
  notes, and melodic notes or the two events are 
  identical.*
 b. ei is a weak prolongation of ej if the roots of the two 
  events are identical but the bass and/or melodic 
  notes differ.  *
 c. ei is a progression to or from ej if the harmonic 
  roots of the two events are different. *

 PRWFR 3
 Every event in the underlying grouping structure is 
 either the prolongational head or a re-
 cursive elaboration of the prolongational head.

 PRWFR 4 (No Crossing Branches)
 If an event ei is a direct elaboration of an event ej, 
 every event between ei and ej must be a direct elabo-
 ration of either ei, ej, or some event between them.


 
PRPR 1 (Time-Span Importance)
 In choosing the prolongationally most important event 
 ek of a prolongational region (ei-ej), strongly prefer a 
 choice in which ek is relatively time-span-important.

 PRPR 2 (Time-Span Segmentation)
 Let ek the prolongationally most important event in a
 prolongational region (ei-ej). If there is a time-span 
 that contains ei and ek but not ej, prefer a prolonga-
 tional reduction in which ek is an elaboration of ej; 
 similarly with the roles of ei and ej reversed.

 PRPR 3 (Prolongational Connection)
 In choosing the prolongationally most important event 
 in a prolongational region (ei-ej), prefer an ek that 
 attaches so as to form a maximally stable prolon-
 gational connection with one of the endpoints of the 
 region.

 Stability Conditions for Prolongational Connection
 1. (Branching condition)
  a. Right strong prolongations are more stable 
    than right weak prolongations, which in turn are 
    more stable than right progressions.
  b. Left progressions are more stable than left 
    weak prolongations, which in turn are more 
    stable than left strong prolongations.
 2. (Pitch-collection condition) *
 A connection between two events is more stable if 
 they involve or imply a common diatonic collection.
 3. (Melodic condition)
  a. (Distance) A connection between two events is 
    melodically more stable if the interval between 
    them is smaller (with the exception of the oc-
    tave, which is relatively stable).
  b. (Direction) An ascending melodic progression 
    is most stable as a right-branching structure; a 
    descending one is most stable as a left-bran-
    ching structure.
 4. (Harmonic condition) *
  a. (Distance) A connection between two events is 
    harmonically more stable if their roots are 
    closer on the circle of fifths.
  b. (Direction) A progression that ascends along 
    the circle of fifths is most stable as a right-
    branching structure; one that descends along 
    the circle of fifths or produces a subdominant-
    to-dominant-relationship is most stable as a 
    left-branching structure.

 Interaction Principle
 In order to make a sufficiently stable prolongational 
 connection, ek must be chosen from the events in the 
 two most important levels of time span reduction 
 represented in (ei-ej).


 
 PRPR4 (Prolongational Importance)
 Let ek be the prolongationally most important event in 
 a region (ei-ej). Prefer a prolongational reduction in 
 which ek is an elaboration of the prolongationally 
 more important of the endpoints.

 PRPR 5 (Parallelism)
 Prefer a prolongational reduction in which parallel 
 passages receive parallel analyses.

 PRPR 6 (Normative Prolongational Structure)
 A cadenced group preferably contains four (five) 
 elements in its prolongational structure:
  a.  a prolongational beginning,
  b. a prolongational ending consisting of one 
    element of the cadence,
    (c. a right-branching prolongation as the most 
   important direct elaboration of the prolongational 
   beginning,)
  d. a right-branching progression as the (next) 
    most important direct elaboration of the prolon-
    gational beginning.
  e.  a left-branching "subdominant" progression as 
    the most important elaboration of the first 
    element of the cadence.

Anhang B.:

Literaturverzeichnis


Adorno, Theodor W. (1956/57): Fragment über Musik und Sprache.
In: Sprache - Dichtung - Musik. Hg. von J. Knaus. Tübingen:
Niemeyer, 1973, S. 71-75

ders. (1962): Einleitung in die Musiksoziologie. Frankfurt: Suhrkamp

Albert, Martin/Sparks, Robert/Helm, Nancy (1973): Melodic intonation
therapy.
In: Archives of Neurology, 29, S. 130-131

Anderson, John R. (1989): Kognitive Psychologie. Eine Einführung.
Deutsche Ausg. hg. von A. Albert. 2. Aufl. (1. Aufl. 1988). Hei-
delberg: Spektrum-der-Wissenschaft-Verlagsgesellschaft

Arens, Hans (1969): Sprachwissenschaft. Der Gang ihrer Entwicklung von
der Antike bis zur Gegenwart.
(Bd.2) Frkf./M.: Athenäum Fischer
Verlag

 Bechert, Johannes u.a. (1974): Einführung in die generative Transforma-
tionsgrammatik.
4. Aufl. (1. Aufl. 1970). München: Max Hueber

Bengtsson, Ingmar (1973): "Verstehen" - Prolegomena zu einem semio-
tisch-hermeneutischen Ansatz.
In: Musik und Verstehen. Hg.
von P. Faltin und H.P. Reinecke. Köln: Arno Volk, Hans Gerig,
S. 11-36

Bernstein, Leonard (1981): Musik - die offene Frage. Vorlesungen an der
Harvard-Universität.
München/Frankfurt: Goldmann/Schott
 
Bharucha, Jamshed J. (1987): Music Cognition and Perceptual Facilita-
tion: A Connectionist Framework.
In: Music Perception, Vol.5/
No.1 (Fall), S. 1-30

Bierwisch, Manfred (1978): Musik und Sprache. Überlegungen zu ihrer
Struktur und Funktionsweise.
In: Jahrbuch Peters. Aufsätze zur
Musik,
Bd.1. Hg. von E. Klemm, S. 9-102
 
ders./Kaden, Christian (1983): Musikwissenschaft und Linguistik. Eine Dis-
kussion.
In: Beiträge zur Musikwissenschaft, 3-4, S. 196-237

Brandstätter, Ursula (1990): Musik im Spiegel der Sprache. Theorie und
Analyse des Sprechens über Musik
. Stuttgart: Metzler

Britten, Benjamin (1993): Über Musikhören. In: Die sündigen Engel.
Programmheft der Städtischen Bühnen Osnabrück zur Auffüh-
rung der Oper "The Turn of the Screw" in der Spielzeit 1993/94

Bruhn, Herbert (1988): Harmonielehre als Grammatik der Musik. Propo-
sitionale Schemata in Musik und Sprache.
[Fortschritte psycho-
logischer Forschung 3] München, Weinheim: Psychologie
Verlags Union

ders. (1989): Musik, Emotion und Sprache. Unterschiedliche Aspekte der
neuronalen Informationsverarbeitung
im Gehirn. In: Psychologie
in Erziehung und Unterricht
, 36, S. 91-101


ders. (1993a): Gedächtnis und Wissen. In: Musikpsychologie. Ein Hand-
buch
. Hg. von H. Bruhn, R. Oerter, H. Rösing. Reinbek: Ro-
wohlt, S. 539-546

ders. (1993b): Tonpsychologie - Gehörpsychologie - Musikpsychologie. In:
Musikpsychologie. Ein Handbuch. Hg. von H.Bruhn, R. Oerter,
H. Rösing. Reinbek: Rowohlt, S. 439-451

ders. (1993c): Singen und Erkennen von Melodien. In: Musikpsychologie.
Ein Handbuch.
Hg. von H. Bruhn, R. Oerter, H. Rösing. Rein-
bek: Rowohlt, S. 283-290

ders./Oerter, Rolf (1993): Die ersten Lebensmonate. In: Musikpsycholo-
gie. Ein Handbuch
. Hg. von H. Bruhn, R. Oerter, H. Rösing.
Reinbek: Rowohlt, S. 276-283

Bruhn, Herbert/Oerter, Rolf/Rösing, Helmut (Hg.) (1985): Musikpsycholo-
gie. Ein Handbuch in Schlüsselbegriffen.
München u.a.: Urban &
Schwarzenberg

dies. (Hg.)(1993): Musikpsychologie. Ein Handbuch. Reinbek bei Ham-
burg: Rowohlt

Bussmann, Hadumod (1983): Lexikon der Sprachwissenschaft. Stuttgart:
Kröner Verlag

 Campbell, Warren/Heller, Jack (1981): Psychomusicology and psycholin-
guistics: Parallel paths or seperate ways
. In: Psychomusicology,
Vol.1/No.2, S. 3-14

Chomsky, Noam/Halle, Morris (1968): The sound pattern of English. New
York: Harper & Row

Clarke, Eric F. (1989): Issues in language and music. In: Music and the
Cognitive Sciences.
Hg. von S. McAdams und I. Deliège. Con-
temporary Music Review
, Vol.4, S. 9-22

ders./Krumhansl, Carol L. (1990): Perceiving musical time. In: Music
Perception
, 7, S. 213-253

Clynes, Manfred (Hg.)(1983): Music, mind and brain. 2. Aufl. (1. Aufl.
1982). New York/London: Plenum Press

Cook, Nicholas (1989): Musical Analysis and the Listener. New York/
London: Garland

Cooke, Deryck (1959): The language of music. London u.a.: Oxford
University Press

Critchley, MacDonald/Henson, R.A. (Hg.)(1977): Music and the Brain.
Studies in
the Neurology of Music. London: Heinemann Medical
Books

Cutting, James E./Rosner, Burton S. (1974): Categories and boundaries in
speech and music.
In: Perception and Psychophysics, Vol.16/
No.3, S. 564-570

Dahlhaus, Carl (1973): Das "Verstehen" von Musik und die Sprache der
musikalischen Analyse.
In: Musik und Verstehen. Hg. von P.
Faltin und H.P. Reinecke. Köln: Arno Volk/Hans Gerig, S. 37-47

ders. (1979): Musik als Text. In: Dichtung und Musik. Kaleidoskop ihrer Beziehungen.
Hg. von G. Schnitzler. Stuttgart: Klett-Cotta

Dahlhaus, Carl/de la Motte-Haber, Helga (Hg.)(1982): Systematische Mu-
sikwissenschaft.
[Neues Handbuch der Musikwissenschaft; Bd.
10] Wiesbaden/Laaber: Akademische Verlagsgesellschaft Athe-
naion, Laaber Verlag Müller-Buscher

Decker-Voigt, Hans-Helmut (Hg.)(1983): Handbuch Musiktherapie. Lilien-
thal/Bremen: Eres Edition

Deliège, Irène (1987): Grouping conditions in listening to music: an ap-
proach to Lerdahl & Jackendoff's grouping preference rules.
In:
Music Perception, 4, S. 325-360

Deutsch, Diana (Hg.)(1982): The psychology of music. New York u.a.:
Academic Press

dies. (1983): Organizational processes in music. In: Music, mind and
brain.
Hg. von M. Clynes. 2. Aufl. (1. Aufl. 1982). New York/
London: Plenum Press, S. 119-136

Dowling, W. Jay (1989): Simplicity and complexity in music and cognition.
In: Music and the Cognitive Sciences. Hg. von S. McAdams und
I. Deliège. Contemporary Music Review, Vol.4, S. S. 247-253

Dowling, W. Jay/Harwood, Dane L. (1986): Music Cognition. New York
u.a.: Academic Press

Dürr, Michael/Schlobinski, Peter (1990): Einführung in die deskriptive
Linguistik.
Opladen: Westdeutscher Verlag

Faltin, Peter (1979): Phänomenologie der musikalischen Form. Eine expe-
rimentalpsychologische Untersuchung zur Wahrnehmung des
musikalischen Materials und der musikalischen Syntax.
Wiesba-
den: Franz Steiner

ders. (1981): Ist Musik eine Sprache? In: Die Zeichen. Neue Aspekte der
musikalischen Ästhetik II.
Hg. von H. W. Henze. Frkf./M.: Fi-
scher, S. 32-50

ders./Reinecke, H.P. (Hg.)(1973): Musik und Verstehen. Aufsätze zur se-
miotischen Theorie, Ästhetik und Soziologie der musikalischen

Rezeption. Köln: Arno Volk, Hans Gerig

Fassbender, Christoph (1993): Funktionsteilung im Cortex. In: Musikpsy-
chologie. Ein Handbuch.
Hg. von H. Bruhn, R. Oerter, H. Rö-
sing. Reinbek: Rowohlt, S. 622-630

Grewendorf, Günther/Hamm, Fritz/Sternefeld, Wolfgang (1988): Sprach-
liches Wissen. Eine Einführung in moderne Theorien der gram-
matischen Beschreibung.
2. Aufl. (1. Aufl. 1987). Frkf./M.: Suhr-
kamp

Grice, H.Paul (1975): Logic and conversation. In: Syntax and semantics.
(Bd.3) Hg. von P.Cole und J.L.Morgan. New York u.a.: Acade-
mic Press, S. 41-58

Grimm, Hannelore/Engelkamp, Johannes (1981): Sprachpsychologie.
Handbuch und Lexikon der Psycholinguistik.
[Handbücher zur
Sprachwissenschaft und Sprachdidaktik, Bd.13] Berlin: E.
Schmidt

Gruhn, Wilfried (1978): Musiksprache, Sprachmusik, Textvertonung.
Aspekte des Verhältnisses von Musik, Sprache und Text.

[Schriftenreihe zur Musikpädagogik] Frankfurt, Berlin, München: Diesterweg

ders. (1989): Wahrnehmen und Verstehen. Untersuchungen zum Verste-
hensbegriff in der Musik.
[Taschenbücher zur Musikwissen-
schaft 107] Wilhelmshaven: Noetzel, Heinrichshofen-Bücher

ders. (1993a): Textualität der Musik und Textualität des Hörens von Mu-
sik.
Unveröff. Referat, gehalten beim Freiburger Kongreß " Mu-
sik als Text ", 27.9.-2.10.1993

ders. (1993b): Strukturen der musikalischen Wahrnehmung. In: Musik in
der Schule
, 2, S. 75-80+89

 Hanslick, Eduard (1854): Vom Musikalisch-Schönen. Ein Beitrag zur
Revision der Ästhetik der Tonkunst.
Unveränd. reprograf.
Nachdr. der 1. Aufl. (Leipzig 1854). Darmstadt: Wissenschaft-
liche Buchgesellschaft, 1991

Henrotte, Gayle Allen (1988): Language, linguistics and music: a source
study.
Ann Arbor, Mich.: UMI
Holland, Dietmar (1990): Musik als Sprache. In: Die Chiffren. Musik und
Sprache. Neue Aspekte der musikalischen Ästhetik IV.
Hg. von
H. W. Henze. Frkf./M.: Fischer, S. 25-43

Hörmann, Hans (1976): Meinen und Verstehen. Grundzüge einer psycho-
logischen Semantik.
[Suhrkamp Taschenbuch Wissenschaft
230] Frkf./M.: Suhrkamp

Houghton, Catherine (1984): Structure in language and music: a linguistic
approach.
Dissertation at the Department of Linguistics at
Stanford University. Ann Arbor: UMI, 1987

Howell, Peter/Cross, Ian/West, Robert (Hg.)(1985): Musical structure and
cognition.
London u.a.: Academic Press

Howell, Peter/West, Robert/Cross, Ian (Hg.)(1991): Representing musical
structure.
London u.a.: Academic Press

 Jackendoff, Ray/Lerdahl, Fred (1980): A deep parallel between music and
language
. Bloomington

Karbusicky, Vladimir (1990)(Hg.): Sinn und Bedeutung in der Musik. Texte
zur Entwicklung eines musiksemiotischen Denkens.
[Texte zur
Forschung 56] Darmstadt: Wissenschaftliche Buchgesellschaft

Klemm, Gerhard (1987): Untersuchungen über den Zusammenhang
musikalischer und sprachlicher Wahrnehmungsfähigkeiten.
[Europäische Hochschulschriften, Reihe 36, Bd. 27] Frkf./M.
u.a.: Peter Lang

 Knaus, Jakob (1973): Sprache-Dichtung-Musik. Tübingen: Niemeyer

 Kneif, Tibor (1978): Ist Musik eine Sprache? In: Sprache und Welterfah-
rung.
Hg. von J. Zimmermann. [Fink kritische Information 69]
München: Fink, S. 257-268

Krumhansl, Carol L. (1989): Issues in theoretical and experimental ap-
proaches to research on listening and comprehension.
In: Music
and the Cognitive Sciences
. Hg. von S. McAdams und I. Deli-
ège. Contemporary Music Review, Vol.4, S.237-245

dies. (1991): Music psychology: Tonal structures in perception and memo-
ry.
In: Annual review of Psychology, 42, S. 277-303

dies./Castellano, Mary A. (1983): Dynamic processes in music perception.

In: Memory & Cognition, Vol. 11/No.4, S. 325-334

Laske, Otto E. (1980): Toward an explicit cognitive theory of musical
listening.
In: Computer Music Journal, 4, S. 73-83

Lerdahl, Fred/Jackendoff, Ray (1977): Toward a formal theory of tonal
music.
In: Journal of Music Theory, Vol.21/No.1, S. 111-171

dies. (1983): A generative theory of tonal music. Cambridge/Mass., Lon-
don: MIT

Leuninger, Helen (1989): Neurolinguistik. Probleme, Paradigmen, Per-
spektiven
. Opladen: Westdeutscher Verlag

Lissa, Zofia (1973): Ebenen des musikalischen Verstehens. In: Musik und
Verstehen.
Hg. von P. Faltin und H.P. Reinecke. Köln: Arno
Volk, Hans Gerig, S. 217-246

McAdams, Stephen/Deliège, Irène (Hg.)(1989): Music and the Cognitive
Sciences. Proceedings from the "Symposium on Music and the
Cognitive
Sciences" 14-18 March 1988. Contemporary Music
Review
, Vol.4

Marin, Oscar S.M. (1989): Neuropsychology, mental cognitive models and
music processing
. In: Music and the Cognitive Sciences. Hg.
von S. McAdams und I. Deliège. Contemporary Music Review,
Vol.4, S. 255-264

Moog, Helmut (1976): Musikerziehung bei Schwerhörigen. In: Quellentexte
zur Pädagogischen Musiktherapie. Zur Genese eines Faches
.
Hg. von K.-J. Kemmelmeyer und W. Probst. [Dortmunder Beiträ-
ge zur Musik in der Sonderpädagogik] Regensburg: Gustav
Bosse, 1981, S. 346-356

ders. (1978): Transfereffekte des Musizierens auf sprachliche Leistungen,
Lesen und Rechtschreiben, aufgewiesen bei Sprach- und Lern-
behinderten.
In: Musik und Bildung, 6, S. 385-391

de la Motte-Haber, Helga (1985): Handbuch der Musikpsychologie.
Laaber: Laaber

 dies. (1989): Fundamental Factors of Music Comprehension. In: Jahrbuch
Musikpsychologie
, Bd. 6. Hg. von K.-E. Behne, G. Kleinen, H.
de la Motte-Haber. Wilhelmshaven: Heinrichshofen, S. 23-33

Nauck-Börner, Christa (1984): Gedächtnisrepräsentation von Musik.
Analoge oder aussagenartige Kodierung?
In: Jahrbuch Musik-
psychologie
, Bd.1. Hg. von K.-E. Behne, G. Kleinen, H. de la
Motte-Haber. Wilhelmshaven: Heinrichshofen, S. 93-101

dies. (1987): Wahrnehmung und Gedächtnis. In: Handbuch der Musikpä-
dagogik
, Bd.4. Hg. von H. de la Motte-Haber. Kassel, Basel,
London: Bärenreiter, S. 13-115

dies. (1988): Strukturen des musikalischen Gedächtnisses. Anmer kungen
zu formalen Modellen der Repräsentation.
In: Jahrbuch Musik-
psychologie
, Bd. 5. Hg. von K.-E. Behne, G. Kleinen, H. de la
Motte-Haber. Wilhelmshaven: Heinrichshofen, S. 55-66

Neisser, Ulric (1979): Kognition und Wirklichkeit. Stuttgart: Klett Cotta

Niemöller, Klaus W. (1980): Der sprachhafte Charakter der Musik.
Opladen: Westdeutscher Verlag

Oepen, G./Berthold, H. (1987): Häufigkeit und Art amusischer Störungen
nach unterschiedlichen Hirnläsionen
. In: Musik in der Medizin.
Hg. von R. Spintge und R. Droh. Berlin u.a.: Springer, S. 277-287

Osmond-Smith, David (1989): Between music and language: a view from
the bridge.
In: Music and the Cognitive Sciences. Hg. von S.
McAdams und I. Deliège. Contemporary Music Review, Vol.4,
S. 89-95

Palmer, C./Krumhansl, Carol L. (1987a): Independent temporal and pitch
structures in perception of musical phrase.
In: Journal of Expe-
rimental Psychology: Human Perception and Performance
, 13,
S. 116-126

dies. (1987b): Pitch and temporal contributions to musical phrase percep-
tion: effects of harmony, performance timing, and familiarity.
In:
Perception and Psychophysics, 41, S. 505- 518

dies. (1990): Mental representations for musical meter. In: Journal of Ex-
perimental Psychology: Human Perception and Performance
,
16, S. 728-741

Pelz, Heidrun (1981): Linguistik für Anfänger. 4. Aufl. (1. Aufl. 1975). Ham-
burg: Hoffmann und Campe

Peretz, Isabelle/Morais, José (1989): Music and modularity. In: Mu sic and
the Cognitive Sciences.
Hg. von S. McAdams und I. Deliège.
Contemporary Music Review, Vol.4, S. 279-293

Petsche, H./Pockberger, H./Rappelsberger, P. (1987): EEG-Studies in
musical perception and performances
. In: Musik in der Medizin.
Hg. von R. Spintge und R. Droh. Berlin u.a.: Springer, S. 53-77

Piaget, J. (1964): Psychologie der Intelligenz. Zürich: Rascher (Orig.
1936)

Rauhe, Hermann/Reinecke, Hans-Peter/Ribke, Wilfried (1975): Hören und
Verstehen. Theorie und Praxis handlungsorientierten Musik-
unterrichts.
München: Kösel

Reineke, Toni (1981): Simultaneous processing of music and speech. In:
Psychomusicology, I/1, S. 58-77

Robinson, George M./Solomon, Deborah Jo (1974): Rhythm is pro cessed
by the
speech hemisphere. In: Journal of Experimental Psy-
chology
, Vol.102/No. 3, S. 508-511

Rösing, Helmut (1993): Musikalische Ausdruckmodelle. In: Musikpsycho-
logie. Ein Handbuch
. Hg. von H. Bruhn, R. Oerter, H. Rösing.
Reinbek: Rowohlt, S. 579-588

Ruf, Wolfgang (1988): Instrumentalmusik als Klangrede. In: Funkkolleg
Musikgeschichte
, Studienbegleitbrief 6. Hg. vom Deutschen In-
stitut für Fernstudien an der Universität Tübingen

Sacks, Oliver (1991): Awakenings - Zeit des Erwachens. Reinbek: Ro-
wohlt

Schaff, Adam (1973): Das Verstehen der verbalen Sprache und das
"Verstehen" von Musik.
In: Musik und Verstehen. Hg. von P.
Faltin und H.P. Reinecke. Köln: Arno Volk, Hans Gerig, S.276-288

Schenker, Heinrich (1956): Der freie Satz. 2. Aufl. hg. von O. Jonas (1.
Aufl. 1935) Wien: Universal Edition

Scheytt, Nicola (1983): Vegetative Veränderungen durch Musik. In: Hand-
buch der Musiktherapie
. Hg. von H.-H. Decker-Voigt. Lilien-
thal/Bremen: Eres Edition, S. 221-227

Schiffler, Ludger (1989): Suggestopädie und Superlearning - empirisch
geprüft. Einführung und Weiterentwicklung für Schule und
Erwachsenenbildung.
[Schule und Forschung] Frankfurt: Die-
sterweg

Schneider, Reinhard (1980): Semiotik der Musik: Darstellung und Kritik.
München: Fink

Schwarz, Monika (1992): Einführung in die Kognitive Linguistik. [UTB für
Wissenschaft: Uni-Taschenbücher 1636] Tübingen: Francke

Serafine, Mary Louise (1983): Cognition in music. In: Cognition, 14, S.
119-183

dies. (1984): The development of cognition in music. In: Musical Quarterly,
Vol.70/No.2, S. 218-233

dies. (1988): Music as cognition. New York: University Press

Sloboda, John A. (1985): The Musical Mind. The cognitive psychology of
music.
Oxford: Clarendon

ders./Parker, David (1985): Immediate Recall of Melodies. In: Musical
Structure and Cognition
. Hg. von P. Howell, I. Cross, R. West.
London u.a.: Academic Press, S. 143-187

Spintge, Ralph/Droh, Roland (Hg.)(1987): Musik in der Medizin. Music in
Medicine. Berlin u.a.: Springer

 Springer, George P. (1956): Language and music: Parallels and diver-
gencies.
In: For Roman Jakobson: Essays on the occasion of
his 60th Birthday, 11 Oct. 1956
. Compiled by Morris Halle, et al.
Mouton and Company, The Hague, S. 504-513

Spychiger, Maria (1993): Musik und außermusikalische Lerninhalte. In:
Musikpsychologie. Ein Handbuch. Hg. von H. Bruhn, R. Oerter,
H. Rösing. Reinbek: Rowohlt, S. 360-368

Stadler, Michael/Kobs, Michael/Reuter, Helmut (1993): Musik Hören, Ver-
stehen und
Spielen. Kognitive Selbstorganisation und Einfüh-
lung
. In: Jahrbuch Musikpsychologie, Bd. 9. Hg. von K.-E. Beh-
ne, G. Kleinen, H. de la Motte-Haber. Wilhelmshaven: Hein-
richshofen, S. 7-24

Stoffer, Thomas H. (1979): Aspekte einer generativen Syntax zur Be-
schreibung musikalischer Strukturen für eine kognitive Musik-
psychologie.
Bericht Nr.11, Psychologisches Institut der Ruhr-
Universität Bochum, Arbeitseinheit Kognitionspsychologie

 ders. (1980): Mathematisierungstendenzen in der Musikwissenschaft: Eine
Bibliographie zur quantitativ-statistischen und algebraisch-for-
malen Analyse musikalischer Strukturen.
In: Glottometrika 3.
Quantitative Linguistics,
Vol.5. Hg. von Wolfhart Matthäus.
Bochum: Brockmeyer

ders. (1981): Wahrnehmung und Repräsentation musikalischer Struktu-
ren. Funktionale und strukturelle Aspekte eines kognitiven
Modells des Musikhörens.
Inaugural-Dissertation, Ruhr-Univer-
sität Bochum

ders. (1985a): Modelle der kognitiven Verarbeitung und Repräsentation
musikalischer Strukturen.
In: Perspektiven der Kognitionspsy-
chologie.
Hg. von O. Neumann. [Lehr- und Forschungstexte
Psychologie 15] Berlin u.a.: Springer, S. 147-184

ders. (1985b): Parallelen zwischen Ernst Kurths Konzeption der Musik-
psychologie und der gegenwärtigen Entwicklung einer kogni-
tiven Musikpsychologie.
In: Jahrbuch Musikpsychologie, Bd. 2.
Hg. von K.E. Behne, G. Kleinen, H. de la Motte-Haber. Wil-
helmshaven: Heinrichshofen, S. 87-99

ders. (1985c): Representation of phrase structure in the perception of
music.
In: Music Perception, Vol.3/No.2 (Winter), S. 191-220
 
ders. (1990): Musik als Sprache: Eine nicht unumstrittene Analogie und ihr
heuristischer Nutzen für die kognitive Musikpsychologie.
In:
Sprache & Kognition, 9/2, S. 59-71

 ders. (1993): Strukturmodelle. In: Musikpsychologie. Ein Handbuch. Hg.
von H.Bruhn, R.Oerter, H.Rösing. Reinbek: Rowohlt, S. 466-478

ders./Vogelhuber, Rudolf (1988): Experimentelle Untersuchungen zum
Erwerb eines musikalisch-syntaktischen Wissens.
In: Jahrbuch
Musikpsychologie
, Bd. 5. Hg. von K.E. Behne, G. Kleinen, H. de
la Motte-Haber. Wilhelmshaven: Heinrichshofen, S. 33-53

Sundberg, Johan/Lindblom, Björn (1976): Generative theories in language
and music descriptions.
In: Cognition, 4, S. 99-122

dies. (1991): Generative theories for describing musical structure. In: Re-
presenting Musical Structure.
Hg. von P.Howell, R. West, I.
Cross. London u.a.: Academic Press

Sundberg, Johan/Nord, Lennart/Carlson, Rolf (1991): Music, language,
speech and brain.
Proceedings of an international Symposium
at the Wenner-Gren Center, Stockholm, 5-8 Sept. 1990.
[Inter-
national Symposium Series 59] London: MacMillan Academic
and Professional Ltd.

Tsunoda, T. (1987): The Difference in the Cerebral Processing Mecha-
nism for Musical Sounds between Japanese and Non Japanese
and its Relation to Mother-Tongue.
In: Musik in der Medizin. Hg.
von R. Spintge und R. Droh. Berlin u.a.: Springer, S. 119-142

Vester, Frederic (1991): Denken, Lernen, Vergessen. Was geht in unse-
rem Kopf vor, wie lernt
das Gehirn, und wann läßt es uns im
Stich?
18. Aufl. (1. Aufl. 1978). München: Deutscher Taschen-
buch Verlag

Wallin, Nils L. (1984): Gedanken über Musik und Sprache. Ein neurophy-
siologisches Entwicklungsmodell.
In: Jahrbuch Musikpsycho-
logie
, Bd.1. Hg. von K.E. Behne, G. Kleinen, H. de la Motte-

Haber. Wilhelmshaven: Heinrichshofen, S. 73-93

West, Robert/Howell, Peter/Cross, Ian (1991): Musical Structure and
Knowledge Representation.
In: Representing Musical Structure.
Hg. von P.Howell, R.West, I.Cross. London u.a.: Academic
Press, S. 1-30

Williams, David B. (1982): Auditory cognition: A study of the similarities in
memory processing for music tones and spoken words.
In:
Bulletin of the Council for Research in Music Education USA,
LXXI (summer), S. 30-44

Willkomm, Liebgunde (1978): Musik als Hilfe in der Stammlertherapie. In:
Musik und Bildung, 6, S. 397-399

 Wittgenstein, Ludwig (1967): Philosophische Untersuchungen. Reprint (1.
Aufl. 1953) Oxford: Basil Blackwell