Benutzer-Werkzeuge

Webseiten-Werkzeuge


biomechanik:projekte:ws2020:wp2003

Dies ist eine alte Version des Dokuments!



Warning: Undefined array key 1 in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 24

Warning: Undefined array key "h" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 55

Warning: Undefined array key 1 in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 24

Warning: Undefined array key "h" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 55

Warning: Undefined array key 1 in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 24

Warning: Undefined array key "h" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 55

Warning: Undefined array key 1 in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 24

Warning: Undefined array key "h" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 55

Warning: Undefined array key 1 in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 24

Warning: Undefined array key "h" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 55

Warning: Undefined array key 1 in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 24

Warning: Undefined array key "h" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 55

Warning: Undefined array key 1 in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 24

Warning: Undefined array key "h" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 55

Warning: Undefined array key 1 in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 24

Warning: Undefined array key "h" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 55

Warning: Undefined array key 1 in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 24

Warning: Undefined array key "h" in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/imagebox/syntax.php on line 55

WP2003 [Musik und Kognition]

indexmenu_n_3

Modul-Icon
Modul-Titel WP2003 Musik und Kognition
Veranstaltung PS Biomechanik
Autor S. Dotterer, F. Graf, T. Kühlwein
Bearbeitungsdauer ca.45min
Präsentationstermin 11.02.2021
Status Finalisiert zum 05.02
Zuletzt geändert 05.02.2021

Musik und Kognition

Einleitung

Die Musik ist eine Kunstart, die aus organisierten Schallereignissen besteht. Um Musik zu erzeugen, werden Töne in unterschiedlicher Lautstärke, Intensität, Klangfarbe, Tonhöhe und Tondauer in eine bestimmte Abfolge gebracht. Ob wir die daraus entstehenden Melodien als angenehm empfinden oder nicht, ist für jeden Menschen unterschiedlich. Einig ist man sich allerdings darin, dass Musik in Form des Hörens, des aktives Musizierens, oder in Verbindung mit Tanz die Kultur des Menschen maßgeblich prägt. Wir können in diesem Wiki natürlich nicht alle Aspekte der Musik untersuchen, aber wir wollen uns drei Themen zuwenden, die wir aus biomechanischer Sicht besonders interessant finden: Nach einer kurzen Einleitung, was Töne sind und wie der Mensch sie wahrnimmt, wollen wir uns einem Sonderfall zuwenden: Wie können Gehörlose Musik wahrnehmen, und welche Möglichkeiten für das aktive Musizieren bleiben ihnen? Wir verlassen dann das Gebiet der Gehörlosigkeit, um eine generelle Erklärung über die Hauptgruppen von Musikinstrumenten zu geben. Zuletzt wenden wir uns der Frage zu, welche Erkenntnisse die Neurowissenschaft zu den Auswirkungen und Effekten von Musik auf das menschliche Gehirn liefern kann.

Das Wikiprojekt zum Thema Gleichgewicht (http://wiki.ifs-tud.de/biomechanik/aktuelle_themen/projekte_ss20/atsb2003) beschäftigt sich bereits mit dem Aufbau und der Funktion des Ohres. Doch wie funktioniert Hören? Ein Ton ist ein Schallereignis, das als Luftdruckwelle über die Ohrmuschel in den Gehörgang geleitet wird, und dort das Trommelfell zum Schwingen anregt. Diese Schwingungen werden über die Gehörknöchelchen als sogenannte Wanderwelle ins Innenohr übertragen. Diese Welle erregt nun – abhängig von ihrer Frequenz - die Basilarmembran und die darin enthaltenen Haarzellen. Die Haarzellen geben ein chemisches Signal an eine Hörnervfaser weiter, durch die Tonfrequenzen elektrisch bis zum Stammhirn gesendet werden. (vgl. Obermueller, 2008, S.7ff)

Was passiert, wenn diese Form der Übertragungsleitung nicht mehr funktioniert?

Hörschädigungen

Hörschädigungen lassen sich nach Reidel-Mathias (2005, S. 13) eingrenzen nach ihrer Art, dem Ausmaß, und dem Zeitpunkt des Eintritts. Es gibt zwei Arten von Hörschädigungen: Entweder die Schallleitung ist gestört (Schall aus der Umgebungsluft wird nicht mehr ins Innenohr übertragen), oder die Schallempfindung ist geschädigt (Schädigung von Cochlea, Hörnerv oder Gehirnregionen.)

Gehörlose Menschen: sind von Geburt oder früher Kindheit an von Gehörlosigkeit betroffen, sodass ein natürlicher Erwerb von Lautsprache nicht möglich ist.

Schwerhörige Menschen: haben von Geburt oder früher Kindheit an eine wesentliche Beeinträchtigung in der Wahrnehmung und Verarbeitung auditiver Stimuli. Es ist jedoch grundsätzlich möglich, mit Hilfe von Hörgeräten/Cochlea-Implantaten Lautsprache zusammenhängend wahrzunehmen und eigene Sprechfähigkeit zu erlernen und auszuführen.

Die WHO unterscheidet vier Schwerhörigkeitsgrade: (World Health Organization, 2021)

Grad der Schwerhörigkeit Gemittelter Hörverlust (Beispiel) Fehlende auditive Wahrnehmungsfähigkeit
leichtgradig 25-40 dB Leises Flüstern wird nicht mehr gehört
mittelgradig 41-60 dB Normale Unterhaltung wird nicht mehr gehört
hochgradig 61-80 dB Lauter Verkehrlärm wird nicht mehr gehört
Ertaubung >81 dB Presslufthammer wird nicht mehr gehört

Von ertaubten Menschen spricht man, wenn die Hörbeeinträchtigung erst nach Erwerb der Lautsprache (häufig erst im Erwachsenenalter) durch Krankheit, Unfall, oder Lärm verursacht wird.

Weil sich keine strikte Grenze zwischen Schwerhörigkeit und Gehörlosigkeit ziehen lässt, bezeichnet man diesen Übergangsbereich als “Resthörigkeit”. Laut Wikipedia (2021) verfügen ca. 98% der Gehörlosen noch über ein Restgehör, das allerdings sehr unterschiedlich ausgeprägt sein kann.

Gehörlosigkeit und Musik

Es mag auf den ersten Blick paradox erscheinen, aber Musik spielt in der Gehörlosenkultur eine große Rolle. Der prominenteste Beweis dafür ist der Komponist Ludwig van Beethoven, der im Laufe seines Lebens fast völlig ertaubte. Dieser Zustand konnte ihn allerdings nicht davon abhalten, weiterhin Werke wie z.B. die 9. Symphonie zu komponieren. Denn auch wenn das auditive System einen wichtigen Bestandteil des menschlichen Wahrnehmungssystems bildet, lässt Musik sich auch auf andere Wege erleben.

Weber-Guskar (2008, S.51) unterscheidet drei Bereiche von Musik für Gehörlose:

  1. “Rezeption von Musik”
  2. “Gebärdenintegrierende musikalische Ausdrucksformen”
  3. “Das aktive Musizieren mit Instrumenten”

Wir werden uns vor allem den ersten beiden Themen zuwenden und gehen auf den dritten Punkt nur kurz ein, sobald wir uns allgemein mit Instrumenten beschäftigen.

Rezeption von Musik

Bei Gehörlosen kann bis zu einem bestimmten Grad von einem vorhandenen Restgehör ausgegangen werden. Darüber hinaus sind vor allem der haptische und der visuelle Sinn essentiell. Musik ist wortwörtlich “erfühlbar”, denn Töne tiefer und mittlerer Frequenzen werden laut Prause (2001, zitiert nach Obermueller, 2008) ab einer bestimmten Schallintensität als Vibration auf der Haut gefühlt. Der Ort der Empfindung lässt sich demnach sogar lokalisieren:

Tiefe Töne [sind] eher in Bauch und Brust und hohe Töne eher im Kopfbereich lokalisiert. Töne zwischen 40 und 80 Hz werden im Bauch gespürt, Töne zwischen 80 und 130 Hz in der Brust, Töne zwischen 130 und 250 Hz im oberen Brustbereich und Töne zwischen 250 und 500 Hz in der Kehle. (S.34)

Die haptische Wahrnehmung des Menschen lässt sich laut Wikipedia (2020) untergliedern in die taktile Wahrnehmung (Oberflächensensibilität der Haut für äußere Einwirkungen wie Temperatur, Schmerz, oder Vibration) und die Propriorezeption (Sensibilität des eigenen Körpers für z.B. Position und Bewegung von Sehnen, Gelenken und Muskeln). Die Eigenschaft, Vibrationen wahrnehmen zu können, spielt für Gehörlose eine große Rolle und kann laut Reidel-Mathias (2005, S.68) auf drei Arten stattfinden:

Beim Kontaktfühlen wird durch Auflegen eines Körperteils direkter Kontakt zu einer Schallquelle hergestellt, beispielsweise indem man die Hand auf die Boxen einer Stereoanlage oder ein Instrument legt.

Beim Resonanzfühlen werden über die Luft übertragene Vibrationen wahrgenommen, ohne dass direkter Körperkontakt besteht.

Bei indirekter Vibrationsrezeption stellt ein transmittierendes Objekt den Körperkontakt zu einer Schallquelle her. So können Luftballons an den Bauch gehalten werden, um Vibrationen bei einem Konzert spürbar zu machen.

Schall ist laut Spektrum-Lexikon (1998) eine Welle, und die Ausbreitung erfolgt mechanisch mittels abwechselndem Verdichten und Verdünnen von Schichten eines Mediums in Ausbreitungsrichtung. Die folgende Abbildung veranschaulicht das sehr gut:

Abb.1: Wie Schall übertragen wird, mit freundlicher Genehmigung vom Bundesverband der Deutschen Luftverkehrswirtschaft e.V., abgerufen am 28.01.2021 von https://www.fluglärm-portal.de/fluglaerm-debatte/was-ist-laerm/

Die Übertragung funktioniert in der Regel am besten, je höher die Dichte eines Mediums ist. Daraus ergibt sich, dass Luft nicht das optimale Medium zur Übertragung von Vibrationen ist. Besser ist eine Übertragung mittels eines Festkörpers, also eine möglichst direkte Verbindung zwischen Schallquelle und dem menschlichen Körper. Dies erklärt, wieso die ertaubte Künstlerin Evelyn Glennie beim Pauken barfuß auf dem Boden steht: Sie kann dadurch die Vibrationen, die sie mit ihrem Trommeln erzeugt, stärker spüren.

Anwendungsbeispiele
Abb.2: Das Sound Shirt, Photo courtesy of: CuteCircuit

Die Jungen Symphoniker Hamburg nutzen Prototypen des sog. 'Sound Shirt', um Gehörlosen das Fühlen von klassischen Konzerten zu ermöglichen. Hierbei werden Töne unterschiedlicher Instrumente von Mikrofonen erfasst und drahtlos an das Sound Shirt übermittelt. 16 eingenähte Feinmotoren und Leuchtdioden reagieren auf die Intensität der Musik und vibrieren an unterschiedlichen Stellen des Körpers. So wird z.B. Bass in der Magengegend und Violinen entlang des Armes pulsieren, wodurch Musik zu einer ganzkörperlichen Erfahrung wird.

Ein weiteres Prototypen-System beschreiben Nanayakkara et al. (2009) in ihrer Studie zur Musikwahrnehmung von Gehörlosen: Sie verwendeten einen 'Haptic Chair', also einen vibrierenden Stuhl, sowie einen Bildschirm, der visuell mit den ‚features’ der Musik korrespondiert. Die Forscher wollten herausfinden, ob der visuelle Bildschirm und/oder der ‚haptic chair‘ das Musikerlebnis der Teilnehmer verbessert, und welche Konfiguration sich dafür am besten eignet. In einer Vorbefragung untersuchten die Forscher unter anderem, welche Faktoren den Teilnehmern das Erleben von Musik ermöglichen: Die beiden wichtigsten Punkte sind das Betrachten eines Bildschirms und das Fühlen von Vibrationen. Basierend auf diesen Ergebnissen konstruierten sie ein Prototypen-System, das Musik in visuelle und haptische Reize übersetzt. Die Übersetzungen sollten dabei möglichst intuitiv und konsistent mit den Gegebenheiten der realen Welt sein:

  • hohe Töne wurden visuell durch kleine Formen realisiert, und tiefe Töne durch größere Formen.
  • Die Amplitude von Tönen korrespondierte mit der Helligkeit der Darstellungen.
  • Die Instrumente wurden in unterschiedlichen Farben dargestellt, und Hintergrundmusik beeinflusste auch den visuellen Hintergrund.
  • Zeitliche Abläufe wurden berücksichtigt. (movie-roll-type presentation)
  • Der ‚haptic chair‘ verstärkt außerdem Vibrationen, die durch Instrumente erzeugt werden. Hierfür wurde ein IKEA-Stuhl verwendet, wobei an beiden Armlehnen je ein ‚contact speaker‘ angebracht ist. Mittels verschiedener Eingangsfrequenzen können so verschiedene Teile des Stuhls zum Vibrieren angeregt werden.

Die Studie ergab, dass visuelle Reize gemeinsam mit haptischen Stimuli das musikalische Erleben der Teilnehmer erheblich verbessern konnten. Zusätzlich hätten sich die Teilnehmer allerdings noch die Anzeige von Songtexten (z.B. im Karaoke-Stil) gewünscht.

Offensichtlich beinhaltet Musik also nicht nur das Wahrnehmen auditiver Signale, sondern ist vielmehr auch ein ganzkörperliches Erlebnis, das erfühlt werden kann und visuell stimuliert.

Musik und Gebärdensprache

Der visuelle Sinn nimmt in der Welt der Gehörlosen einen sehr hohen Platz ein. Er kompensiert das Fehlen auditiver Stimuli und ermöglicht die Interaktion mit der Umwelt und Mitmenschen, indem Körpersprache, Gestik und Mimik wahrgenommen werden. Studien haben gezeigt, dass der Sehsinn bei Gehörlosen häufig sogar differenzierter ausgebildet ist als bei Hörenden. (Taubenschlag, 2020) Eine weitere Möglichkeit, wie gehörlose Menschen Musik wahrnehmen können, ist durch die Übersetzung von musikalischen Elementen in Gebärdensprache. Gebärdensprache ist nicht universell, und in den letzten Jahrhunderten sollen bis zu 200 Gebärdensprachen entstanden sein. Diese sind nicht direkt abgeleitet von der Lautsprache ihrer Umgebung, sondern müssen aufgrund der speziellen Zerlegbarkeit von Strukturierung und Gebärden als jeweils eigenständige Sprache angesehen werden. (Süddeutsche Zeitung, 2020) Die American Sign Language (ASL) ist zwar weltweit am weitesten verbreitet, die Deutsche Gebärdensprache (DGS) wird laut Wikipedia (2020) hierzulande allerdings von etwa 200.000 Menschen verwendet. Gebärdensprachen setzen sich nach Reidel-Mathias (2005, S.38ff) zusammen aus vier Komponenten:

  • Gebärden: werden durch die Hände geformt und sind kodiert durch Handform, Handstellung, Ausführungsort, Art und Richtung der Bewegung. Gebärden bilden den Inhalt eines Satzes.
  • Mimik: macht klar, ob ein Satz eine Aussage, eine Frage, oder ein Befehl ist und dient vor allem zur Kodierung von Grammatik.
  • Mundbild, also die Form von Lippen und Mund, haben eine unterstützende Funktion, denn sie kann „abgelesen“ werden und dadurch Unklarheiten beseitigen.
  • Gebärdenraum: bezeichnet Ausführungsort, Art und Richtung der Gebärde und befindet sich vor dem Oberkörper. Das Gesicht selbst, sowie der Raum davor und daneben werden dazugezählt, und auch die Körperhaltung ergänzt den Gebärdenraum.

Durch die Verbindung all dieser Elemente können Sätze und Satzfolgen konstruiert werden. Diese unterscheiden sich allerdings in Grammatik und Wortschatz von Lautsprachen, und eine direkte Übersetzung ist nicht möglich.

Musikdolmetschen, song signing und musicperformance

Hierbei werden bereits existierende Songtexte in Gebärdensprache übersetzt. Gebärden können dabei in die Länge gezogen oder beschleunigt werden, um dem originalen Rhythmus eines Liedes zu folgen. Nach Darlow (1987) bildet dieser gezielte Einsatz von Rhythmus den entscheidenden Unterschied zwischen „normalen“ und „musikalischen“ Gebärden.

Für das Dolmetschen von Liedern existiert kein einheitliches Regelsystem, sodass die konkrete Ausführung stark von der performenden Person abhängt. Zunächst einmal steht immer die Transformation inhaltlicher Aspekte im Vordergrund, und das Lieddolmetschen kann als eine Übersetzung von Text aus einer Sprache in eine andere verstanden werden.

Beim ‘song signing’ wird die reine Übersetzung ergänzt durch die eigene Interpretation des Dolmetschers. “Durch Bewegungsvariation, Vergrößerung oder Verkleinerung [einzelner] Zeichen im Gebärdenraum können […] unterschiedliche Lautstärken dargestellt sowie emotionale Aspekte und 'frequenz-bezogene musikalische Elemente' vermittelt werden” (Weber-Guskar, 2008, S.54). Auch zusätzliche Gesten, bis hin zu Wippen oder Tanzen, sind möglich.

Die Grenzen von reinem Dolmetschen zu einer künstlerischen Performance sind fließend. Je nach Grad der künstlerischen Freiheit spielen auch Bewegungen und Tanzen eine große Rolle. Musik wird dadurch zu einem ganzheitlichen Erlebnis, das den haptischen, visuellen und kinästhetischen Sinn anspricht. Allerdings muss der Performer stets abwegen, ob das Umsetzen der Musik und das Erzeugen von Emotionen, oder das Vermitteln des Textes im Vordergrund stehen soll.

Die größte Herausforderung stellt das Dolmetschen instrumentaler Musik dar. Zwar können musikalische Elemente wie Rhythmus, Tempo, Stil und Tonfarbe dargestellt werden, das subjektive Erleben eines Hörenden ist dennoch schwer oder unmöglich zu übersetzen.

Um euch ein Beispiel zu geben empfehlen wir den folgenden Ted-Talk, in dem Amber Galloway-Gallego das Lied „The Future is Female“ von Madame Gandhi übersetzt. (Minute 7:18 - 8:15)

https://www.youtube.com/watch?v=dkfCD7c2HcQ

Aktives Musizieren

Die Frage, inwieweit es Gehörlosen möglich ist aktiv zu musizieren lässt sich nicht allgemein beantworten, denn dies hängt von individuellen Faktoren ab. Unter anderem das Restgehör und der Zeitpunkt der Ertaubung (also ob die Gehörlosigkeit angeboren ist, oder erst im Verlauf des Lebens eingetreten ist) spielen hierbei eine große Rolle.

Grundsätzlich eignen sich am besten (Schlag)Instrumente mit tiefen Frequenzen und hohen Vibrationsanteilen, weil sich darüber Rhythmus und Takt erspüren lassen. Bei einem guten Restgehör eignen sich aber auch Instrumente mit einer hohen Anzahl Obertönen und einem großen Frequenzspektrum. Ein Beispiel hierfür ist die Klarinette.

Die weitestgehend ertaubte Musikerin Evelyn Glennie spricht in diesem Video über das Gefühl beim Spielen von Schlaginstrumenten: (Minute 0:30 - 1:37) https://www.youtube.com/watch?v=Gl2a6w6sTAs

(verfasst von S. Dotterer)

Musizieren mit Instrumenten

Im folgenden Abschnitt geht es darum, wie man verschiedenste Instrumente hält und spielt. Durch die große Anzahl an Instrumenten ist es nötig, nur anhand weniger Instrumente beispielhaft die Handhabung der großen Instrumentengruppen der Saiteninstrumente, Holz- und Blechblasinstrumente zu vermitteln. Dies soll dabei helfen, einen groben Überblick über die Handhabung und biomechanischen Herausforderungen der gebräuchlichsten Instrumente zu liefern.

Saiteninstrumente

Bei Saiteninstrumente entstehen Töne durch Schwingungen einer gespannten Saite. Hier werden wir nur beispielhaft auf das Klavier und auf die Geige eingehen. Es gibt noch zahlreiche weitere Saiteninstrumente wie die Gitarre, Harfe oder den Kontrabass.

Klavier

Abb. 2: Mögliche Standardhaltung der Finger

Beim Klavier werden grundsätzlich Töne erzeugt, indem der Klavierspieler durch das Drücken einer Taste mit einem entsprechend kleinen Hammer innerhalb des Instruments gegen eine Saite schlägt. Weiterhin lassen sich mit dem Betätigen von Pedalen Lautstärke und Tonlänge beeinflussen. Meistens wird das Klavier im Sitzen gespielt und die Finger gibt es gewisse Standardhaltungen.

Folgende Aspekte sind für die korrekte Haltung beim Klavierspielen wichtig. Der Oberkörper muss gerade sein, die Arme sind entspannt. Der rechte Fuß sollte das Pedal immer erst betätigen, wenn eine Note gespielt wird, nicht davor. Die Finger dürfen nie durchgedrückt werden, entweder wird mit flachen Fingern gespielt, oder mit den Fingerspitzen wobei die Finger selbst aufgestellt sind. Alle nicht aktuell genutzten Finger liegen entspannt auf den Tasten auf und werden nicht abgespreizt. (Persönliche Mitteilung, T. Kühlwein, 04.01.2021)

Mit der korrekten Haltung steht den korrekten Bewegungen nichts mehr im Weg. Für Anfänger kann es durchaus eine Schwierigkeit darstellen, immer alle Finger entspannt zu lassen, geschweige denn beide Hände und die Füße zu koordinieren. Auch wenn ein Stück meist nicht alle 88 Tasten eines Klaviers benötigt, kann der von den Händen abzudeckende Bereich sehr groß sein. Dies erfordert schnelle und vor allem präzise Bewegungen, sowohl von einzelnen Fingern als auch von der ganzen Hand. Weiterhin ist auch die Fingerspannweite (mit und ohne Daumen) wichtig. Eine größere Spannweite erlaubt es entspannter und ohne erhöhte Anstrengung der einzelnen Finger weiter auseinander liegende Noten gleichzeitig bzw. kurz aufeinanderfolgend zu spielen. (Wagner, 1988)

Geige

Die Geige klemmt man sich zwischen linke Kinnseite und linke Schulter. Da diese Haltung auf Dauer in Nacken, Schulter und Schlüsselbein schmerzt, gibt es eine Schulterstütze, die man sich unten an die Geige klemmt. Die Finger der linken Hand legen sich von der rechten Seite der Geige kommend auf ihre Saiten. Den Daumen der linken Hand legt man seitlich an den Geigenhals. Er dient als Widerstand für die Finger. Es ist wichtig, dass die linke Hand kein Gewicht trägt, sondern locker und flexibel ist. Der Bogen wird mit der rechten Hand gehalten. Der Daumen liegt hierbei am Übergang zwischen Frosch und Bogen und berührt kurz unterhalb des Daumennagels auch die Bogenhaare. Der Zeigefinger liegt in der Beuge seines 2. Gelenkes oben auf der Bogenstange auf, der Mittelfinger mit seiner Fingerkuppe (gegenüber Daumen). Der Ringfinger verdeckt das Froschauge auf der vom Körper abgewandten Seite des Bogens. Der kleine Finger liegt mit seiner Fingerkuppe auf der Bogenstange auf. Die Bogenhaare werden zum Spielen auf die Geigensaiten zwischen Steg und Griffbrett aufgelegt. Der Bogendruck wird vor allem mit dem Zeigefinger reguliert.

Abb. 3: Halten des Bogens mit der rechten Hand

Zum Spielen legt man den Bogen zwischen Griffbrett und Steg auf die Saite und zieht ihn runter und hoch. Dies versetzt die Saite in Schwingungen und es entstehen Töne. Je mehr Druck man hierbei auf die Saite ausübt, desto lauter spielt man. Auch sollte man den Bogen immer gerade über die Saiten ziehen. Wenn man die Saite wechselt, hebt man den Bogen mit dem Schultergelenk an. Zum Hoch- und Runterführen des Bogens benutzt man Ellenbogen, Handgelenk und zum Teil auch die Fingergelenke. Die Finger der linken Hand setzt man nun auf die jeweilige Saite, auf der man den Bogen führt. Je nachdem auf welcher Stelle der Saite man die Finger ablegt, verändert sich der Ton, den man spielt. Je näher man dem Ende des Griffbretts kommt, desto höher wird der Ton. Tiefe Lagen sind hierbei einfacher zu spielen, da die Greifabstände der Finger in hohen Lagen enger sind und somit die Tendenz zur Ungenauigkeit des Tones steigt.

Abb. 4: Haltung beim Geigespielen

Beim Spielen kann es zu einigen Problemen kommen, wenn man gewisse Dinge nicht beachtet:

  • Man bekommt, gerade am Anfang, oft Krämpfe im Nacken oder in der Schulter, weil man die Geige zu fest oder zu schräg zwischen Kinn und Schulter einklemmt.
  • Wenn man die Geige auch oder nur mit der linken Hand hoch hält, kann es passieren, dass man beim Setzen der Finger an Geschwindigkeit verliert und das Rutschen nicht mehr flüssig möglich ist.
  • Wenn man den Bogen nicht in einer Linie hoch- und runterführt, gibt es ein Schleifgeräusch.
  • Wenn man den Druck des Bogens auf die Saiten zu ruckartig verändert, dann stockt und quietscht der Ton.
  • Die Finger der linken Hand setzt man mit der Fingerkuppe auf die Saiten auf. Wenn sie zu flach aufliegen, werden Flexibilität und Genauigkeit beeinträchtigt.
  • Wenn man den Bogen nach unten(oben) führt, muss man den Druck ausgleichen. Die Stelle, an der der Druck wirkt, entfernt(nähert) sich von der Druck ausübenden Hand und die Strecke auf dem Bogen, die den Druck überträgt, wird länger(kürzer).
  • Beim Spielen im Stehen sollte die Geige fast parallel zum Boden gehalten werden. Beugt man sich zu weit nach vorne, kann der Bogen leichter von seiner vorgesehenen Position abkommen und man kann Rückenschmerzen bekommen. Im Sitzen sollte das linke Bein normal nach vorne zeigen und das rechte Bein etwas angewinkelt gezogen sein, damit man den Bogen komplett abstreichen kann.

(persönliche Mitteilung, V. Lutz, 10.01.2021)

Blasinstrumente

Die Blasinstrumente werden in zwei große Gruppen unterteilt: Holz- und Blechblasinstrumente. Der größte unterscheidende Faktor ist hierbei die Tonerzeugung. Während die Schwingungen bei einem Blechblasinstrument von den Lippen des Musikers erzeugt werden, geschieht dies bei einem Holzblasinstrument (meist) über ein Rohrblatt. Bei den Rohrblattinstrumenten wird genauer zwischen Einfachrohrblatt und Doppelrohrblatt unterschieden. Das heißt auch, dass zum Beispiel ein Saxophon zu den Holzblasinstrumenten (Einfachrohrblattinstrumenten) gezählt wird, obwohl sein Korpus aus Metall gefertigt wird. Zur beispielhaften Erläuterung gehen wir hier näher auf die Trompete als Vertreter der Blechblasinstrumente und die Klarinette als Vertreter der Holzblasinstrumente (Einfachrohrblattinstrumente) ein.

Trompete

Mit der linken Hand (der haltenden Hand) wird die Trompete festgehalten. Dabei wird der Daumen in den Halbring und der Ringfinger(oder auch der Mittelfinger, je nach Handgröße) in den Ring gelegt. Zeigefinger und Mittelfinger stützen zusätzlich. Allerdings wird das meiste Gewicht nur von Daumen, Zeigefinger und Ringfinger getragen, der Ringfinger muss nämlich zusätzlich noch den sogenannten Trigger rausziehen. (siehe Bilder) Für die Position der rechten Hand (die spielende Hand) legt man den Daumen zwischen das erste und zweite Ventil, den Zeigefinger, Mittelfinger und Ringfinger auf die entsprechenden Ventile (1., 2. und 3.) und den kleinen Finger in den dafür vorgesehenen Halbring oben auf der Trompete. Letzterer dient hierbei nur der Stabilisierung. Wichtig ist, dass das Handgelenk der rechten Hand gerade gehalten wird. Mit einem angewinkelten Handgelenk ist unter Umständen die Bewegungsfreiheit der Finger beeinträchtigt, was das Spielen von schnellen Passagen erschwert, und es kann zu Handgelenksschmerzen kommen. Zusätzlich sollte man die Ventile mit dem dritten Fingerglied betätigen, da dieses eine größere Bewegungsfreiheit hat (siehe DYN5 Mehrkörpersysteme), als die beiden hinteren, und das Ventil gerade nach unten gedrückt wird und somit nicht einseitig abgenutzt wird.

Abb. 5: Haltung der Trompete mit der linken Hand
Abb. 6: Haltung der Trompete mit der linken Hand

Beim Spielen der Trompete geht es um Atmung, Stützmuskulatur und die Zungen- und Lippenstellung sowie -muskulatur. Um Töne zu erzeugen, muss man die Lippen fest aufeinander pressen und dann schnell Luft durch sie pusten. Dies erzeugt ein Summgeräusch. Je höher der zu spielende Ton ist, desto stärker muss man die Lippen zusammenpressen und desto schneller muss man die Luft durch die Lippen pusten. Das Mundstück dient dazu, den Ton auf das Instrument zu übertragen. Wie genau man die Lippen an das Mundstück ansetzt, ist von Person zu Person unterschiedlich. Man muss lediglich darauf achten, dass nicht nur die Lippe selbst im Mundstück ist, sondern auch etwas des Gewebes um die Lippe herum. Dies liegt an der für besonders hohe Töne benötigten Spannung, welche nicht mehr nur durch Aufeinanderpressen, sondern auch durch andere Kontraktionen der Lippenmuskulatur erzeugt werden muss. Sowohl Mundstück als auch Instrument fungieren als Katalysator und Verstärker. Auch wenn man mit den Ventilen die Länge des Instruments und somit die Tonhöhe verändern kann, wird das Gros der Tonerzeugung vom Musiker selbst mit seinem Mund erledigt. Stützmuskulatur und Zunge werden zur Optimierung und Veränderung des Luftstroms benötigt. Durch die Stützmuskulatur wird der Luftstrom stark und konstant gehalten, was für einen vollen Klang sorgt. Die Arbeit der Zunge kommt vor allem dann zur Geltung, wenn Noten nicht gebunden gespielt werden. Sie unterbricht kurzzeitig den Luftstrom, um Töne voneinander abzugrenzen. Sehr kurze “Pausen” zwischen den Tönen wird in der Musik als Tenuto bezeichnet, also ein breiter und eher weicher Klang. Wenn der Ton allerdings weniger Zeit seiner zugewiesenen Länge einnimmt, bezeichnet man dies als staccato, was einen kurzen und härteren Klang hat. Luft geholt wird meist durch den Mund, wenn man kurz absetzt, oder in einer Pause. Um bei möglichst viel Atemvolumen möglichst entspannt zu bleiben, sollte man wenig in die Brust und viel in Bauch und Seiten atmen. (persönliche Mitteilung, F. Köhler, 05.01.2021)

Klarinette

Abb. 8: Fingerhaltung beim Klarinettespielen

Die linke Hand hält bei der Klarinette die obere Hälfte. Der Daumen liegt dabei auf dem g-Loch auf der Rückseite der Klarinette, etwas über dem Zeigefinger, der zusammen mit Mittel- und Ringfinger auf der Vorderseite auf den fis-, e- und d-Löchern liegt. Auf der linken Hand lastet dabei kaum Gewicht, dieses trägt der Daumen der rechten Hand. Diese deckt die untere Hälfte der Klarinette ab. Zeige-, Mittel- und Ringfinger liegen auf den c-, H-, und A-Löchern. Der Daumen wird wieder auf der Rückseite des Instruments unter der Daumenstütze platziert. Da auf ihm fast das gesamte Gewicht des Instruments lastet, gibt es einen Haltegurt, den man am Instrument einhakt und sich um den Hals legt. Dies vermeidet eine Überstrapazierung. Die beiden kleinen Finger betätigen gelegentlich Klappen an der Seite. Weitere Seitenklappen können auch mit dem zweiten oder dritten Fingerglied betätigt werden, damit das erste Fingerglied nicht allzu weit vom Tonloch weg ist. Auch hier ist es wieder wichtig während des Spielens die Finger entspannt zu lassen, damit sie sich möglichst flexibel und schnell bewegen können. Dies kann insbesondere bei Ring- und kleinem Finger der rechten Hand eine Herausforderung darstellen. Im Gegensatz zu den anderen hier vorgestellten Instrumenten sind manche Tonlöcher nicht mit mechanischen Klappen versehen, sondern müssen von den Fingern komplett abgedeckt werden, um einen klaren Ton zu erzeugen. Dies erfordert höhere Präzision und die Finger, die gerade ein Tonloch abdecken dürfen während der Bewegungen der anderen Finger nicht verrutschen. Weiterhin ist zu beachten, dass man eine aufrechte, aber nicht verspannte, Haltung einnehmen sollte und, dass die Ellenbogen für mehr Freiheit nicht ganz an den Körper anliegen.

Die Tonerzeugung erfolgt bei der Klarinette über ein Rohrblatt, das am Mundstück festgemacht wird. Die Spitze des Mundstücks mit Blättchen umschließt man mit den Lippen. Die Schneidezähne sind auf dem Bissplättchen auf der Oberseite zu platzieren. Das Blättchen auf der Unterseite wird nur von der Unterlippe berührt, nicht von Zähnen. Diese drücken leicht gegen die Unterlippe. Wenn man nun Luft in das Mundstück pustet, werden Blättchen und somit auch Luft in Schwingungen versetzt. Je nachdem, welche Löcher man abdeckt, verändert sich die Länge des Instruments und dementsprechend auch die Tonhöhe. Durch den Ansatz (die Zungenposition und die Stimmbänder) kann auch hier der Musiker etwas an der Tonhöhe verändern (mehr Lippenspannung = höhere Töne), allerdings ist dies durch die vielen Klappen nicht so essentiell wie bei der Trompete. Für Atmung und Stützmuskulatur gelten die gleichen Dinge wie bei der Trompete.

Abb. 9: Haltung und Ansatz

Neurophysiologie und aktuelle Studienlage

Im folgenden Abschnitt werden wir die Musik bzw. das aktive Musizieren aus einer mehr neurowissenschaftlichen Perspektive betrachten. Es wird versucht, das für die Neurowissenschaften sowie Musikpsychologie wichtigste Bildgebende Verfahren darzustellen und dessen anwendung in der Musikforschung zu zeigen.

Ebenfalls wird versucht, einen groben Überblick über die physiologischen Abläufe des menschlichen Gehirns beim hören von Musik bzw. aktiven Musizieren zu geben. Hierfür werden verschiedene Studien über Hirnaktivität sowie Auswirkung auf das Gehirn durch aktives Musizieren bzw. des Musik hörens beleuchtet und im Groben zusammengefasst.

fMRT

Das fMRT, oder fMRI im Englischen, ist das heutige Standard Bildgebende Verfahren der Neurowissenschaften und vieler anderer Forschungsrichtungen. Bei diesem Verfahren werden gezielte Magnetströme genutzt, um sich ein Bild des Gehirns zu machen. Durch den Magnetimpuls werden Protonen aus ihrer natürlichen Bahn geworfen und müssen sich wieder rückpositionieren. Diese Rückpositionierung erzeugt Energie, welchen durch das MRT bzw. fMRT gemessen wird und dadurch ein Bild des Gehirnes in vielen Schichten dargestellt werden kann (N. Logothetis, 2008).

Das Besondere am fMRT ist nun, dass aufgrund des BOLD-Effekts zusätzlich aktuell aktive Hirnareale sichtbar gemacht werden können. Der BOLD-Effekt (Blood-Oxygenation-Level Dependent Effect), beschreibt die Eigenschaften von oxygenierten im Verhältnis zu nicht oxygenierten Blut im Körper. Wenn ein spezifisches Hirnareal aktiv ist, so wird dort der Blutstrom erhöht. In Arealen, in welchen mehr Blut strömt (primär oxygeniertes Blut) kann die fMRT den Magnetismus des Hämoglobins messen und daher definieren, an welchem Ort aktuell mehr oxygeniertes (und allgemein mehr Blut) strömt. Hierdurch kann genau gezeigt werden, welche Hirnareale aktuell aktiv sind (S. Ogawa, 2012).

fMRT in der Musikforschung

Die fMRT ist eine exzellente Möglichkeit das Gehirn beim arbeiten zu betrachten. Auch in der modernen Musikforschung, egal ob Neurowissenschaften, Psychologie oder anderem, wird dieses daher gerne genutzt.

Diese moderne Bildgebenden Verfahren erlauben es, die exakten Hirnareale für spezifische, für das Musizieren wichtige, Aktionen zu bestimmen. So konnte z.b. durch dieses Verfahren in einer Studie die genauen Hirnareale bestimmt werden, welche beim lesen von Note, im Verhältnis zu normalen arabischen Buchstaben, aktiv sind und genutzt werden. In dieser Studie zeigte sich, dass auch bei erfahren Pianisten eine signifikant stärkere aktivierung, des Lobulus parietalis superior sowie des Sulcus intraparietalis stattfand, wenn diese mit nicht Musikern verglichen wurden. Der Lobuls parietalis superior hat die Aufgabe visuelle Reize zu integrieren und diese Bewusst werden zu lassen. Der Sulcus intraparietalis liegt direkt unterhalb des Lobuls parietalis superior und ist für die Koordination von u.a. visuellen Wahrnehmung zuständig (Choi, 2006).

Allgemein zeigte sich jedoch, dass für das Lesen von Noten, unabhängig davon ob es sich um Noten oder das Äquivalent in arabischen Buchstaben handelt, primär die Areale wie Teile des parietal Lappens, das sensomotorische System der linken Hemisphäre sowie das rechte Cerebellum aktiv sind (Schön et al. 2002).

Neben dem aktiven Musizieren sind auch die Auswirkung des Musik hörens, also des passive Erlebens, ein wichtiger Faktor wenn die Auswirkung von Musik auf den Menschen und das Gehirn betrachtet werden möchte.

Musik ist eine simple Möglichkeit verschiede Emotionen in Personen auszulösen. Sie können einen Menschen so gut wie jegliche Emotionen fühlen lassen. Von Musik, die einen aufheitert, die einen nachdenklich bis traurig macht, bis hin zu Musik, die eine Person motiviert und sich größer fühlen lässt, ist alles möglich. Menschen hören Musik in jeglichen Lebenslagen und es existieren verschiedenste Arten und Genre der Musik.

Für das Auslösen von Emotionen sind ebenfalls verschiedenste Areale im Gehirn zuständig, welche mithilfe der fMRT Technik untersucht und bestimmt werden können.

Studien hierzu zeigten vor allem, dass verschiede Arten von Musik verschiede Areale des Hirns aktivieren und daraus resultierend andere Emotionen hervorrufen können.

Eine Studie aus dem Jahr 2005 erwies, dass positive (pleasant) Musik Areale wie den Gyrus frontalis inferior, Teile der anterioren superioren Inselrinde, das ventrale Striatum sowie andere ansprach. Diese Areale zeigen ebenfalls bei anderen positiven Erlebnissen eine höhere Aktivität. Bei negativer (unpleasant) Musik waren Areale wie der Gyrus parahippocampalis, sowie dem Hippocampus und der Amygdala, neben anderen. Diese Areale sind bekanntermaßen bei der allgemeinen Emotionsverarbeitung aktiv und zeigten auch in anderen Studien eine höhere Aktivität bei negativen Emotionen (Koelsch et. al., 2005).

Doch wie genau verarbeiten wir Menschen eigentlich Musik? Wie bei eigentlich jeglichen Versuchen eine so große Frage zu beantworten: Es ist kompliziert. Ebenfalls wird sich eine Note auf zwei Instrumenten oder von zwei Personen unterschiedlich anhören, unter anderem aufgrund der Stimmfarbe (Timbre) wodurch eine allgemein Erklärung nie alle faceten erläutern kann.

Im Folgenden wollen wir eine sehr vereinfachte Beschreibung der physiologischen Abläufe im menschlichen Gehirn betrachten, welche die grundlegenden Areale beschreiben und erläutern welche bei der Dekodierung von Musik eine Rolle spielen.

Selbst wenn nur einzelne Töne oder Akkorde betrachtet wird, zeigt sich, dass schon hierbei verschiedene Tonlagen und Frequenzen mitspielen. Selbst bei einer einzelnen Note. Dennoch gibt es durch moderne Forschung und mithilfe der fMRT gute Ansätze diese zu betrachten und zu entschlüsseln.

Allgemein ist zu sagen, dass das auditive Gehirn hierarchisch aufgebaut ist. Das bedeutet, dass Areale welche „tiefer“ in der Hierarchie stehen Informationen an „höhere“ Areale weitergeben (Auch wenn dieser Austausch fast nie nur einseitig ist). Die Einteilung der „höheren“ und „tieferen“ Areale in der Hierarchie findet primär durch die Komplexität des Prozesses in den einzelnen Arealen statt.

Nun lässt sich sagen, dass die „Grundinformationen“ der gehörten Musik, also die grundlegende Frequenz, Harmonien, die Länge der einzelnen Noten u.ä. in den „tieferen“ Arealen und zeitlich zuerst dekodiert werden. Es zeigt sich, dass die genauen Cortex aktivierungen auch von z.b. dem genutzten Instrument abhängt, auch wenn hier die Unterschiede nur gering sind. In folgenden Schritten wird das gehörte, wie jegliche auditive Informationen, mit bereits bekannten verglichen und überprüft, ob es bereits bekannt ist. Falls es bereits bekannt ist, wird ebenfalls die dazugehörige Emotion aktiviert. Die emotionale Antwort wird jedoch in einem von der restlichen Verarbeitung unabhängigen Areale übernommen welches unter anderem auch bereits noch kommendes Verhalten damit beeinflusst (Patterson et al., 2002).

Wie bei allen anderen auditiven Aktivierungen beginnt der Weg der Musik durch die Cochlea und nimmt ihre Prozessierung im primären auditiven Cortex auf, welche die bereits oben besprochenen „Grundinformationen“ verarbeitet. Anschließend nimmt die Information ihren Weg in Richtung cerebralen Cortex. Hier wird unter anderem die Tonhöhe (Pitch) verarbeitet, abhängig der Frequenz in subcortikal oder cortikalen Arealen.

Komplexere Prozesse wie z.b. das Bewerten der zusammenhängenden Tonhöhen und Frequenzen findet anschließend in weiteren „höheren“ Arealen statt (Warren, 2008)

Auswirkung des aktiven Musizierens auf das Gehirn

Das kognitive Aufgaben und Arbeit einen positiven Effekt auf das Gehirn haben und dieses effizienter machen bzw. im Alter länger fit halten können, ist eine allgemein bekannte und in der Psychologie und den Neurowissenschaften vielfache untersuchte Tatsache (u.a. Snowball, A, et. al, 2013).

Im Folgenden wollen wir anhand einige exemplarischer Studien die Auswirkungen des aktiven Musizierens auf das menschliche Gehirn untersuchen und eine Übersicht darstellen. Musik ist ein universell existierende Kunst Art, welche in allen Gesellschaften und Ländern, sowie jegliche historischen Aufzeichnungen vorgefunden wird. Es ist daher kein Wunder, dass sich die Neurowissenschaften sich schon länger mit der Auswirkung und den Effekten der Musik auf das menschliche Gehirn beschäftigt. Was die Musik besonders macht, ist ihre Eigenschaft verschiedenste Areale des Hirns gleichzeitig zu aktiven und anzusprechen. (Zatorre, A. 2005, p.315).

Unter anderen werden beim aktiven Musizieren Systeme der höheren sensorischen Prozessierung, des auditiv verarbeitenden Areales, das Sensor-Motor Areal, die Exekutiven Funktionen, der emotionalen Verarbeitung und einigen anderen angesprochen (Hallam, 2010; Rickard & McFerran, 2011).

Das all diese Areale, sowie das Gehirn allgemein in der Lage sind durch, unter anderem, aktives Training sich zu verändern ist eine bereits ausführlich untersuchte Tatsache (u.a. Kleim & Jones, 2008, S. S225). Auch das aktive Musizieren, was eine besonders komplexe kognitive Aufgabe darstellt, ist keine Ausnahme. Die exakten Auswirkungen von jahrelangem Musiktraining ist schwer zu sagen, da, um hierzu eine kausale Aussage treffen zu können, eine sehr ausführliche und komplexe Langzeitstudie nötig wäre.

Allgemein zeigen Studien dennoch, das die Gehirne von Musiker*innen oder aktiv musizierenden Personen (Vor allem wenn das musikalische Training bereits in jungen Jahren begonnen hatte) einen einen signifikanten Unterschied in der Größe, Form, Dichte sowie Funktionalität vor allem der Frontalen, motorischen sowie auditiven Regionen aufweisen. In einer Weise und Ausmaß, welches auch bei andersweit aktiven Menschen, welche jedoch nicht seit längeren aktiv musizieren, nicht gefunden wurde (Merrett & Wilson, 2011).

Andere Studien zeigten Unterschiede des primären auditiven sowie auditiver assoziation Areales (u.a. Schlaug et al. 1995a), des Weiteren wurden unterschiede des primären sensomotorischen Cortex und den prementor sowie supplementär-motorischen Areal gefunden (u.a. Elbert et al. 1995). Gerade letzteres lassen sich auf das Training und die Nutzung der Finger, in voneinander unabhängigen Bewegungen zurückführen (Amunts et al. 1997). Auch zeigt sich, dass das kognitive Training die Menge an grauer Hirnmasse des primären sowie auditiven Cortex signifikant erhöht (Schneider et al. 2002). Dies ist jedoch ein Effekt, welcher durch jegliches kognitives Training in den zugehörigen Hirn Arealen zu beobachten ist und nicht nur durch das aktive Musizieren erreicht werden kann (Snowball et al. 2013).

Die Studienlage zeigt, dass sich die beim Musizieren spezifisch angesprochenen und aktive Areale im Laufe der Jahre in, unter anderem, ihrer Größe und ihrer neuralen Effizienz verbessern (A. Neubauer, A. Fink, .2009).

Dies resultiert auch daraus, dass beim Musizieren eine Vielzahl an Prozessen gleichzeitig ablaufen und trainiert werden.

Betrachten wir zur besseren Darstellung einen simplen Prozess des Musizierens am Beispiel eines Pianisten. Der Pianist nutzt seine 10 Finger zum Spielen der 88 Tasten eines Klaviers. Betrachten wir für die Finger eine sehr simple Aufgabe wie das gezielte Drücken der Taste C4#. Schon für diese, auf den ersten Blick sehr simple Aufgabe, sind verschiedenste Bereiche des Hirns, sowie eine Großzahl an potentiellen Vorwissen notwendig. Zuerst muss der Pianist wissen, was die Aussage C4# überhaupt bedeutet, meist in Form einer Note auf einem Blatt. Er muss wissen welche der insgesamt 88 Tasten am Klavier gemeint ist und wo sie sich befindet. Ein erfahrener Pianist sollte ebenfalls in der Lage sein diese Taste ohne längeres überlegen blind zu treffen, ohne die korrekte Haltung zu verlieren und ohne weitere Taste zu betätigen. Allein an dieser, auf den ersten Blick simpel erscheinende, Aufgabe kann erkannt werden, dass viele Areale des Hirns aktiv seien werden. Parallel muss der Pianist seine Füße nutzen können, um die Pedale zu bedienen. Hierfür muss er neben der aktiven Bewegung des Beines genau wissen, wann und für wie lange er welches Pedal bedienen muss. Als dritter Faktor muss er entweder das zu spielende Stück komplett auswendig im Kopf haben und bereits sich den weiteren Verlauf überlegen oder die vor ihm liegenden Noten lesen und überlegen welche Noten er mit welchem Finger spielen wird. Zu guter letzte muss er zuhören, ob er im richtigen Tempo, der richtigen Lautstärke, mit der richtigen Betonung usw. spielt.

Da das menschliche Gehirn die faszinierende Eigenschaft hat für verschiedene Aktivitäten verschieden Areale des Hirns konstant zusammen arbeiten zu lassen ist es sicher nicht schwer sich vorzustellen, dass eine große Anzahl an Arealen im Hirn beim Musizieren angesprochen und dadurch trainiert wird. Die hier vorgestellten Studien versuchen diese Effekte darzustellen, jedoch ist es auch mit heutiger Technologie fast unmöglich jegliche spezifischen Areale zu bestimmen.

Figure 1 C4# definiert die schwarze Taste rechts der mittleren C Taste (Mittige schwarze Taste auf diesem Bild)

Dennoch ist davon auszugehen, dass die Ergebnisse, welche kürzere prospektiv kontrollierte Studien zeigen sich auf die Langzeitwirkung übertragen lassen.

Zusammenfassend lässt sich sagen, das Muszieren sowie das Hören von Musik ist eine exzellente Möglichkeit darstellt menschliches Erfahren und Erleben sowie das Lernen zu betrachten.

Die hier besprochenen Studien zeigen, wie Komplex eine für uns so allgegenwärtige Aufgabe ist. Ebenfalls zeigen sie die faszinierenden Auswirkungen der Musik auf das menschliche Gehirn.

Quellenverzeichnis

Literatur

Amunts K, Schlaug G, Jäncke L, Steinmetz H, Schleicher A, Dabringhaus A, Zilles K (1997) Motor cortex and hand motor skills: structural compliance in the human brain. Hum Brain Mapp 5(3):206–215

Choi, Hi-Jae, (2006). Zytoarchitektonische und funktionelle Abgrenzung des anterioren Sulcus intraparietalis im Menschen. 1-10

Darrow, A. (2006). The Role of Music in Deaf Culture: Deaf Students’ Perception of Emotion in Music. Journal of Music Therapy, Volume 43. https://doi.org/10.1093/jmt/43.1.2

Elbert, T., Pantev, C., Wienbruch, C., Rockstroh, B., & Taub, E. (1995). Increased Cortical Representation of the Fingers of the Left Hand in String Players. Science, 270(5234), 305. https://doi.org/10.1126/science.270.5234.305

Hallam, S. (2010). The Power Of Music: Ist Impact on the intellectual, social and personal development of children and´young people. International Journal Of Music Education, 28, 269-­‐289.

Kleim, J.A. & Jones, T.A. (2008). Principles Of experience-­‐dependent neural plasticity: implications for rehabilitation after brain damage. Journal Of Speech, Language, and Hearing Research, 51, S225-­‐239.

Koelsch, S., Fritz, T., v. Cramon, D. Y., Müller, K., & Friederici, A. D. (2006). Investigating emotion with music: An fMRI study. Human Brain Mapping, 27(3), 239–250. https://doi.org/10.1002/hbm.20180

Logothetis, N. K. (2008). What we can do and what we cannot do with fMRI. Nature, 453(7197), 869–878. https://doi.org/10.1038/nature06976

Merrett, D. & Wilson, S.J. (2011). Music And neural plasticity. In: Rickard, N.S. & McFerran, K., (eds). Lifelong Engagement With Music: Benefits For Mental Health And Well-­‐being. New York: Nova Science Publishers, 123-­‐162.

Nanayakkara, S., Taylor, E., Wyse, L. & Ong, S. H. (2009). An enhanced musical experience for the deaf: Design and evaluation of a music display and a haptic chair. Proceedings of the 27th International Conference on Human Factors in Computing Systems, Boston. https://doi.org/10.1145/1518701.1518756

Neubauer, A. C., & Fink, A. (2009). Intelligence and neural efficiency. Neuroscience & Biobehavioral Reviews, 33(7), 1004–1023. https://doi.org/10.1016/j.neubiorev.2009.04.001

Obermüller, A. (2008) Musikpädagogisches Arbeiten mit Gehörlosen. Diplomarbeit, Hochschule für Musik, Dresden.

Ogawa, S. (2012). Finding the BOLD effect in brain images. NeuroImage, 62(2), 608–609. https://doi.org/10.1016/j.neuroimage.2012.01.091

Patterson RD, Uppenkamp S, Johnsrude IS, Griffiths TD. The processing of temporal pitch and melody information in auditory cortex. Neuron 2002;36:767–6.

Reidel-Mathias, J. (2005) Zur Bedeutung von Sprache, Musik und Bewegung. Von der Wirksamkeit der Elementaren Musik- und Bewegungserziehung in der Gehörlosenpädagogik. Diplomarbeit, Universität für Musik und Darstellende Kunst, Salzburg.

Schlaug, G., Jancke, L., Huang, Y.X., Staiger, J. F. & Steinmetz, H. (1995). Increased corpus-­‐callosum size in musicians. Neuropsychologia, 33, 1047-­‐1055.

Schneider P, Scherg M, Dosch HG, Specht HJ, Gutschalk A, Rupp A (2002) Morphology of Heschl’s gyrus reflects enhanced activation in the auditory cortex of musicians. Nat Neurosci 5(7):688–694. doi:10.1038/nn871

Schön D, Anton JL, Roth M, Besson M. An fMRI study of music sight-reading. Neuroreport. 2002 Dec 3;13(17):2285-9. doi: 10.1097/00001756-200212030-00023. PMID: 12488812

Snowball A, Tachtsidis I, Popescu T, Thompson J, Delazer M, Zamarian L, Zhu T, Cohen Kadosh R. Long-term enhancement of brain function and cognition using cognitive training and brain stimulation. Curr Biol. 2013 Jun 3;23(11):987-92. doi: 10.1016/j.cub.2013.04.045. Epub 2013 May 16. PMID: 23684971; PMCID: PMC3675670.

Wagner, C. (1988). The pianist’s hand: anthropometry and biomechanics. Ergonomics, Volume 31, Issue 1, S. 97-131. https://doi.org/10.1080/00140138808966651

Wilson SJ (2013). The benefits of music for the brain, From the Proceedings of the 2013 Research Conference: How the Brain Learns Australian Council for Education Research, Melbourne, Australia.

Warren J. How does the brain process music? Clin Med (Lond). 2008 Feb;8(1):32-6. doi: 10.7861/clinmedicine.8-1-32 . PMID: 18335666 ; PMCID: PMC4953706.

Weber-Guskar, J. (2008) Musik und Gebärdensprache. Diplomarbeit, Universität Wien.

Zatorre, R.J. (2005). Music, the food of neuroscience? Nature, 434, 312-­‐315

Websiten

Deutsche Gebärdensprache (30.11.2020) In Wikipedia. Abgerufen am 28.01.2021 von https://de.wikipedia.org/wiki/Deutsche_Geb%C3%A4rdensprache

Eichhorn, C. (08.02.2020) Wieso Gebärdensprache so vielfältig ist. In Süddeutsche Zeitung. Abgerufen am 28.01.2021 von https://www.sueddeutsche.de/wissen/gebaerdensprache-anzahl-geschichte-fingeralphabet-1.4787104

Gehörlosigkeit. (14.01.2021). In Wikipedia. Abgerufen am 28.01.2021 von https://de.wikipedia.org/wiki/Geh%C3%B6rlosigkeit Haptische Wahrnehmung. (29.12.2020). In Wikipedia. Abgerufen am 28.01.2021 von https://de.wikipedia.org/wiki/Haptische_Wahrnehmung

Schall (1998). In Spektrum. Abgerufen am 28.01.2021 von https://www.spektrum.de/lexikon/physik/schall/1276 Gerardo, B. (07.07.2020) Taube sehen besser! Wie ein Sinnesausfall kompensiert wird. In Taubenschlag. Abgerufen am 28.01.22021 von https://www.taubenschlag.de/2020/07/taube-sehen-besser-wie-ein-sinnesausfall-kompensiert-wird/

World Health Organization (2021) Grades of hearing impairment. Abgerufen am 28.01.2021 von https://www.who.int/pbd/deafness/hearing_impairment_grades/en

Abbildungen

Bundesverband der Deutschen Luftverkehrswirtschaft e.V. Wie Schall übertragen wird. Abgerufen am 28.01.2021 von https://www.fluglärm-portal.de/fluglaerm-debatte/was-ist-laerm/

CuteCircuit. Soundshirt. Abgerufen am 28.01.2021 von https://cutecircuit.com/soundshirt/

Notenschlüssel via Pixabay License. Abgerufen am 03.02. von https://pixabay.com/de/vectors/musik-h%C3%B6hen-notenschl%C3%BCssel-musical-39881/

https://unsplash.com/photos/TfIQZ2gFEvI

biomechanik/projekte/ws2020/wp2003.1613382315.txt.gz · Zuletzt geändert: 28.11.2022 00:40 (Externe Bearbeitung)


Warning: Undefined variable $orig_id in /is/htdocs/wp1019470_OPI92FFHXV/www/wikiLehre/lib/plugins/openas/action.php on line 232