Das stille Öhrchen gibt es nicht. Immer Klänge. Immer.

0

Absolute Stille – also die Abwesenheit von jeglichen Geräuschen – gibt es auf unserer Erde nicht. Sie gibt es nur im luftleeren Weltall oder in einem künstlich erstellten Vakuum. Denn, der Schall kann sich ohne die Luftmoleküle ja nicht fortbewegen. Wie wir alle aus dem Physikunterricht in der Volksschule wissen.

Selbst der ältere Durchschnitts-Mensch aus der ohne Mobiltelefon aufgewachsenen Generation, damals noch mit Postbrief und Postkarte und einem eher nicht zuteilungsreifen Festnetz-Anschluss, ist inzwischen zum Information-Junkie geworden. Wenn wir ganz ehrlich sind, kann da nur Zustimmung geben. Diese in neuer Gestalt sichtbare urmenschliche Sucht wird so bleiben und sich durch neue Technologien weiter verstärken. Neugier ist nun mal menschlich. Ein Mensch will teilhaben und will nicht sozial isoliert sein, denn dann ginge er so schnell ein wie eine nicht gegossene Primel in der vergleichsweise nunmehr regelmässig heisseren Frühlingssonne. 

Bezüglich der menschlichen Probleme von Einsamkeit und Langeweile ist das Informationsbedürfnis auch prima und sehr nützlich und gesellschaftlich erwünscht. Ein Mensch muss beschäftigt sein. Aber genau das produziert nun in manchen Bereichen sehr gut sichtbare neue erhebliche Aufmerksamkeitsdefizite, was scheinbar ein Widerspruch ist.

Im «Brain & Sound Lab» der Universität Basel arbeiten sich Wissenschaftler Schritt für Schritt an die erhoffte Vollständigkeit der Erkenntnisse heran, wie z.B. die Verarbeitung von Klängen in unserem menschlichen Gehirn funktioniert.

«Völlige Stille erfahren wir in unserem Leben nur sehr, sehr selten», sagt die dort tätige Neurowissenschaftlerin Tania Barkat. Auch wenn es uns nicht bewusst ist: immer sind wir von einer Geräuschkulisse z.B. aus Verkehrslärm, Baulärm, Renovierungswut, Kindergeschrei, Gesprächsfetzen, Vogelgezwitscher, brummenden Kühlschränken, piepsenden Telefonen, städtischen Wischmaschinen und umherjagenden Rettungsdiensten und vielem anderen umgeben. In der Stadt und oft auch auf dem Land.

Trotzdem schafft es unser Gehirn mehr oder weniger immer wieder, in jeder Situation, diejenigen Informationen herauszufiltern, die für uns wichtig sind. Wie das geht, untersucht Tania Barkat mit ihrer Forschungsgruppe im «Brain & Sound Lab» der Universität Basel: «Über das Hören ist noch viel weniger bekannt als über das Sehen», sagt sie. «Die Augen kann man mit einer Brille korrigieren, beim Gehör ist das alles viel komplexer.»

Mehr gesichertes Wissen wäre somit in Zukunft auch wichtig – etwa, weil durch die immer häufigere Verwendung von drahtigen und drahtlosen Kopfhörern – oft in zu hoher Lautstärke – und auch die zunehmende E-Mobilität mit sich lautlos heranschleichenden Autos eines Tages bisher ungeahnte Probleme auf uns zukommen werden, wie man inzwischen beim aufmerksamen Radeln & Spazieren durch eine Stadt sehr oft sehen kann. Oder, weil mögliche Fehler im ganzen Hörprozess selber auch eine mögliche Ursache für die inzwischen sehr weit verbreiteten Aufmerksamkeitsstörungen beim Menschen sind. 

Zum Beispiel hat in Basel-Stadt, trotz inzwischen schweizweit drakonischer Strafen und der kurz darauf todsicher auch noch in den Briefkasten flatternden parallelen zweiten Bestrafung für dasselbe Delikt durch das örtliche Strassenverkehrsamt (eine einmalige schweizerische Besonderheit, aus dem Land der direkten Demokratie, schon jeder zweite Autofahrer und LKW-Fahrer beim Fahren & Lenken noch zusätzlich ein Handy in der Hand. Jeder zweite Velofahrer hat – vorzugsweise weisse – «Laut-Sprecher» im Ohr wie auch fast jeder jüngere Fussgänger sich nur noch mit dem Plastik im Ohr fortbewegen mag. Schöne neue Welt. Die neue, aber im wahrsten Sinne des Wortes beschränkte Mobilität des Menschen. Beschränkt in seiner Aufmerksamkeitsspanne, die notwendig für das Überleben ist.

Als auch durch eigene “Artgenossen” in der Stadt gefährdeter Radfahrer nimmt man dieses bereits fassungslos wahr, wenn man einmal nur halbwegs aufmerksam die Verkehrsteilnehmer um sich herum beobachtet, wie ich gestern Nachmittag bei einem Selbsttest in gedanklicher Vorbereitung auf diesen Artikel inmitten des Stossverkehrs in der Innenstadt erfuhr. Rush hour pur. Es geht nicht vorwärts, also Blick aufs Handy und “Simsen” was der Akku hergibt. Ein Riesenproblem kommt da auf uns zu. Und ich glaube nicht, dass selbst irgendwann einmal mögliche kurze Haftstrafen den Menschen nachhaltig dazu bewegen können, konsequent im Verkehr nie mehr auf das Handy zu schauen. Abgesessen und abbezahlt. Und dann geht es langsam wieder weiter. Und das Handy lockt wie immer und überall.

Nur durch Selbstdisziplin immer und überall, basierend aus tiefer innerer Überzeugung durch die tiefe gedankliche Durchdringung des Problems, erscheint mir das als lösbar. Wer will das wirklich leisten, wenn es so einfach ist und das Entdeckungsrisiko eher noch schwindet.

Die oben erwähnte Komplexität der ganzen auditiven (hörenden) Wahrnehmung des Menschen scheint ein Grund zu sein, warum sich bis jetzt nur wenige Wissenschaftler an dieses Thema herantrauten. Denn auch technisch sind die ganzen Experimente zur Klangverarbeitung im menschlichen Gehirn eine ziemliche Herausforderung.

Bei Mäusen, mit denen aktuell die meisten Versuche durchgeführt werden, ist das für das Hören zuständige Hirnareal – der so genannte auditive Kortex – gerade einmal einen Kubikmillimeter gross und damit schwer zugänglich.

In den letzten Jahren hat die Forscherin Barkat diese Schwierigkeiten jedoch erfolgreich gemeistert und mit ihrem Team wichtige neue Erkenntnisse über das Hören gewonnen: zum Beispiel, dass am Ende eines Klangs keineswegs die Funkstille im Kopf herrscht. Im Gegenteil: endet ein Ton oder eine bestimmte Klangfrequenz, so reagieren der oben erwähnte auditive Kortex und weitere Hirnareale darauf mit einer erhöhten Aktivität. 

Dieses Phänomen hat die Hirnforscherin Magdalena Solyga während ihrer Promotionsarbeit erstmals genauer untersucht. Aufgrund ihrer Resultate glaubt sie, dass diese sogenannte «Offset-Antwort» (siehe nächster Abschnitt) eine wichtige Rolle beim ganzen Hörprozess spielt. Für ihre Versuche brachte Solyga den Mäusen zunächst bei, durch Schlecken an einer Plastikröhre anzuzeigen, dass ein Klang zu Ende ist. Dies gelang mit einem zweiwöchigen Trainingsprogramm, bei dem die hungrigen Tiere für die richtige Reaktion mit einem Tropfen Sojamilch belohnt wurden. Für die Experimente platzierte sie ihre Mäuse dann in eine schalldichte Box und spielte ihnen Töne in verschiedenen Frequenzen und Längen vor. Über im Hirn implantierte Elektroden zeichnete sie dabei die Aktivität von Nervenzellen in den verschiedenen Hirnarealen auf.

Das Phänomen: Aktivität zeigt Stille an. Es zeigte sich, dass die Aktivität der Nervenzellen beim Beginn eines Tons nach oben schnellt und dann rasch auf eine niedrige Basisaktivität abflacht. Erst nach dem Ende des Tons erhöht sich die Aktivität wieder für etwa 50 bis 100 Millisekunden. 

«Die Nervenzellen signalisieren also nur den Anfang und das Ende eines Tones», schlussfolgerte M. Solyga und begründet das damit, dass dieses auf Dauer wohl energiesparender sei, als wenn die Nervenzellen die gesamte Zeit aktiv sind.

Um zu beweisen, dass diese «Offset-Antwort» tatsächlich nötig ist, schaltete sie die daran beteiligten Nervenzellen dann mal gezielt aus.  Hierfür setzte sie die Optogenetik ein – mit dieser Technik lassen sich durch genetische Veränderungen bestimmte Nervenzellen durch einen Lichtpuls gezielt ausschalten. Diese Versuchsreihe belegte dann, dass die Mäuse ohne das «Offset-Signal» so ihre rechten Schwierigkeiten hatten, das Ende eines Tones richtig zu erkennen. 

«Die Offset-Antwort ist also nicht nur ein Artefakt, sondern hat eine bestimmte Funktion», so schlussfolgerte die Forscherin Barkat. 

Beim Menschen sei sie möglicherweise für das Sprachverständnis wichtig. «Auch beim Sprechen gibt es kurze Pausen, die eine Bedeutung haben. Deswegen müssen wir genau wissen, wann ein Laut aufhört.» Und auch um Musik richtig hören zu können, müssen wir die kleinsten Pausen zwischen den Tönen wahrnehmen.

Forscherin Barkat hält es für denkbar, dass mithilfe dieser Erkenntnisse eines Tages die Funktion von Cochlea-Implantaten verbessert werden kann. Diese im menschlichen Ohr platzierten Prothesen ermöglichen es gehörlosen Menschen, die gesprochene Sprache zu verstehen; sie funktionieren aber beispielsweise eher nicht gut in einer lärmigen Umgebung und beim Hören von Musik, wie man immer wieder festgestellt hat. «Vielleicht geht das Offset-Signal bei Cochlea-Implantaten verloren und wir könnten es durch zusätzliche Stimulation von aussen wiederherstellen.»

Eine solche Anwendung der Forschungsergebnisse für den Menschen ist natürlich das ganz am Ende stehende Ziel, auch wenn der Weg zu diesem Ziel noch weit ist. «Natürlich machen wir unsere Experimente letztendlich nicht, um herauszufinden, wie Mäuse hören», sagt T. Barkat. «Aber unsere Fragestellungen lassen sich nicht direkt im menschlichen Gehirn untersuchen.»Mäuse hingegen sind dafür sehr gut geeignet. Zwar haben sie keine Sprache und hören in einem ganz anderen Frequenzbereich als die Menschen, doch sind ihre Hirnstrukturen ähnlich und ihre Signalwege für das Hören funktionieren prinzipiell gleich wie beim Menschen. Zudem stehen der Hirnforschung für die Experimente mit den Mäusen zahlreiche gut etablierte Techniken wie die Optogenetik zur Verfügung.

Mit diesen Methoden untersucht das Team Barkat neben der Offset-Aktivität noch viele weitere relevante Dinge des Hörens: eine andere Studie ermittelte beispielsweise, wie das Gehirn vom passiven Hören auf das aktive Zuhören umschaltet. In einem aktuellen Projekt versucht man gerade herauszufinden, warum die lauten Töne als länger empfunden werden als die leisen Töne. Und Mäuse mit Cochlea-Implantaten ermöglichen es, den Effekt dieser Prothesen auf die Vorgänge im Gehirn zu testen. 

«So verschieden all diese Untersuchungen scheinen, letztendlich haben sie alle mit der Plastizität des Gehirns zu tun», sagt Barkat. «Wir schauen all diese Vorgänge einzeln unter kontrollierten Bedingungen im Laborexperiment an und versuchen sie zu verstehen. Dann erst können wir die Komplexität erhöhen und unter realistischeren Bedingungen untersuchen, wie es das Gehirn schafft, sich beim Hören immer wieder an verschiedene Umgebungen und Aufgaben anzupassen.»

An der eingangs erwähnten «Informationen-Geilheit» des (modernen?) Menschen lässt sich vorderhand nicht viel ändern. Das wird so bleiben. Und sich verstärken. Virtuelle Realitäten kommen noch auf uns zu und müssen in den menschlichen Alltag Sinn stiftend eingetaktet werden. Denn: es kommt im Alltag 24 Stunden darauf an, aus dem Gehörten weiterhin die richtigen und wichtigen Informationen herausfiltern zu können. Sich sicher in der Natur & Umwelt bewegen zu können, war eine Kernkompetenz des Wesens «Mensch» und hat es bisher überleben lassen. 

Aus meiner Sicht kann neben der schweren leben erwähnten Disziplin z.B. künstliche Intelligenz dem informationsüberlasteten Menschen da viel helfen. Aber auch die muss richtig entwickelt werden. Und die Energie-Frage zu derem Betrieb muss erst noch gelöst werden.

Die Erkenntnisse aus der Forschung bei «Brain & Sound» an der Uni Basel sind unter anderem auch angesichts des z.B. eingangs geschilderten, in Städten beobachtbaren massiver werdenden Problems im Strassenverkehr wichtiger denn je. 

Ob man das mit einer drakonischen Bestrafung des naturgemäss informationssüchtigen Menschen halbwegs in den Griff bekommt, bezweifle ich persönlich sehr. Ein «Kraut gegen die menschliche Neugier» muss erst noch gezüchtet (und eingenommen) werden. Wer hat Interesse daran.

Lotto-Unternehmen z.B. hab

en stabile und je nach Jackpot massiv ausbaubare Umsätze, obwohl jeder Mensch weiss, dass die Wahrscheinlichkeit von einem Meteoriten statt einem Lottogewinn getroffen zu werden sehr viel höher ist.

Bildquelle: planet-wissen.de

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein