menschliche-stimme
  1. Startseite
  2. Magazin
  3. Gesundheit
  4. Wie sich unsere Stimme entwickelt und wie wir sie schützen können

Wie sich unsere Stimme entwickelt und wie wir sie schützen können

Der 16. April ist der Welttag der Stimme. Zu diesem Anlass haben wir mit einer Expertin gesprochen: Professorin Katrin Neumann vom Universitätsklinikum Münster erklärt, wie unsere Stimme sich im Laufe des Lebens entwickelt, wie wir sie schützen können und was sie jenseits der gesprochenen Inhalte über uns aussagt. Auch auf die Frage, inwieweit KI die menschliche Stimme imitieren kann, geht die Expertin ein.

Die Stimme im Kleinkindalter

Für frisch gewordene Eltern ist der Schrei des Neugeborenen ein Hinweis auf dessen Gesundheit und daher der Anlass großen Glücks. Die Säuglingsstimme an sich ist allerdings noch recht einförmig. „Sie kann zwar Hinweise auf bestimmte Krankheiten geben. Bei gesunden Säuglingen ist ihr Frequenzspektrum allerdings bis etwa sechs Wochen nach der Geburt noch wenig variabel“, sagt Prof. Katrin Neumann, die die Klinik für Phoniatrie und Pädaudiologie am Universitätsklinikum Münster leitet.

Wobei die „Startfrequenz“ schon eine besondere ist. Sie liegt im Durchschnitt bei 440 Hertz. In der Musik ist das das eingestrichene A, also der Standard-Kammerton, nach dem in den meisten Orchestern der Welt die Instrumente gestimmt werden.

„Der Klang der Stimme ist in den ersten drei Lebensmonaten die einzige Möglichkeit des Babys, sich zu äußern. ”

In der zweiten Schreiphase kommen deutlich mehr Modulationen dazu, es deuten sich also Variationen von Tonhöhe, Lautstärke, Tempo und Klangfarbe an. „Davon kann man dann Emotionen wie Wut und Ärger, aber auch Lust ableiten“, so Neumann. Das sei auch wichtig: Schließlich ist der Klang der Stimme in den ersten drei Lebensmonaten die einzige Möglichkeit des Babys, sich zu äußern. 

Bevor sich Fähigkeit zum Sprechen entwickelt, wird die Stimme zunehmend variabel. Bis zum Alter von drei Jahren entwickelt das Kleinkind einen Stimmumfang von ungefähr einer Oktave. Die Stimme wird allmählich tiefer, aus dem eingestrichenen A wird langsam das eingestrichene D.

Der Stimmwechsel

Der Umfang der Stimme wächst weiter. Der nächste Einschnitt kommt mit der Pubertät. Was man umgangssprachlich Stimmbruch nennt, heißt in der Wissenschaft Stimmwechsel oder -mutation. Ein veränderter Spiegel an Sexualhormonen verändert die Stimme. Diese Entwicklung fällt bei Jungen deutlich stärker ins Gewicht, aber auch Mädchen kommen in den Stimmwechsel, so Neumann: „Beim Jungen sinkt die Sprechstimme ungefähr um eine Oktave ab, beim Mädchen ist es eine Terz.“ 

Nach außen sichtbar wird der Stimmwechsel bei jungen Männern durch den Adamsapfel. Der gestiegene Testosteronspiegel leitet einen Umbau des Kehlkopfes ein. Die beiden Knorpelplatten, aus denen er besteht, ändern die Position zueinander: aus einem 120-Grad-Winkel wird ein 90-Grad-Winkel, der Adamsapfel bildet sich aus. Die Stimmlippen, die ein wesentlicher Teil des stimmbildenden Apparates im Kehlkopf sind, verlängern sich von etwa 1,2 auf 2,2 Zentimeter. Und längere Stimmlippen führen zu der tieferen Stimme.

„Ging das Ganze zu schnell vonstatten, „kippeln“ Jungen anschließend eine Zeitlang mit der Stimme. ”

Der eigentliche Stimmwechsel, das Absinken der Stimmhöhe, dauert manchmal nur zwei Monate, manchmal zieht er sich über ein Jahr hin. Ging das Ganze zu schnell vonstatten, „kippeln“ Jungen anschließend eine Zeitlang mit der Stimme. Kein Wunder, angesichts der komplett neuen Verhältnisse im Stimmapparat, „dieser feinen neuromuskulären Zusammenarbeit und Feinsteuerung der Stimmlippenspannung“, so Neumann. 

Insgesamt sei der Kehlkopf ein beeindruckendes Phänomen: „Die Stimmlippen machen von der Länge her nur das Hundertstel einer einzelnen Klaviersaite aus. Aber durch ihre spezielle Struktur bringen sie dem Menschen den Stimmumfang aller sechs Saiten einer Gitarre.“

Die Erwachsenen- und Altersstimme

In den beiden Jahren nach dem Stimmwechsel konsolidiert sich die Stimme im Erwachsenenmodus. „Je nach Grad von Ausbildung und Training bietet die voll ausgeprägte Erwachsenenstimme Stimmumfänge von eineinhalb bis drei Oktaven.“ Im jungen Erwachsenenalter ändert sich zunächst nicht viel. Hormonelle Einflüsse können zu Schwankungen führen. „Während der Schwangerschaft schwellen die Stimmlippen leicht an, die Stimme wird ein bisschen tiefer. Aber das geht wieder weg.“ 

Mit den Wechseljahren dann bricht eine Phase an, in der sich die Stimmlagen von Mann und Frau tendenziell anpassen: Bei Männern wird die Stimme durch einen Mangel an Testosteron langsam höher. Im fortgeschrittenen Alter kann das in eine Fistelstimme umschlagen, den sogenannten Greisendiskant. Frauenstimmen macht der Mangel an Östrogen während der Wechseljahre tiefer. Bei beiden wird die Stimme mit der Zeit brüchiger, leiser und weniger tragfähig.

„Im fortgeschrittenen Alter kann das in eine Fistelstimme umschlagen, den sogenannten Greisendiskant. ”

Allerdings kann man seine Chancen auf eine volle, gesunde Stimme verbessern. „Es ist wie mit dem Aussehen und dem Mobilitätszustand“, sagt Katrin Neumann. Wer seine Stimme trainiere und fit halte, könne altersbedingte Verschlechterungen hinauszögern. Man messe der Stimme heutzutage jedoch verbreitet keine große Bedeutung mehr bei: „Die Bedeutung der Stimme wird in unserer Gesellschaft oft unterschätzt – und eine Heiserkeit wird häufig nicht als 'echte Krankheit' angesehen. Dabei ist die Stimme in unserer Kommunikationsgesellschaft ein wichtiges Handwerkszeug, das immer stark mitwirkt.“ Daher lohne es sich nach wie vor, dieses Handwerkszeug pfleglich zu behandeln.

Was tun gegen Heiserkeit?

Gerade Menschen, die in Erziehung und Bildung tätig sind, sind auf den Einsatz ihrer Stimme angewiesen. Sie können versuchen, an einer ungünstigen Klassenraumakustik zu arbeiten oder laute Schülerinnen und Schüler zur Ruhe zu bringen. Aber das allein wird wohl nicht reichen. 

heiserkeit-stimme

Weitere Tipps von Prof. Katrin Neumann

a) zur Vorbeugung:

Ausreichend Schlafen sorgt für die notwendige Spannkraft im Sprechapparat.

Ausreichend Trinken bewahrt die Stimmlippen vorm Austrocknen.

Besuche in verrauchten Kneipen und lauten Clubs meiden; selbst rauchen natürlich auch.

Üben, wie man richtig schreit: „Nicht oben aus dem Hals heraus schreien, sondern tief vom Bauch her, unter Einsatz der Bauchmuskulatur. Dabei die Lautstärke halten, nicht weiter erhöhen, denn 'falsches' Schreien kann zu organischen Manifestationen wie Stimmlippenknötchen führen.“

b) zur Behandlung:

Inhalieren mit Salz, Kamille und/oder Salbei: „Dabei auf die Tröpfchengröße am Inhaliergerät achten. Die ist meistens so eingestellt, dass vor allem die Bronchien erreicht werden. Damit sich das Inhalat im Kehlkopf absetzt, braucht man eine relativ große Tröpfchengröße. Gegebenenfalls ausprobieren.“

Dampfbad: „Kopf über die Schüssel mit dem warmen Salzwasser – ebenfalls plus Kamille und/oder Salbei –, darüber ein Handtuch legen.“

Lutschbonbons und Halspastillen, die Linderung versprechen, kann Neumann grundsätzlich nicht empfehlen: „Die sorgen vielleicht für ein angenehmes Gefühl. Aber an den Symptomen ändern sie meist nicht viel.“

Wann muss ich zum Arzt?

Im Normalfall sollte eine Heiserkeit nicht länger anhalten als zwei Wochen. Spätestens nach drei Wochen sollte sich das eine Ärztin oder ein Arzt ansehen: vor allem, um eine mögliche Tumorerkrankung wie einen Kehlkopfkrebs auszuschließen. Als Alternative zum klassischen HNO-Arzt empfiehlt Katrin Neumann den Besuch einer phoniatrischen Einrichtung. 

Die Phoniatrie ist als fachärztliche Spezialisierung noch relativ jung. Diese medizinische Disziplin beschäftigt sich mit Störungen der Stimme, des Sprechens und der Kommunikation. „Und gerade in der phoniatrischen Diagnostik sind bestimmte Instrumente Standard, die man längst nicht in jeder HNO-Praxis findet.“

„Die Stimme ist ein sehr ehrliches Signal. Niemand kann sie lange verstellen.”

Was verrät die Stimme über den Menschen?

Die Stimme kann Rückschlüsse auf Krankheiten wie Depressionen und Parkinson geben, auch wenn der Mensch nicht heiser ist – also in dieser Hinsicht gesund. Außerdem ist die Stimme der „Spiegel unserer Emotionen“, sagt Prof. Neumann. „Wenn Sie mich nur hören, haben Sie ein zutreffenderes Bild von mir, als wenn Sie mich zusätzlich noch sehen.“ 

Diese Erkenntnis leitet sie von der Studie „Die reine Sprachkommunikation verbessert die empathische Genauigkeit“ aus dem Jahr 2017 ab. Die Kategorie „empathische Genauigkeit“ bezeichnet die Fähigkeit des Menschen, die Gefühlslage eines Gesprächspartners einzuschätzen. Fünf Experimente mit knapp 1800 Teilnehmenden legten nahe, dass allein die Stimme zu einer höheren empathischen Genauigkeit führe als die Mimik oder Körpersprache des Gegenübers. Katrin Neumann: „Die Stimme ist ein sehr ehrliches Signal. Niemand kann sie lange verstellen.“

Kann KI die menschliche Stimme imitieren?

Rund um das Thema Stimme wächst die Bedeutung von Künstlicher Intelligenz, nicht nur beim Erkennen von Krankheiten. Viele Betriebe setzen Voicebots für Kundentelefonate ein. Und natürlich arbeitet auch Prof. Neumann an ihrer Klinik mit KI-basierten Sprachmodellen. Etwa um Hörbücher für Kinder mit einer gestörten Sprachentwicklung zu generieren. „Wir haben etliche Systeme ausprobiert, aber wir waren bislang nie zufrieden.“ Allerdings nicht, weil die KI nicht gut genug ist, sondern weil sie inzwischen zu gut funktioniert. Nicht der kleinste Fehler, keine unsaubere Aussprache mehr. 

ki-stimme

„Das klingt einfach zu künstlich. Nach wie vor fehlt ihr eine gewisse Natürlichkeit, besonders in der kontextabhängigen Intonation.“ Moderne Arten, um künstliche Sprache zu erzeugen, funktionieren ähnlich wie ChatGPT. ChatGPT versucht, das nächste Wort in einem Satz abzuschätzen; ähnlich schätzen auch sogenannte Text-zu-Sprache-Modelle die nächste Mikrosekunde im Sprachsignal ab – und zwar mit einer sehr hohen Genauigkeit. Das erlaubt die hohe Qualität heutiger Systeme, teilweise mit einer absoluten Perfektion in der Aussprache.

Aber ist eine perfekte Aussprache immer die richtige? Nicht nur Nostalgiker schwören auf eine Authentizität durch Imperfektion: Sprache wirkt nur dann menschlich, wenn sie Ungenauigkeiten zulässt und auch mal ein Räuspern. KI-Systeme, die aktuell entwickelt werden, versuchen schon, solche Ungenauigkeiten an passender Stelle einzustreuen. Damit sollen sie natürlicher wirken. Kann KI die menschliche Stimme also vollständig ersetzen? Neumann: „Da bleibe ich Ihnen eine präzise Antwort vorläufig schuldig.“

Quellen:

Icon, das einen Experten/eine Expertin symbolisiert. Symbol für die Envivas Fach-Experten.

Prof. Katrin Neumann

Expertin

Leiterin der Klinik für Phoniatrie und Pädaudiologie am Universitätsklinikum Münster

Markus Düppengießer

Autor

Markus Düppengießer, Journalist und Lektor, lebt in Köln. Früher schrieb er vor allem für Tageszeitungen, heute für verschiedene Fachmedien (on- und offline) aus den Bereichen Gesundheit und Personalwesen, für ein Straßenmagazin und eine Kinderzeitung. Zudem ist er Dozent für Presse- und Öffentlichkeitsarbeit.