DIE BEDEUTUNG DER GRUNDFREQUENZ FÜR DIE KLANGQUALITÄT UND DAS SPRACHVERSTEHEN

Autor: Simon Müller, M. Sc. in Audiology, Audiologisch-wissenschaftlicher Leiter, Widex Hörgeräte GmbH

Für die subkortikale und kortikale Verarbeitung von akustischen Signalen berichten unterschiedliche Forschungsarbeiten wie wichtig eine neuronal stabile Verarbeitung der Grundfrequenz ist. Es gibt Hinweise auf einen Zusammenhang zwischen der neuronalen Bewahrung der Grundfrequenz und der Sprachverständlichkeit im Störgeräusch. So ist die Ableitung akustisch evozierter Potenziale auch für die Bewertung moderner Signalverarbeitungen in Hörsystemen von Bedeutung.


 Zu fast jedem Zeitpunkt unseres Alltags befinden wir uns in der Gegenwart von komplexen Klängen. Egal ob es sich um die Stimme einer Sprecherin oder Sprechers, das Surren einer elektrischen Zahnbürste oder das Ertönen eines Musikinstruments handelt – dem menschlichen Gehirn gelingt es, diese Fülle an Informationen voneinander zu trennen und einzelnen Signalen eine Bedeutung zu geben. Als eine relevante Voraussetzung für die Bewältigung dieser Aufgaben gilt die Fähigkeit, die Grundfrequenz eines Signals neuronal abzubilden, also zu codieren. Der daraus resultierende neuronale Code wird weiterführend höhergelegenen kognitiven Prozessen zur Verfügung gestellt. Dieser Artikel bietet einen Überblick über den Zusammenhang zwischen der neuronalen Abbildung der Grundfrequenz und zusammenhängenden Eigenschaften wie der Sprachverständlichkeit oder Lokalisation. Des Weiteren wird beschrieben, wie die Ableitung akustisch evozierter Potenziale unter Verwendung komplexer Signale, wie der Silbe /da/, zur Bewertung moderner Hörsystem-Signalverarbeitungen herangezogen werden kann. Doch zunächst stellt sich die Frage, wie sich komplexe Klänge unseres Alltags spektral zusammensetzen.


Zusammensetzung komplexer Klänge

Anders als Reintöne beinhalten komplexe Klänge mehrere Schwingungskomponenten, also Sinuswellen. Diese umfassen die Grundfrequenz (F0) sowie deren dazugehörige harmonische Schwingungen. Während die Grundfrequenz die Wiederholungsrate eines Signals pro Sekunde repräsentiert, z. B. bei 130 Hz, sind die harmonischen Schwingungen das ganzzahlige Vielfache der Grundfrequenz. Sie liegen in diesem Beispiel folglich bei 260 Hz, 390 Hz, 520 Hz und so weiter. Zudem können die harmonischen Schwingungen eines komplexen Signals in ihrer Intensität je nach Schallquelle variieren. Das Ergebnis aus Phasen-Summation und -Auslöschung der einzelnen Bestandteile aus Grundfrequenz und harmonischen Schwingungen ergibt die komplexe Wellenform und bestimmt folglich den Klang.

Spektrum einer Klarinette im Vergleich zu einem Piano

Abbildung 1: Abgebildet ist das Spektrum einer Klarinette (Lila) im Vergleich zu einem Piano (Blau) beim Spielen derselben Note (“c”). Die Grundfrequenz (F0) beider Instrumente liegt bei 130 Hz, wobei sich der jeweilige Pegelanteil der zugehörigen harmonischen Schwingungen unterscheidet

Eine Klarinette und ein Piano können beide auf den Kammerton a‘ (440 Hz) gestimmt sein. Spielen beide Instrumente dieselbe Note, so ist deren Grundfrequenz identisch. Die dazugehörigen harmonischen Schwingungen weichen in ihrer Präsenz jedoch ab, wodurch sich Klarinette und Piano in ihrer Klangcharakteristik voneinander abheben (Abbildung 1). Diese Nuancen ermöglichen die Unterscheidung der Instrumentenart und werden im Instrumentenbau durch die Form und Bauart eines Instruments, wie des Resonanzkörpers, oder durch spezielle Holzarten bestimmt. Ähnlich verhält es sich im übertragenen Sinne mit dem menschlichen Artikulationstrakt und den dortigen anatomischen Verhältnissen. Psychoakustische Experimente zeigen, dass die menschliche Tonhöhen-Wahrnehmung zu einem gewissen Grad anhand der Zusammensetzung der harmonischen Schwingungen möglich ist, obwohl die jeweilige Grundfrequenz maskiert wurde. Die Präsenz der Grundfrequenz unterstützt eine erfolgreiche Differenzierung der Tonhöhe jedoch erheblich (Plack 2009, S. 143). Vereinfacht ausgedrückt, ermöglicht die Grundfrequenz die Bestimmung der Tonhöhe, während die Zusammensetzung der harmonischen Schwingungen die Klangcharakteristik bestimmt.


Informationen der Grundfrequenz zur Sprecherunterscheidung

Komplexe Signale treten in unserem täglichen Leben nicht nur häufig, sondern meist zeitgleich aus unterschiedlichen Quellen auf. Denkt man an den letzten Restaurantbesuch, so wird klar, dass man sich in einer Hörumgebung befand, in der beispielsweise eine Sprecherin verstanden werden soll, obwohl sich zeitgleich mehrere Sprecher wie auch konkurrierende Geräusche im Raum befinden. Die Bildung einer auditorischen Szene mithilfe akustischer Parameter unterstützt das menschliche Gehirn in der Zuordnung von gleichzeitig auftretenden Schallereignissen. Diese individuellen Schallereignisse können in jeweils einzelne sogenannte Informationsströme aufgeteilt und unter anderem für die Unterscheidung zwischen mehreren Sprechern genutzt werden (Bregman, 1990). Eine unterschiedliche Grundfrequenz, wie bei weiblichen Sprecherinnen im Vergleich zu männlichen Sprechern, fördert die Bildung von getrennten Informationsströmen, die nachstehenden auditiven Prozessen zur Sprecherunterscheidung zur Verfügung stehen (Brokx & Nooteboom, 1982, Summers & Leek, 1998). Zusätzlich unterstützt die Modulation der Grundfrequenz die Gruppierung in einzelne Informationsströme (Chowing 1980, zitiert in Bregman 1990, S. 252). Culling & Darwin (1993) berichten außerdem, dass die Unterscheidungen der Grundfrequenz und die damit verknüpften unterschiedlichen harmonischen Schwingungen zur Separierung von Vokalen beitragen. Diese Fähigkeit ist relevant, um einzelne Sprecher aus konkurrierenden Sprachsignalen herauszuhören und diese sozusagen zu verfolgen. Die Voraussetzung für diese Umsetzung ist eine angemessene neuronale Codierung der Grundfrequenz des Signals im menschlichen Subkortex und Kortex. Schließlich muss das Gehirn die Eingangsinformationen entsprechend strukturieren, um ihnen eine Bedeutung zuzuordnen.


Die neuronale Codierung der Grundfrequenz

Die neuronale Antwort des Gehirns auf einen akustischen Reiz kann mittels nicht invasiver Elektroenzephalografie (EEG) abgeleitet werden. Hierzu werden Elektroden am Kopf der Probanden platziert, um eine Veränderung des Spannungspotenzials auf der Hörbahn zu registrieren. So erlaubt die EEG-Messung die Aufzeichnung der Aktionspotenziale auditiver Neuronenpopulationen (Abbildung 2). Entstehende Aktionspotenziale sind durch Phase-Locking in ihrer Phase synchron und werden über den Hörnerv in den Subkortex und schließlich in den Kortex weitergeleitet. Dort dienen die Informationen der neuronalen Codierung zur höhergradigen Verarbeitung des auditiven Signals. Die auf diese Weise abgeleiteten EEGAntworten werden im Allgemeinen als Frequency Following Responses (FFR) bezeichnet. Dabei sind die FFRWellenberge synchron zur Grundfrequenz und den Harmonien des dargebotenen Signals (siehe als Übersicht Skoe & Kraus, 2010). Spricht man von einer Envelope Frequency Response (EFR) (Aiken & Picton, 2008), wird die zeitliche Einhüllende des Signals durch die neuronale Codierung abgeleitet. Durch einen Vergleich zwischen Originalsignal und dessen neuronaler Codierung können Aussagen über die Güte der Bewahrung dieser Merkmale getätigt werden. Von Interesse sind Attribute wie die Grundfrequenz und deren harmonische Schwingung, die Phase wie auch zeitliche und strukturelle Veränderungen im Vergleich zum Stimulus. Diese Erkenntnisse ermöglichen Schlussfolgerungen über Fähigkeiten wie den Erhalt der Sprachverständlichkeit im Störgeräusch. So beschreiben Studien des letzten Jahrzehnts folgende Zusammenhänge zwischen den Fähigkeiten der auditiven Wahrnehmung und den jeweiligen neuronalen Antworten:

  • Die Einhüllende der Grundfrequenz wird mit einer besseren Sprechererkennung (Oxenham, 2012) und Tonhöhenwahrnehmung (Baumann & Belin, 2010) in Verbindung gebracht.
  • Bei Normalhörenden dient die neurale Codierung der Grundfrequenz als guter Indikator für die Vorhersage der Sprachverständlichkeit im Störgeräusch (Song et al., 2011). Zugleich reflektiert sie die Fähigkeit, unterschiedliche Tonhöhen voneinander zu unterscheiden (Coffey et al., 2016).
  • Die Bewahrung von Informationen aus der Signaleinhüllenden steht mit einer robusten Sprachverständlichkeit in Ruhe und Störgeräusch in Verbindung (Swaminathan & Heinz, 2012).
Schematische Darstellung der EEG-Ableitung

Abbildung 2: Schematische Darstellung der EEG-Ableitung (blaue Linie) als kortikale Antwort auf das über einen Lautsprecher präsentierte Sprachsignal der Silbe /da/. Elektroden (Orange) werden dabei am Mastoid, dem Vertex sowie der oberen Stirn platziert.

Die Grundfrequenz sowie die Signaleinhüllende werden als wichtige Elemente für die Sprecherunterscheidung und Sprachverständlichkeit im Störgeräusch erachtet. Deren Erhalt auf neuronaler Ebene erleichtert nach Bregman (1990) die Aufteilung und Unterscheidung einzelner Informationsströme innerhalb einer Hörumgebung. Wie robust eine solche Codierung eines akustischen Signals erfolgt, kann auch beeinflusst werden. So üben unterschiedlichste Faktoren einen negativen, andere hingegen einen positiven Einfluss auf die Güte der kognitiven Verarbeitung aus. Folgende Faktoren sind beispielhaft für ihre negative Auswirkung auf die Codierungsfähigkeit. Mehrere Studien haben einen Zusammenhang zwischen dem Alter und einem Rückgang der FFR für Sinustöne und der Grundfrequenz bei Vokalen ergeben. Dies konnte bei älteren Probanden auch ohne eine im Audiogramm feststellbare Minderung der Hörleistung dokumentiert werden. Als Ursache wird ein Rückgang der neuronalen Synchronität durch die Degeneration auditiver Nervenfasern vermutet (Übersicht siehe: Märcher-Rørsted et al., 2022). Im Störgeräusch miteinander konkurrierende Signale resultieren ebenfalls in einer verzögerten sowie verkleinerten neuronalen Antwort der FFR (Anderson et al., 2010; Wilson & Krishnan, 2005). Song et al. (2014) dokumentierten, dass die neuronale Repräsentation der Grundfrequenz eine gute Voraussage für die Sprachverständlichkeit in störgeräuschbehafteten Situationen liefert. Probanden mit robustem Sprachverstehen im Störgeräusch hatten hierbei eine bessere subkortikale Antwort auf die Grundfrequenz der Silbe /da/ als die Vergleichsgruppe, die über ein schlechteres Sprachverstehen im Störgeräusch verfügte. Weiter führen Gehirnerschütterungen zu einer zeitweise verschlechterten Sprachverständlichkeit im Störgeräusch (Thompson et al., 2018). Zurückzuführen ist dies auf die Beeinträchtigung des neurosensorischen Systems und deren negative Auswirkung auf die Codierungsfähigkeit der Grundfrequenz (Kraus et al., 2017). Die Forschungsgruppe um Kraus betrachtet die FFR-Aufzeichnung der Antwort auf die Grundfrequenz als einen wichtigen Baustein für die Identifikation von Gehirnerschütterungen sowie deren Auswirkungen auf das auditive System (Kraus & White-Schwoch, 2020a). Doch es gibt auch positive Zusammenhänge. So kann die neuronale Codierung durch folgende Faktoren vorteilhaft beeinflusst werden: Das Erlernen einer zweiten Sprache verstärkt die neuronale Repräsentation der Grundfrequenz für Sprachsignale (Krizman et al., 2012). Interessanterweise haben zweisprachige Probanden, verglichen mit der einsprachigen Kontrollgruppe, einen Vorteil beim Heraushören von Tönen im Störgeräusch. Dieses Verhalten kehrt sich jedoch um, sobald das Zielsignal im Störgeräusch an linguistischer Komplexität zunimmt. Dies ist der Fall beim Satzverstehen im Störgeräusch. Als Grund für das Paradoxon wird vermutet, dass ein Schalleindruck einer Sprache die “Aktivierung” der jeweils anderen Sprache nach sich ziehen könnte. Der Fokus läge dann auf der phonetischen Zusammensetzung der irrtümlich detektierten Sprache, während der eigentliche Satz in der jeweils anderen Sprache weitergesprochen wird (Kraus & White-Schwoch, 2017). Omote und Kollegen (2017) verknüpfen die Stärke der neuronalen Antwort auf die Grundfrequenz mit dem Vermögen, eine Sprache zu erlernen. Hierbei kann auch das Erlernen eines Musikinstruments unterstützende Wirkungen entfalten. So berichten Kraus & White-Schwoch (2020b), dass englischsprachige Musiker akustische Details der Sprache Mandarin zu einem feineren Grad entschlüsseln konnten, als dies Nicht-Musikern möglich war. Weiter fiel es Menschen, die ein Instrument spielten, leichter, Sprache im Störgeräusch zu verstehen. Dies kann auf die bessere Bewahrung von Informationen der Tonhöhe einer Stimme, wie der Grundfrequenz inklusive Zusammensetzung der harmonischen Schwingungen, und zeitliche Veränderungen der Stimme zurückzuführen sein (Kraus & Chandrasekaran, 2010). Die Erkenntnisse über die Codierungsfähigkeit der Grundfrequenz sind auch für die Entwicklung neuer Signalverarbeitungsalgorithmen von großer Bedeutung. Durch eine klare und somit transparente Abbildung der Klangqualität eines Hörsystems würden dem Gehirn wichtige Informationen zur Verfügung gestellt. Wie bereits erwähnt, könnte dies die Bildung akustischer Szenen begünstigen, die Auswirkungen auf die Sprecherunterscheidung in komplexen Hörsituationen haben.


Der Einfluss der Hörsystem-Signalverarbeitung

Damit dem menschlichen Gehirn ein möglichst detailreiches Signal zur Verfügung gestellt wird, setzt Widex über die eigene Signalverarbeitung auf den Erhalt der Klangqualität. Zum Schutz des natürlichen Charakters muss der Klang so nah wie möglich dem Original entsprechen. Dabei dürfen keine wichtigen Schallinformationen unterschlagen oder zusätzliche Elemente wie Klangartefakte dem Signal hinzugefügt werden. Bereits bei der Schallwandlung in ein digitales Signal setzt Widex auf eine lineare Übertragung der Dynamik von 5 bis 113 dB SPL. Sehr leise Schallereignisse bis hin zu sehr lauten können so aus der gesamten Hörumgebung verarbeitet werden, ohne dass die Digitalisierung dem Signal bereits Verzerrungselemente durch eine Kompression an der Eingangsstufe hinzufügt. Auch die Entwicklung des dualen Kompressionssystems und der Filterbank ist auf physiologische Eigenschaften, wie die zeitliche und die Frequenzselektivität des menschlichen Innenohrs, abgestimmt (Balling et al., 2022; erschienen in Hörakustik Ausgabe 04/2022). Abweichend von den meisten herkömmlichen Hörsystemen, die über Verarbeitungsdauern von 5–8 ms verfügen, setzt Widex auf den Einsatz einer Zeitbereichsfilterbank. Diese etabliert eine viel geringere Verzögerung von durchschnittlich 2,5 ms und legt den wichtigen technologischen Grundstein für eine noch schnellere Signalverarbeitung durch die PureSound- Technologie. Hierbei wird dank der Filterbankstruktur die Durchlaufzeit im Hörsystem weiter auf unter 0,5 ms reduziert.

Abbildung der Durchlaufzeiten in Abhängigkeit der Frequenz

Abbildung 3: Abbildung der Durchlaufzeiten in Abhängigkeit der Frequenz für fünf Top-Hörsysteme (links). Das Resultat langsamer Durchlaufzeiten > 1 ms ist der Kammfiltereffekt (rechts). Siehe Slugocki et al. (2020) für mehr Informationen.

Liegt die Hörminderung innerhalb des PureSound-Anpassbereichs, ermöglicht diese ultraschnelle Durchlaufzeit ein am Trommelfell nahezu zeitgleiches Eintreffen von verstärktem und Direktschall. Also relevant bei offenen Versorgungen bzw. Versorgungen mit entsprechender Belüftungsöffnung. Das annähernd zeitgleiche Eintreffen beider Schallereignisse eliminiert die Produktion von Klangartefakten bereits am Trommelfell. Im Vergleich zu herkömmlichen Signalverarbeitungen äußert sich die PureSound-Technologie in einer transparenteren und somit natürlicheren Klangqualität. So berichten Balling et al. (2020) von einer generell bevorzugten Klangqualität in unterschiedlichen Hörumgebungen, einschließlich einer präferierten Wahrnehmung der eigenen Stimme.
Durchschnittliche Präferenzen für sieben Klangkategorien

Abbildung 4: Durchschnittliche Präferenzen für sieben unterschiedliche Klangkategorien. Widex PureSound wurde im Durchschnitt in allen Kategorien bevorzugt. Starke Präferenz für die Standard-Durchlaufzeit (–3) bis hin zu starker Präferenz für die PureSound-Signalverarbeitung (+3) (Darstellung aus Balling et al., 2020).

Neuronale Codierung bei beschleunigter Verarbeitungszeit

Eine Schallverarbeitung von unter 0,5 ms äußert sich nicht nur in einer empfundenen Verbesserung der Klangqualität. Sie hat auch positive Auswirkungen auf die neuronale Repräsentation von Sprachsignalen, wie am Beispiel der Silbe /da/ aufgezeigt wurde. Slugocki et al. (2020) fanden für die durch PureSound beschleunigte Signalverarbeitung eine signifikant bessere Bewahrung der neuronalen Antwort auf die Grundfrequenz der Signaleinhüllenden. Verglichen wurden die jeweiligen neuronalen Antworten der Envelope Frequency Response mit den Ergebnissen zweier High-End-Hörsysteme. Diese verfügten über Durchlaufzeiten von 6 ms bzw. 8 ms. Das Team um Slugocki vermutet weiter einen Zusammenhang zwischen der robusteren neuronalen Repräsentation und der von Balling und Kollegen (2020) beschriebenen Bevorzugung der PureSound- Klangqualität. Die Ergebnisse bereits oben angeführter Studien unterstreichen die Wichtigkeit einer robusten neuronalen Repräsentation der Signaleinhüllenden, da diese besonders in komplexen Hörsituationen mit der Sprecherunterscheidung in Zusammenhang gebracht werden.

Neuronale Ableitung der Signalhüllenden

Abbildung 5: (Links) Neuronale Ableitung der Signaleinhüllenden (EFR) für drei High-End-Hörsysteme, als Antwort auf das Signal einer / da/-Silbe. Das oberste Feld zeigt die /da/-Silbe (schwarze Linie) und ihre Einhüllende (rote Linie). Die unteren Felder zeigen die EFRs der einzelnen Probanden (graue Linien), sowie den jeweiligen Durchschnitt der getesteten Hörsysteme (farbige Linien).

(Rechts) Das obere Feld bildet die Amplitudenspektren aus der EFR für die drei gemessenen Hörsysteme ab. Die Grundfrequenz (F0) der neuronalen Antwort liegt bei 100 Hz und entspricht der Grundfrequenz für die Silbe /da/. Wie im unteren Feld abzulesen, bewahrt die Signalverarbeitung durch Widex PureSound die Grundfrequenz auf neuronaler Ebene signifikant besser als beide Vergleichssysteme (*p < 0,05). Fehlerbalken repräsentieren die 95%-Konfidenzintervalle der Mittelwerte.

Hinzu kommt, dass die durch Bregman (1990) beschriebene Bildung von Informationsströmen leichter fällt, sofern die zur Verfügung stehenden Grundfrequenzen der Sprechenden klar neuronal codiert werden können. Verzerrungen, die bereits durch die Signalverarbeitung des Hörsystems entstehen, würden sich dementsprechend negativ auf höhere auditive Verarbeitungsprozesse auswirken und sollten vermieden werden. Es ist noch nicht genau bekannt, wie sich dieser Effekt langfristig auswirkt. Allerdings wird vermutet, dass wenn wichtige Informationen der Signaleinhüllenden und deren Grundfrequenz durch Artefakte abgeschwächt werden, es zu einem gesteigerten Bedarf an kognitiven Ressourcen und erhöhter Höranstrengung kommen könnte (Pichora-Fuller et al., 2016). Auf Dauer kann so der jeweilige Bedarf individuelle Leistungsfähigkeiten überschreiten. Eine Minderung der Lebensqualität durch anhaltenden Stress, sozialen Entzug oder Ermüdung ist eine zu erwartende Folge (Pichora-Fuller et al., 2015). Die Plastizität des Widex Hörgeräte Gehirns erlaubt Hinweise darauf, dass eine geminderte neuronale Codierung der Einhüllenden auf Ebene des Mittel- oder Stammhirns wiederhergestellt werden kann. Dies geschieht in Ruhe, jedoch löst sich diese Fähigkeit in komplexen Hörsituationen und bei niedrigem Informationsgrad der Einhüllenden auf (siehe als Übersicht: Parthasarathy et al., 2019). Sollten sich diese Hinweise bestätigen, ist es für die Entwicklung von Signalverarbeitungen in Hörsystemen von Relevanz, die neuronale Codierung im Gehirn zu unterstützen. Dies kann beispielsweise durch eine große lineare Eingangsdynamik der Digitalisierung, die Verwendung langsamer Kompressionsgeschwindigkeiten und, wie von Slugocki et al. (2020) angeführt, durch eine ultraschnelle Signalverarbeitung von unter 0,5 ms erfolgen. Diese wichtigen Elemente finden sich in der Schallverarbeitung von Widex Moment-Hörsystemen zur Bewahrung der natürlichen Klangqualität wieder.


Zusammenfassung

Die Grundfrequenz und deren Erhalt auf akustischer sowie auf neuronaler Ebene liefern robuste Informationen zur Unterscheidung einzelner Schallereignisse. So trägt dieser Unterscheidungsprozess zum Heraushören und Verfolgen einzelner Stimmen bei konkurrierenden Signalen im Störgeräusch bei. Widex verfolgt das Ziel, die Klangqualität und somit die in der Signaleinhüllenden enthaltenen Eigenschaften wie die Grundfrequenz bestmöglich zu bewahren. Dies wird beispielhaft in der Digitalisierung und der Etablierung einer ultraschnellen Signalverarbeitung durch PureSound ermöglicht. Studienergebnisse von Slugocki et al. (2020) zeigten eine signifikant bessere Bewahrung der Grundfrequenz über die neuronale Codierung, wenn die Verzögerung im Hörsystem bei weniger als 0,5 ms lag.

Autor:

Simon Müller ist seit 2017 audiologisch-wissenschaftlicher Leiter bei der Widex Hörgeräte GmbH in Stuttgart. Nach einem Bachelor in Augenoptik und Hörakustik an der Hochschule Aalen im Jahr 2011 erlangte er 2012 den Master of Science in Audiology an der University of Manchester. Praktische Erfahrung sammelte er als Betriebsleiter eines Hörakustikfachgeschäfts und als audiologischer Leiter an der Rheinisch-Westfälischen Technischen Hochschule (RWTH) Aachen.

Quellen:

Aiken S J, Picton T W. (2008). Envelope and spectral frequency-following responses to vowel sounds. Hear. Res. 2008; 245 (1–2): 35–47.

Anderson S, Chandrasekaran B, Skoe E, Kraus N. (2010). Neural timing is linked to speech perception in noise. Journal of Neuroscience. 2010; 30: 4922–4926.

Balling L W, Townend O, Stiefenhofer G, Switalski W. (2020). Reducing hearing aid delay for optimal sound quality: a new paradigm in processing. Hearing Review. 2020; 27 (4): 20–26.

Balling L W, Mosgaard L D, Helmink D. (2022). Signal processing and sound quality. Hearing Review. 2022; 29 (2): 20–23.

Baumann O, Belin P. (2010). Perceptual scaling of voice identity: Common dimensions for different vowels and speakers. Psychol Res. 2010; 74 (110).

Bregman A S. (1990). Auditory scene analysis. Cambridge, MA: MIT Press; 1990

Brokx J P L & Nooteboom S G. (1982). Intonation and the perceptual separation of simultaneous voices. J. Phonetics, 10, 23–36.

Chowning J M. (1980). Computer synthesis of the singing voice. In: Sundberg J (Ed.). Sound generation in wind, strings, computers (4–13). Stockholm: Royal Swedish Academy of Music.

Coffey E B J, Colagrosso E M G, Lehmann A, Schöwnwiesner M, Zatorre R J. (2016). Individual differences in the frequency-following response: Relation to pitch perception. PLoS ONE. 2016: 1–27.

Culling J F & Darwin C J. (1993). Perceptual separation of simultaneous vowels: Within and across formant grouping by F0. J. Acoust. Soc. Am. 93, 3454–3467.

Kraus N, Chandrasekaran B. (2010). Music training for the development of auditory skills. Nature Reviews Neuroscience, 2010; 11; 599–605.

Kraus N, Lindley T, Colegrove D, Krizman J L, Otto-Meyer S, Thompson E C, White-Schwoch T. (2017). The neural legacy of a single concussion. Neuroscience Letters, 646, 21–23.

Kraus N, White-Schwoch T. (2017). The bilingualism paradox. Hearing Journal. 70 (1): 40–42.

Kraus N, White-Schwoch T. (2020a). Concussion management: The role for audiology. Hearing Journal. 72 (4): 44–45.

Kraus N, White-Schwoch T. (2020b). The argument for music education. American Scientist. 2020; 7–8; 210–213.

Krizman J, Marian V, Shook A, Skoe E, Kraus N. (2012). Subcortical encoding of sound is enhanced in bilinguals and relates to executive function advantages. Proceedings of the National Academy of Sciences. 109 (20): 7877–7881.

Märcher-Rørsted J, Encina-Llamas G, Dau T, Liberman M C, Wu P & Hjortkjær J. (2022). Age-related reduction in frequency-following responses as a potential marker of cochlear neural degeneration. Hearing Research, 414, 2022, 108411.

Omote A, Jasmin K, Tierney A. (2017). Successful non-native speech perception is linked to frequency following response phase consistency. Cortex; 93; 2017; 147–154.

Oxenham A J. (2012). Pitch perception. J Neurosci. 2012; 32 (39): 13335–13338.

Parthasarathy A, Bartlett E L, Kujawa S G. (2019). Age-related changes in neural coding of envelope cues: Peripheral declines and central compensation. Neurosci. 2019; 407 (21): 21–31.

Pichora-Fuller M, Mick P T, Reed M. (2015). Hearing, cognition, and healthy aging: Social and public health implications of the links between age-related declines in hearing and cognition. Semin Hear. 2015; 36 (3): 122–139.

Pichora-Fuller M K, Kramer S E, Eckert M A et al. (2016). Hearing impairment and cognitive energy: The framework for understanding effortful listening (FUEL). Ear Hear. 2016; 37: 5S–27S.

Plack C J. (2009). The Sense of Hearing. Psychology Press, New York; 2009.

Skoe E, Kraus N. (2010). Auditory brainstem response to complex sounds: A tutorial. Ear Hear. 2010; 31 (3): 302–324.

Slugocki C, Kuk F, Korhonen P, Ruperto N. (2020). Neural Encoding of the stimulus envelope facilitated by Widex ZeroDelay technology. Hearing Review. 2020; 27 (8): 28–31.

Song J H, Skoe E, Banai K, Kraus N. (2011). Perception of speech in noise: Neural correlates. J Cogn Neurosci. 2011; 23 (9): 2268–2279.

Summers V, Leek M R. (1998). F0 processing and the separation of competing speech signals by listeners with normal hearing and with hearing loss. J Speech Lang Hear Res. 1998; 41 (6): 1294 1306.

Swaminathan J, Heinz M G. (2012). Psychophysiological analyses demonstrate the importance of neural envelope coding for speech perception in noise. J Neurosci. 2012; 32 (5): 1747–1756.

Thompson E C, Krizman J, White-Schwoch T, Nicol T, LaBella C & Kraus N. (2018). Difficulty hearing in noise: a sequela of concussion in children. Brain Injury; 32, 6, 2018; 763–769.

Wilson J R, Krishnan A. (2005). Human frequency-following responses to binaural masking level difference stimuli. Journal of the American Academy of Audiology. 2005; 16: 184–195.

AKTUELLE FACHARTIKEL ZUR FORSCHUNG VON WIDEX

Finden Sie weitere aktuelle Fachartikel zu den Widex-Technologien in unserer Übersicht.

zu den Fachartikeln
Zum Anfang gehen