Phonetik

Phonetik ist ein Zweig von Linguistik Das untersucht, wie Menschen Geräusche produzieren und wahrnehmen, oder im Fall von Zeichensprache, die äquivalenten Aspekte des Zeichens.[1] Phonetiker - Linguisten, die sich auf die Phonetik spezialisiert haben, die physikalischen Eigenschaften der Sprache. Das Gebiet der Phonetik wird traditionell in drei Unterdisziplinen unterteilt, die auf den Forschungsfragen basieren, wie z. B. wie Menschen Bewegungen planen und ausführen, um Sprache zu produzieren (Artikulatorische Phonetik), wie verschiedene Bewegungen die Eigenschaften des resultierenden Klangs beeinflussen (Akustische Phonetik) oder wie Menschen Schallwellen in sprachliche Informationen umwandeln (umwandeln (Hörphonetik). Traditionell ist die minimale sprachliche Einheit der Phonetik die Telefon- Ein Sprachgeräusch in einer Sprache, die sich von der phonologischen Einheit von unterscheidet Phonem; Das Phonem ist eine abstrakte Kategorisierung von Telefonen.

Die Phonetik befasst sich mit zwei Aspekten der menschlichen Sprache: Produktion - die Art und Weise, wie Menschen Geräusche machen - und Wahrnehmung -, wie Sprache verstanden wird. Das Kommunikationsmodalität einer Sprache beschreibt die Methode, mit der eine Sprache Sprachen erzeugt und wahrnimmt. Sprachen mit oralischen Modalitäten wie englischer Sprache produzieren oral (mit dem Mund) und wahrnehmen die Sprache aural (unter Verwendung der Ohren). Gebärdensprachen wie australische Gebärdensprache (Auslan) und amerikanische Gebärdensprache (ASL), haben Sie eine manuell visuelle Modalität, produzieren Sie manuell Sprache (mit den Händen) und spreche visuell (mit den Augen). ASL und einige andere Gebührensprachen haben zusätzlich einen manuellen Manual-Dialekt für die Verwendung in taktile Unterschrift durch taub und blind Sprecher, bei denen Schilder mit den Händen hergestellt und auch mit den Händen wahrgenommen werden.

Die Sprachproduktion besteht aus mehreren voneinander abhängigen Prozessen, die eine nichtsprachige Botschaft in ein gesprochenes oder signiertes sprachliches Signal verwandeln. Nachdem eine Nachricht identifiziert wurde, die sprachlich codiert werden soll, muss ein Sprecher die einzelnen Wörter auswählen - bekannt als lexikalische Gegenstände- Um diese Nachricht in einem Prozess als lexikalische Auswahl darzustellen. Während der phonologischen Codierung wird der mentalen Darstellung der Wörter ihr phonologischer Inhalt als Abfolge von zugewiesen Phoneme produziert werden. Die Phoneme sind für artikulatorische Merkmale spezifiziert, die bestimmte Ziele wie geschlossene Lippen oder die Zunge an einem bestimmten Ort bezeichnen. Diese Phoneme werden dann in eine Abfolge von Muskelbefehlen koordiniert, die an die Muskeln gesendet werden können, und wenn diese Befehle richtig ausgeführt werden, werden die beabsichtigten Geräusche erzeugt.

Diese Bewegungen stören und modifizieren einen Airstream, der zu einer Schallwelle führt. Die Modifikation erfolgt von den Artikulatoren mit unterschiedlichen Orten und Artikulation, die unterschiedliche akustische Ergebnisse erzielen. Zum Beispiel die Wörter Heftzwecke und Sack Beide beginnen mit Alveolargeräuschen in Englisch, unterscheiden sich jedoch darin, wie weit die Zunge vom Alveolarkamm liegt. Dieser Unterschied hat große Auswirkungen auf den Luftstrom und damit der Schall, der erzeugt wird. In ähnlicher Weise können die Richtung und Quelle des Airstreams den Schall beeinflussen. Der häufigste Luftstrommechanismus ist pulmonisch - die Lunge -, aber die Glottis und die Zunge können auch zur Herstellung von Luftströmen verwendet werden.

Die Sprachwahrnehmung ist der Prozess, durch den ein Sprachsignal von einem Zuhörer dekodiert und verstanden wird. Um die Sprache wahrzunehmen, muss das kontinuierliche akustische Signal in diskrete sprachliche Einheiten wie z. Phoneme, Morpheme, und Wörter. Um Sounds korrekt zu identifizieren und zu kategorisieren, priorisieren die Hörer bestimmte Aspekte des Signals, die zwischen sprachlichen Kategorien zuverlässig unterscheiden können. Während bestimmte Hinweise gegenüber anderen priorisiert werden, können viele Aspekte des Signals zur Wahrnehmung beitragen. Zum Beispiel, obwohl orale Sprachen akustische Informationen priorisieren, die McGurk -Effekt zeigt, dass visuelle Informationen verwendet werden, um mehrdeutige Informationen zu unterscheiden, wenn die akustischen Hinweise unzuverlässig sind.

Die moderne Phonetik hat drei Zweige:

  • Artikulatorische Phonetik, was sich mit den Artikulatoren befasst, wie Geräusche gemacht werden, mit den Artikulatoren,
  • Akustische Phonetik, was sich mit den akustischen Ergebnissen verschiedener Artikulationen befasst, und
  • Hörphonetik, die sich mit der Art und Weise befasst, wie die Zuhörer sprachliche Signale wahrnehmen und verstehen.

Geschichte

Antike

Die ersten bekannten phonetischen Studien wurden bereits im 6. Jahrhundert v. Chr. Von durchgeführt Sanskrit Grammatiker.[2] Der hinduistische Gelehrte Pāṇini gehört zu den bekanntesten dieser frühen Ermittler, deren vierteilige Grammatik um 350 v. Chr. Einflussreich in der modernen Sprachwissenschaft ist und immer noch "die vollständigste generative Grammatik jeder bis noch geschriebenen Sprache" darstellt.[3] Seine Grammatik bildete die Grundlage der modernen Sprachwissenschaft und beschrieb mehrere wichtige phonetische Prinzipien, einschließlich der Aussage. In diesem frühen Bericht wurde die Resonanz beschrieben, die entweder durch Ton erzeugt wird, wenn Stimmfalten geschlossen sind, oder Rauschen, wenn die Stimmfalten geöffnet sind. Die phonetischen Prinzipien in der Grammatik gelten insofern als "Primitive", als sie die Grundlage für seine theoretische Analyse sind und nicht die Objekte der theoretischen Analyse selbst, und die Prinzipien können aus seinem Phonologiesystem abgeleitet werden.[4]

Die Sanskrit -Studie der Phonetik heißt Shiksha. Das Taittiriya_upanishad, datiert auf 1 Jahrtausend v. Chr. Definiert Shiksha wie folgt -

OM! Wir werden die Shiksha erklären.
Geräusche und Akzentuierung, Menge (der Vokale) und der Ausdruck (von Konsonanten).
Balancing (Saman) und Verbindung (von Geräuschen), so viel über das Studium von Shiksha. || 1 |

Taittiriya Upanishad 1.2, Shikshavalli, übersetzt von Paul Deussen[5].

Modern

Fortschritte in der Phonetik nach Pāṇini und seinen Zeitgenossen waren bis in die Neuzeit begrenzt und retten einige begrenzte Untersuchungen der griechischen und römischen Grammatiker. In den Jahrtausenden zwischen indischen Grammatikern und modernen Phonetik verlagerte sich der Fokus von dem Unterschied zwischen gesprochener und schriftlicher Sprache, der die treibende Kraft hinter Pāṇinis Bericht war und sich allein auf die physikalischen Eigenschaften der Sprache konzentrierte. Das anhaltende Interesse an der Phonetik begann um 1800 n. Chr. Mit dem Begriff "Phonetik" wurde erstmals 1841 im vorliegenden Sinne verwendet.[6][2] Mit neuen Entwicklungen in der Medizin und der Entwicklung von Audio- und visuellen Aufzeichnungsgeräten konnten phonetische Erkenntnisse neue und detailliertere Daten verwenden und überprüfen. Diese frühe Zeit der modernen Phonetik beinhaltete die Entwicklung eines einflussreichen phonetischen Alphabets, das auf artikulierenden Positionen basierte Alexander Melville Bell. Bekannt als sichtbare RedeEs wurde als Werkzeug in der Bedeutung gewonnen orale Bildung gehörloser Kinder.[2]

Vor der weit verbreiteten Verfügbarkeit von Audioaufzeichnungsgeräten stützten sich die Phonetiker stark auf eine Tradition der praktischen Phonetik, um sicherzustellen, dass Transkriptionen und Ergebnisse über Phonetiker hinweg konsistent sein konnten. Dieses Training beinhaltete sowohl das Ohrtraining - die Erkennung von Sprachgeräuschen - als auch das Produktionstraining - die Fähigkeit, Geräusche zu produzieren. Es wurde erwartet Internationales Phonetisches Alphabet Und das IPA testet und zertifiziert weiterhin Lautsprecher über ihre Fähigkeit, die phonetischen Muster von Englisch genau zu erzeugen (obwohl sie diese Praxis für andere Sprachen eingestellt haben).[7] Als Überarbeitung seiner sichtbaren Sprachmethode entwickelte Melville Bell eine Beschreibung der Vokale nach Größe und Rückenheit, was zu 9 führte Kardinalvokale.[8] Im Rahmen ihrer Ausbildung in praktischer Phonetik wurde erwartet, dass die Phonetiker diese Kardinalvokale produzieren, um ihre Wahrnehmung und Transkription dieser Telefone während der Feldarbeit zu verankern.[7] Dieser Ansatz wurde durch kritisiert Peter Ladefoged In den 1960er Jahren basierend auf experimentellen Beweisen, bei denen er feststellte, dass Kardinalvokale eher auditorische als artikulatorische Ziele waren, forderten sie die Behauptung in Frage, dass sie artikulierende Verankerungen darstellten, nach denen Phonetiker andere Artikulationen beurteilen konnten.[9]

Produktion

Die Sprachproduktion besteht aus mehreren voneinander abhängigen Prozessen, die eine nichtlinguistische Botschaft in ein gesprochenes oder signiertes sprachliches Signal verwandeln. Linguisten diskutieren, ob der Prozess der Sprachproduktion in einer Reihe von Stufen (serielle Verarbeitung) auftritt oder ob produzierende Prozesse parallel auftreten. Nachdem eine Nachricht identifiziert wurde, die sprachlich codiert werden soll, muss ein Sprecher die einzelnen Wörter auswählen - bekannt als lexikalische Gegenstände- Um diese Nachricht in einem Prozess als lexikalische Auswahl darzustellen. Die Wörter werden basierend auf ihrer Bedeutung ausgewählt, was in der Linguistik genannt wird semantisch Information. Die lexikalische Auswahl aktiviert die Words Lemma, die sowohl semantische als auch grammatikalische Informationen über das Wort enthält.[10][a]

Nach einer Äußerung ist geplant,[b] Es geht dann durch phonologische Codierung. In dieser Phase der Sprachproduktion wird der mentalen Darstellung der Wörter ihren phonologischen Inhalt als Abfolge von zugewiesen Phoneme produziert werden. Die Phoneme sind für artikulatorische Merkmale spezifiziert, die bestimmte Ziele wie geschlossene Lippen oder die Zunge an einem bestimmten Ort bezeichnen. Diese Phoneme werden dann in eine Abfolge von Muskelbefehlen koordiniert, die an die Muskeln gesendet werden können, und wenn diese Befehle richtig ausgeführt werden, werden die beabsichtigten Geräusche erzeugt.[12] Somit kann der Produktionsprozess von Nachricht zum Ton als folgende Sequenz zusammengefasst werden:[c]

  • Nachrichtenplanung
  • Lemma -Auswahl
  • Abruf und Zuordnung phonologischer Wortformen
  • Artikulatorische Spezifikation
  • Muskelbefehle
  • Artikulation
  • Sprechgeräusche

Ort der Artikulation

Geräusche, die durch eine vollständige oder teilweise Verengung des Stimmtrakts hergestellt werden, werden genannt Konsonanten. Konsonanten werden im Stimmtrakt, normalerweise im Mund, ausgesprochen, und die Position dieser Verengung beeinflusst den resultierenden Klang. Aufgrund der engen Verbindung zwischen der Position der Zunge und dem daraus resultierenden Klang ist der Ort der Artikulation ein wichtiges Konzept in vielen Subdisziplinen der Phonetik.

Sounds werden teilweise durch den Standort einer Verengung sowie nach dem Teil des Körpers kategorisiert. Zum Beispiel in englischer Sprache die Wörter gekämpft und Gedanke Bereich Minimales Paar Unterscheidet sich nur in der Organ und macht den Bau eher als den Ort des Bauwerks. Die Flosse gekämpft ist eine labiodentale Artikulation mit der Unterlippe gegen die Zähne. Das "Th" in Gedanke ist eine linguodentale Artikulation mit der Zunge gegen die Zähne. Einschränkungen der Lippen werden genannt Labiale Während diejenigen, die mit der Zunge gemacht wurden, als lingual bezeichnet werden.

Einschränkungen mit der Zunge können in mehreren Teilen des Stimmtrakts hergestellt werden, die weitgehend in koronale, dorsale und radikale Artikulationsorte eingeteilt werden. Koronal Artikulationen werden mit der Vorderseite der Zunge gemacht, dorsal Artikulationen werden mit dem Rücken der Zunge gemacht, und Radikale Artikulationen werden in der gemacht Rachen.[13] Diese Spaltungen reichen nicht aus, um alle Sprachgeräusche zu unterscheiden und zu beschreiben.[13] Zum Beispiel in englischer Sprache die Klänge [s] und [ʃ] sind beide koronal, aber sie werden an verschiedenen Mundorten produziert. Um dies zu berücksichtigen, sind detailliertere Artikulationsorte aufgrund des Mundbereichs erforderlich, in dem die Verengung auftritt.[14]

Labial

Artikulationen mit den Lippen können auf drei verschiedene Arten hergestellt werden: mit beiden Lippen (bilabial), mit einer Lippe und den Zähnen (labiodental) sowie mit der Zunge und der Oberlippe (Linguolabial).[15] Abhängig von der verwendeten Definition können einige oder alle dieser Art von Artikulationen in die Klasse von eingeteilt werden Labiale Artikulationen. Bilabiale Konsonanten werden aus beiden Lippen hergestellt. Bei der Herstellung dieser Geräusche bewegt sich die Unterlippe am weitesten, um die Oberlippe zu treffen, die sich ebenfalls leicht nach unten bewegt.[16] In einigen Fällen kann sich die Kraft von Luft, die sich durch die Blende (Öffnen zwischen den Lippen) bewegt, dazu führen, dass sich die Lippen schneller trennen, als sie zusammenkommen können.[17] Im Gegensatz zu den meisten anderen Artikulationen werden beide Artikulatoren aus Weichgewebe hergestellt, sodass bilabiale Stopps mit größerer Wahrscheinlichkeit mit unvollständigen Verschlüssen hergestellt werden als Artikulationen mit harten Oberflächen wie Zähnen oder Gaumen. Bilabiale Stopps sind ebenfalls ungewöhnlich, als sich ein Artikulator im oberen Abschnitt des Stimmtrakts aktiv nach unten bewegt, da die Oberlippe eine aktive Abwärtsbewegung zeigt.[18] Linguolabialkonsonanten werden mit der Klinge der Zunge hergestellt, die sich der Oberlippe nähert oder kontaktiert. Wie in bilabialen Artikulationen bewegt sich die Oberlippe leicht zum aktiveren Artikulator. Artikulationen in dieser Gruppe haben nicht ihre eigenen Symbole im internationalen phonetischen Alphabet, sondern werden gebildet, indem sie ein apikales Symbol mit einem diakritischen kombinieren, das sie implizit in die koronale Kategorie platziert.[19][20] Sie existieren in einer Reihe von Sprachen, zu denen einheimisch ist Vanuatu wie zum Beispiel Tangoa.

Labiodentale Konsonanten werden durch die Unterlippe hergestellt, die zu den oberen Zähnen steigt. Labiodentale Konsonanten sind am häufigsten Frikative während labiodentale Nasen auch typologisch häufig sind.[21] Es gibt eine Debatte darüber, ob echtes Labiodenal Plosive in jeder natürlichen Sprache vorkommen,[22] Obwohl eine Reihe von Sprachen labiodentaler Plosiven einschließlich haben Zulu-,[23] Tonga,[24] und Shubi.[22]

Koronal

Koronale Konsonanten werden mit der Spitze oder Klinge der Zunge hergestellt und stellen aufgrund der Beweglichkeit der Vorderseite der Zunge eine Vielfalt nicht nur in Position, sondern in der Haltung der Zunge dar. Die koronalen Artikulationsorte repräsentieren die Bereiche des Mundes, in denen die Zungenkontakte oder eine Einschränkung herrscht und zahnärztliche, alveoläre und postalveoläre Orte umfasst. Zungenhaltung mit der Zungenspitze kann sein apikal Wenn Sie die Oberseite der Zungenspitze verwenden, Laminal wenn mit der Klinge der Zunge gemacht, oder subapikal Wenn die Zungenspitze zurückgerollt ist und der Boden der Zunge verwendet wird. Koronalen sind als Gruppe einzigartig, in denen jeder Art der Artikulation ist bestätigt.[19][25] Australische Sprachen sind bekannt für die große Anzahl koronaler Kontraste innerhalb und zwischen Sprachen in der Region.[26] Zahnkonsonanten werden mit der Spitze oder Klinge der Zunge und der oberen Zähne hergestellt. Sie sind in zwei Gruppen unterteilt, die auf dem Teil der Zunge basieren, das verwendet wird, um sie zu produzieren: apikale Zahnkonsonanten werden erzeugt, wobei die Zungenspitze die Zähne berührt; Interdental -Konsonanten werden mit der Klinge der Zunge hergestellt, wenn die Zungenspitze vor den Zähnen heraussteckt. Es ist bekannt Allophonisch. Alveolarkonsonanten werden mit der Spitze oder Klinge der Zunge am Alveolarkamm direkt hinter den Zähnen hergestellt und können in ähnlicher Weise apikal oder laminal sein.[27]

Crosslinguistisch sind zahnärztliche Konsonanten und Alveolarkonsonanten häufig zu einer Reihe von Verallgemeinerungen von Crosslinguistischen Mustern. Die verschiedenen Orte der Artikulation werden auch in dem Teil der Zunge kontrastiert, der verwendet wird, um sie zu produzieren. Sprachen haben jedoch selten zwei Konsonanten an derselben Stelle mit einem Kontrast in der Laminalität Taa (ǃxóõ) ist ein Gegenbeispiel zu diesem Muster.[28] Wenn eine Sprache nur einen zahnärztlichen Stopp oder einen Alveolarstopp hat, ist sie normalerweise Laminal Temne und bulgarisch[29] Folgen Sie diesem Muster nicht.[30] Wenn eine Sprache sowohl einen apikalen als auch einen Laminalstopp hat, ist der Laminalstopp eher wie in Isoko, obwohl Dahalo Zeigen Sie das entgegengesetzte Muster, wobei Alveolarstörungen stärker beunruhigt werden.[31]

Retroflex -Konsonanten haben verschiedene Definitionen, je nachdem, ob die Position der Zunge oder die Position auf dem Dach des Mundes bekannt ist. Im Allgemeinen repräsentieren sie eine Gruppe von Artikulationen, in denen die Zungenspitze bis zu einem gewissen Grad nach oben gekräuselt wird. Auf diese Weise können Retroflex-Artikulationen an verschiedenen Stellen auf dem Dach des Mundes auftreten, einschließlich Alveolar-, postalveolarer und palataler Regionen. Wenn die Unterseite der Zungenspitze mit dem Dach des Mundes in Kontakt kommt, ist sie subapikal, wenn auch apikale postalveoläre Geräusche als Retroflex beschrieben werden.[32] Typische Beispiele für subapikale Retroflex-Stopps sind häufig in gefunden Dravidische Sprachenund in einigen Sprachen im Südwesten der Vereinigten Staaten einheimisch Der kontrastive Unterschied zwischen zahnärztlichen und alveolären Stopps ist eine leichte Retroflexion des Alveolarstopps.[33] Akustisch beeinflusst die Retroflexion die höheren Formanten.[33]

Artikulationen, die direkt hinter dem Alveolarkamm stattfinden, bekannt als postalveoläre Konsonanten, wurden auf eine Reihe verschiedener Begriffe verwiesen. Apikale postalveoläre Konsonanten werden oft als Retroflex bezeichnet, während Laminalartikulationen manchmal als Palato-Alveolar bezeichnet werden;[34] In der australischen Literatur werden diese Laminalstopps häufig als „palatal“ bezeichnet, obwohl sie weiter nach vorne hergestellt werden als die gaumliche Region, die typischerweise als palatal beschrieben wird.[26] Aufgrund der individuellen anatomischen Variation kann die genaue Artikulation von Palato-Alveolar-Stopps (und Koronalen im Allgemeinen) in einer Sprachgemeinschaft stark variieren.[35]

Dorsal

Rückenkonsonanten sind die Konsonanten, die eher mit dem Zungenkörper als mit der Spitze oder der Klinge hergestellt wurden, und werden typischerweise am Gaumen, Velum oder Uvula hergestellt. Palatin -Konsonanten werden mit dem Zungenkörper gegen den harten Gaumen auf dem Dach des Mundes hergestellt. Sie stehen häufig im Gegensatz zu Velar- oder Uvularkonsonanten, obwohl es selten ist, dass eine Sprache alle drei gleichzeitig miteinander gegenübersteht Jaqaru als mögliches Beispiel für einen Drei-Wege-Kontrast.[36] Velar -Konsonanten werden mit dem Zungenkörper gegen die hergestellt Velum. Sie sind unglaublich häufiger linguistisch; Fast alle Sprachen haben einen Velar -Stopp. Da sowohl Velare als auch Vokale mit dem Zungenkörper hergestellt werden, sind sie stark betroffen von Koartikulation mit Vokalen und können so weit wie der harte Gaumen oder bis nach der Uvula hergestellt werden. Diese Variationen sind typischerweise parallel zum Vokalraum in die Front-, Zentral- und Rückenvelare unterteilt.[37] Sie können schwer von palatalen Konsonanten phonetisch zu unterscheiden, werden jedoch leicht hinter dem Bereich prototypischer palatinierter Konsonanten hergestellt.[38] Uvulare Konsonanten werden durch den Zungenkörper hergestellt, der sich der Uvula in Verbindung setzen oder nähert. Sie sind selten und treten in geschätzten 19 Prozent der Sprachen auf, und große Regionen Amerikas und Afrikas haben keine Sprachen mit uvulären Konsonanten. In Sprachen mit uvularen Konsonanten werden die Stopps am häufigsten gefolgt Fortsetzung (einschließlich Nasen).[39]

Pharyngeal und Kehlkopf

Konsonanten durch Einschränkungen des Hals sind Pharynxe, und diejenigen, die durch eine Verengung im Kehlkopf hergestellt werden, sind Kehlkopf. Laryngeale werden mit den Stimmfalten hergestellt, da der Kehlkopf zu weit im Hals ist, um mit der Zunge zu erreichen. Pharyngee sind jedoch nahe genug am Mund, dass Teile der Zunge sie erreichen können.

Radikale Konsonanten verwenden entweder die Wurzel der Zunge oder die Epiglottis während der Produktion und werden im Stimmtrakt sehr weit zurück produziert.[40] Pharyngealkonsonanten werden gemacht, indem die Wurzel der Zunge weit genug zurückgezogen wird, um fast die Wand der Wand zu berühren Rachen. Aufgrund von Produktionsschwierigkeiten können nur Reibungen und Annäherungen auf diese Weise produziert werden.[41][42] Epiglottalkonsonanten werden mit der Epiglottis und der Rückwand des Pharynx hergestellt. Epiglottalstopps wurden in aufgezeichnet Dahalo.[42] Aufgrund des Hohlraums zwischen den Glottis und Epiglottis ist zu klein, um das Aussprechen zu ermöglichen.[43]

Glottal -Konsonanten sind diejenigen, die mit den Stimmfalten im Kehlkopf hergestellt werden. Da die Gesangsfalten die Quelle der Phonation und unterhalb des Oro-Nasal-Stimmtrakts sind, sind eine Reihe von Glottalkonsonanten unmöglich, wie z. Drei Glottal -Konsonanten sind möglich, ein stimmloses Glottal -Stopp und zwei Glottal Fricative, und alle sind in natürlichen Sprachen bestätigt.[19] Glottal stoppt, erzeugt durch Schließen der Gesangsfalten, sind in den Sprachen der Welt besonders verbreitet.[43] Während viele Sprachen sie verwenden, um die Phrasengrenzen abzugrenzen, mögen einige Sprachen Arabisch und Huatla Mazatec haben sie als kontrastive Phoneme. Zusätzlich können Glottalstopps als realisiert werden als Laryngealisation des folgenden Vokals in dieser Sprache.[44] Glottalstopps, insbesondere zwischen den Vokalen, bilden normalerweise keinen vollständigen Verschluss. Echte Glottalstopps treten normalerweise nur dann auf, wenn sie es sind Edelstein.[45]

Der Kehlkopf

See caption
Eine Top-Down-Ansicht des Kehlkopfes.

Der Kehlkopf, allgemein bekannt als "Sprachbox", ist eine knorpelige Struktur in der Luftröhre verantwortlich für Phonation. Die Stimmfalten (Akkorde) werden zusammengehalten, damit sie vibrieren oder auseinander gehalten werden, damit sie dies nicht tun. Die Positionen der Stimmfalten werden durch Bewegung der erreicht Arytenoid -Knorpel.[46] Das Intrinsische Kehlkopfmuskulatur sind verantwortlich für die Verschiebung der arytenoiden Knorpel sowie für die Modulation der Spannung der Stimmfalten.[47] Wenn die Stimmfalten nicht eng oder angespannt genug sind, vibrieren sie entweder sporadisch oder gar nicht. Wenn sie sporadisch vibrieren, führt dies je nach Grad zu knarrender oder atemischer Stimme. Wenn überhaupt nicht vibrieren, wird das Ergebnis sein Stimmlosigkeit.

Zusätzlich zur korrekten Positionierung der Stimmfalten muss auch Luft über sie fließen, oder sie vibrieren nicht. Der Druckunterschied über die für die Stimmung erforderlichen Glottis wird auf 1 - 2 geschätzt cm h2O (98.0665 - 196.133 Pascals).[48] Das Druckdifferential kann entweder aufgrund eines Drucksteigers über dem Glottis (Superglottaldruck) oder einer Abnahme des Drucks unterhalb der Glottis (Subglottaldruck) unter die für die Phonation erforderlichen Niveaus fallen. Der Subglottaldruck wird von der erhalten Atemmuskeln. Supraglottaler Druck ohne Einschränkungen oder Artikulationen entspricht ungefähr ungefähr Luftdruck. Da jedoch Artikulationen - insbesondere Konsonanten - Einschränkungen des Luftstroms repräsentieren, kann der Druck in der Höhle hinter diesen Einschränkungen zu einem höheren supraglottalen Druck führen.[49]

Lexikalischer Zugang

Gemäß den lexikalischen Zugriffsmodell werden zwei verschiedene Kognitionsstadien verwendet; Somit ist dieses Konzept als zweistufige Theorie des lexikalischen Zugangs bekannt. Die erste Stufe, die lexikalische Auswahl, enthält Informationen zu lexikalischen Elementen, die zur Konstruktion der Repräsentation auf Funktionsebene erforderlich sind. Diese Elemente werden nach ihren spezifischen semantischen und syntaktischen Eigenschaften abgerufen, aber zu diesem Zeitpunkt werden phonologische Formen noch nicht verfügbar gemacht. Die zweite Stufe, das Abrufen von Wortformen, enthält Informationen, die zum Aufbau der Positionsebene -Darstellung erforderlich sind.[50]

Artikulierungsmodelle

Bei der Erzeugung von Sprache bewegen sich die Artikulatoren durch und kontaktieren bestimmte Orte im Raum, was zu Änderungen des akustischen Signals führt. Einige Modelle der Sprachproduktion betrachten dies als Grundlage für die Modellierung der Artikulation in einem Koordinatensystem, das für den Körper (intrinsisch) oder extern (externen) internen ist. Intrinsische Koordinatensysteme modellieren die Bewegung von Artikulatoren als Positionen und Winkel von Gelenken im Körper. Intrinsische Koordinatenmodelle des Kiefers verwenden häufig zwei bis drei Freiheitsgrade, die Übersetzung und Rotation darstellen. Diese Gesichtsprobleme mit der Modellierung der Zunge, die im Gegensatz zu Fugen von Kiefer und Armen a ist muskulöser Hydrostat- wie ein Elefantenstamm - dem die Gelenke fehlen.[51] Aufgrund der unterschiedlichen physiologischen Strukturen sind die Bewegungspfade des Kiefers während der Sprache und des Mastikats relativ geraden Linien, während Bewegungen der Zunge den Kurven folgen.[52]

Gerade Bewegungen wurden verwendet, um Artikulationen zu argumentieren, wie sie in extrinsischen und nicht im intrinsischen Raum geplant sind, obwohl extrinsische Koordinatensysteme auch akustische Koordinatenräume enthalten, nicht nur physikalische Koordinatenräume.[51] Modelle, die annehmen, dass Bewegungen im extrinsischen Raum geplant sind inverses Problem Erklären der Muskel- und Gelenkstellen, die den beobachteten Pfad oder das akustische Signal erzeugen. Der Arm zum Beispiel hat sieben Freiheitsgrade und 22 Muskeln, sodass mehrere verschiedene Gelenk- und Muskelkonfigurationen zu derselben Endposition führen können. Für die Planungsmodelle im extrinsischen akustischen Raum gilt auch das gleiche Ein-zu-viele-Kartierungsproblem, ohne dass die körperlichen oder akustischen Ziele zu den Muskelbewegungen eindeutig sind, die erforderlich sind, um sie zu erreichen. Die Bedenken hinsichtlich des inversen Problems können jedoch übertrieben sein, da Sprache eine hoch erlernte Fähigkeit mit neurologische Strukturen ist, die sich für diesen Zweck entwickelt haben.[53]

Das Gleichgewichtspunktmodell schlägt eine Auflösung für das inverse Problem vor, indem sie argumentiert, dass Bewegungsziele als Position der Muskelpaare dargestellt werden, die auf ein Gelenk wirken.[d] Wichtig ist, dass Muskeln als Federn modelliert werden, und das Ziel ist der Gleichgewichtspunkt für das modellierte Federmassensystem. Durch die Verwendung von Federn kann das Gleichgewichtspunktmodell die Kompensation und Reaktion leicht berücksichtigen, wenn Bewegungen unterbrochen werden. Sie gelten als Koordinatenmodell, weil sie annehmen, dass diese Muskelpositionen als Punkte im Raum, Gleichgewichtspunkte, dargestellt werden, wobei die federähnliche Wirkung der Muskeln konvergiert.[54][55]

Gestische Ansätze zur Sprachproduktion schlagen vor, dass Artikulationen eher als Bewegungsmuster als als bestimmte Koordinaten dargestellt werden, die er treffen kann. Die minimale Einheit ist eine Geste, die eine Gruppe von "funktional äquivalenten artikulatorischen Bewegungsmustern, die aktiv kontrolliert werden, in Bezug auf ein bestimmtes sprachrelevantes Ziel (z. B. eine bilabiale Schließung) kontrolliert werden".[56] Diese Gruppen repräsentieren koordinative Strukturen oder "Synergien", die Bewegungen nicht als individuelle Muskelbewegungen, sondern als aufgabenabhängige Gruppierungen von Muskeln betrachten, die als einzelne Einheit zusammenarbeiten.[57][58] Dies reduziert die Freiheitsgrade in der Artikulationsplanung, ein Problem, insbesondere in intrinsischen Koordinatenmodellen, das jede Bewegung ermöglicht, die das Sprachziel erreicht, anstatt die bestimmten Bewegungen in der abstrakten Darstellung zu kodieren. Die Koartikulation wird durch Gestikmodelle gut beschrieben, da die Artikulationen zu schnelleren Sprachraten als Verbundwerkstoffe der unabhängigen Gesten mit langsameren Sprachraten erklärt werden können.[59]

Akustik

Eine Wellenform (oben), ein Spektrogramm (Mitte) und eine Transkription (unten) einer Frau, die "Wikipedia" sagt, die mit dem angezeigt wird Praat Software für sprachliche Analyse.

Sprachgeräusche werden durch die Modifikation eines Airstreams erstellt, der zu einer Schallwelle führt. Die Modifikation erfolgt von den Artikulatoren mit unterschiedlichen Orten und Artikulation, die unterschiedliche akustische Ergebnisse erzielen. Weil die Haltung des Stimmtrakts, nicht nur die Position der Zunge den resultierenden Klang, das beeinflussen kann, die Art der Artikulation ist wichtig für die Beschreibung des Sprachklangs. Die Wörter Heftzwecke und Sack Beide beginnen mit Alveolargeräuschen in Englisch, unterscheiden sich jedoch darin, wie weit die Zunge vom Alveolarkamm liegt. Dieser Unterschied hat große Auswirkungen auf den Luftstrom und damit der erzeugte Geräusch. In ähnlicher Weise können die Richtung und Quelle des Airstreams den Schall beeinflussen. Der häufigste Luftstrommechanismus ist pulmonisch - die Lunge -, aber die Glottis und die Zunge können auch zur Herstellung von Luftströmen verwendet werden.

Stimm- und Phonationstypen

Eine große Unterscheidung zwischen den Sprachgeräuschen ist, ob sie geäußert werden. Geräusche werden geäußert, wenn die Stimmfalten bei der Phonation zu vibrieren. Viele Geräusche können mit oder ohne Phonation erzeugt werden, obwohl physikalische Einschränkungen für einige Artikulationen die Phonation erschweren oder unmöglich machen können. Wenn die Artikulationen geäußert werden, ist die Hauptgeräuschquelle die periodische Schwingung der Stimmfalten. Artikulationen wie Voiceless Plosive haben keine akustische Quelle und spüren sich durch ihr Schweigen, aber andere stimmlose Klänge wie Fricative erzeugen ihre eigene akustische Quelle unabhängig von der Phonation.

Die Phonation wird durch die Muskeln des Kehlkopfes gesteuert, und Sprachen verwenden akustische Details als binäre Stimmen. Während der Phonation vibrieren die Stimmfalten mit einer bestimmten Geschwindigkeit. Diese Vibration führt zu einer periodischen akustischen Wellenform, die a umfasst fundamentale Frequenz und seine Harmonischen. Die grundlegende Frequenz der akustischen Welle kann kontrolliert werden, indem die Muskeln des Kehlkopfes angepasst werden und die Zuhörer diese grundlegende Frequenz als Tonhöhe wahrnehmen. Sprachen verwenden die Pitch -Manipulation, um lexikalische Informationen in Tonsprachen zu vermitteln, und viele Sprachen markieren Pitch, um prosodische oder pragmatische Informationen zu markieren.

Damit die Vokalfalten vibrieren, müssen sie in der richtigen Position sein und es muss Luft durch die Glottis fließen.[48] Phonationstypen werden auf einem Kontinuum von Glottalzuständen von vollständig offen (stimmlos) bis vollständig geschlossen (Glottal Stopp) modelliert. Die optimale Position für die Vibration und der Phonationstyp, der in der Sprache am häufigsten verwendet wird, modal Stimme, existiert in der Mitte dieser beiden Extreme. Wenn die Glottis etwas breiter ist, tritt atemberaubende Stimme auf, während die Stimmfalten näher zusammengebracht werden, führt zu knarrender Stimme.[60]

Das normale Phonationsmuster, das in der typischen Sprache verwendet wird, ist modale Stimme, bei der die Stimmfalten mit moderaten Spannungen eng gehalten werden. Die Gesangsfalten vibrieren als einzelne Einheit regelmäßig und effizient mit einem vollständigen Glottalverschluss und ohne Aspiration.[61] Wenn sie weiter auseinander gezogen werden, vibrieren sie nicht und produzieren so stimmlose Telefone. Wenn sie fest zusammengehalten werden, produzieren sie einen Glottal -Stopp.[60]

Wenn die Gesangsfalten etwas weiter voneinander entfernt sind als bei der modalen Stimmung, produzieren sie Phonationstypen wie atemberaubende Stimme (oder Murmeln) und flüsternde Stimme. Die Spannung über die Stimmbänder (Stimmbänder) ist geringer als in der modalen Stimmung, so dass Luft frei fließen kann. Auf einem Kontinuum gibt es sowohl eine atemberaubende Stimme als auch flüsternde Stimme, die lose charakterisiert ist, wie sie von der periodischeren Wellenform der atemberaubenden Stimme zur lauteren Wellenform der flüsterigen Stimme wechselt. Akustisch neigen beide dazu, das erste Formant mit flüsternder Stimme zu dämpfen, die extremere Abweichungen zeigen. [62]

Das Halten der Stimmliebe führt zu einer knarrenden Stimme. Die Spannung über die Stimmfalten ist geringer als in modaler Stimme, aber sie werden fest zusammengehalten, was nur zu den Bändern der Stimmfalten vibrieren.[e] Die Impulse sind sehr unregelmäßig, mit geringer Tonhöhe und Frequenzamplitude.[63]

Einige Sprachen behalten für einige Konsonanten keine Auszeichnung bei[f] Aber alle Sprachen verwenden bis zu einem gewissen Grad. Zum Beispiel ist bekannt, dass keine Sprache einen phonemischen Stimmkontrast für Vokale mit allen bekannten Vokalen hat, die kanonisch geäußert sind.[g] Andere Positionen der Glottis, wie z. B. atemberaubende und knarrende Stimme, werden in einer Reihe von Sprachen verwendet, wie Jalapa Mazatec, hervorheben Phoneme Während sie in anderen Sprachen, wie Englisch, existieren sie allophonisch.

Es gibt verschiedene Möglichkeiten, um festzustellen, ob ein Segment geäußert wird oder nicht. Das einfachste Wesen, den Kehlkopf während der Sprache zu spüren, und Notiz, wenn Vibrationen zu spüren sind. Genauere Messungen können durch akustische Analyse eines Spektrogramms oder einer Spektralscheibe erhalten werden. In einer spektrografischen Analyse zeigen Stimmensegmente in den niedrigen Frequenzen von Stimmen von Segmenten eine Stimmenleiste, eine Region mit hoher akustischer Energie.[64] Bei der Untersuchung eines spektralen Spleißs kehrt das akustische Spektrum zu einem bestimmten Zeitpunkt ein Modell des Vokals um, das die Filterung des Mundes, das das Spektrum der Glottis erzeugt, ausgesprochen. Ein rechnerisches Modell des nicht filterierten Glottalsignals wird dann an das inverse gefilterte akustische Signal angepasst, um die Eigenschaften der Glottis zu bestimmen.[65] Die visuelle Analyse ist auch mit speziellen medizinischen Geräten wie Ultraschall und Endoskopie verfügbar.[64][h]

Vokale

Vokale werden weitgehend durch den Bereich des Mundes kategorisiert, in dem sie produziert werden, aber weil sie ohne Verengung im Stimmtrakt hergestellt werden, beruht ihre genaue Beschreibung auf der Messung der akustischen Korrelate der Zungenposition. Die Position der Zunge während der Vokalproduktion verändert die Frequenzen, bei denen der Hohlraum mitschwingt, und es sind diese Resonanzen - bekannt als Formanten- Die gemessen und verwendet werden, um Vokale zu charakterisieren.

Die Vokalhöhe bezieht sich traditionell auf den höchsten Punkt der Zunge während der Artikulation.[66] Der Höhenparameter ist in vier Primärwerte unterteilt: hoch (schließlich), Nahmid, Open-Mid und Low (offen). Vokale, deren Höhe in der Mitte liegt, werden als Mitte bezeichnet. Etwas geöffnete enge Vokale und leicht geschlossene offene Vokale werden als nahezu schließt bzw. nahezu öffnet. Die niedrigsten Vokale werden nicht nur mit einer abgesenkten Zunge artikuliert, sondern auch durch die Senkung des Kiefers.[67]

Während die IPA impliziert, dass es sieben Vokalhöhen gibt, ist es unwahrscheinlich, dass eine bestimmte Sprache alle sieben Ebenen minimal kontrastieren kann. Chomsky und Halle Schlagen Sie vor, dass es nur drei Ebenen gibt,[68] Obwohl vier Ebenen der Vokalhöhe erforderlich zu sein scheinen, um zu beschreiben dänisch Und es ist möglich, dass einige Sprachen sogar fünf brauchen.[69]

Die Vokalrückenheit unterteilt sich in drei Ebenen: vorne, zentral und hinten. Sprachen kontrastieren normalerweise nicht mehr als zwei Vokalrückenniveaus. Einige Sprachen behaupteten, eine Drei-Wege-Rückengründen zu haben, umfassen Nimboran und norwegisch.[70]

In den meisten Sprachen können die Lippen während der Vokalproduktion entweder abgerundet oder unberührt (Spread) klassifiziert werden, obwohl andere Arten von Lippenpositionen wie Kompression und Vorsprung beschrieben wurden. Die Lippenposition korreliert mit Höhe und Rückenheit: Vorder- und niedrige Vokale sind tendenziell unberührt, während Rücken- und hohe Vokale normalerweise abgerundet werden.[71] Paired Vokale im IPA -Diagramm haben den Spread Vokal links und den abgerundeten Vokal rechts.[72]

Zusammen mit den oben beschriebenen universellen Vokalfunktionen haben einige Sprachen zusätzliche Funktionen wie z. Nasalität, Länge und verschiedene Arten von Phonation wie z. stimmlos oder knarrend. Manchmal spezialisiertere Zungengesten wie Rhotizität, Fortgeschrittene Zungenwurzel, Pharyngealisation, Stridenz und Frikationen sind erforderlich, um einen bestimmten Vokal zu beschreiben.[73]

Art der Artikulation

Das Kennen des Artikulationsortes reicht nicht aus, um einen Konsonanten vollständig zu beschreiben, wie die Striktur auftritt. Manieren der Artikulation beschreiben, wie genau der aktive Artikulator den Stimmtrakt modifiziert, verengt oder schließt.[74]

Stopps (Auch als Plosive bezeichnet) sind Konsonanten, bei denen der Airstream vollständig behindert ist. Während der Striktur, die dann als kleiner Geräuschausbruch freigesetzt wird, wird Druck im Mund aufgebaut, wenn sich die Artikulatoren auseinander bewegen. Der Velum wird angehoben, so dass Luft nicht durch die Nasenhöhle fließen kann. Wenn das Velum gesenkt wird und die Luft durch die Nase fließen lässt, führt das Ergebnis zu einem Nasenstopp. Phonetiker bezeichnen jedoch fast immer auf Nasenstopps als "Nasen".[74] Affrikate sind eine Abfolge von Stopps, gefolgt von einem Frikativ am selben Ort.[75]

Frikative sind Konsonanten, bei denen der Airstrom von teilweise, aber nicht vollständig turbulent gemacht wird, einen Teil des Stimmtrakts behindert.[74] Zischleiter sind eine besondere Art von Frikat, bei der der turbulente Airstrom in Richtung der Zähne gerichtet ist,[76] Erstellen eines hohen Klangs.[77]

Nasen (Manchmal als Nasenstopps bezeichnet) sind Konsonanten, bei denen ein Verschluss in der Mundhöhle vorliegt und der Velum gesenkt wird, sodass Luft durch die Nase fließen kann.[78]

In einem (n ungefähr,[77]

Laterale sind Konsonanten, bei denen der Luftstrom entlang der Mitte des Stimmtrakts verstopft ist, sodass der Luftstrom frei auf einer oder beiden Seiten fließen kann.[77] Seitenteile wurden auch als Konsonanten definiert, bei denen die Zunge so beauftragt wird, dass der Luftstrom um die Seiten größer ist als über der Zentrum der Zunge.[79] Die erste Definition lässt keine Luft über die Zunge fließen.

Trills sind Konsonanten, bei denen die Zunge oder die Lippen vom Airstrom in Bewegung gesetzt werden.[80] Die Striktur wird so gebildet, dass der Airstrom ein wiederholtes Muster des Öffnens und Schließens des weichen Artikulators (en) verursacht.[81] Apikale Trills bestehen typischerweise aus zwei oder drei Vibrationsperioden.[82]

Taps und Klappen sind in der Regel einzeln, schnell apikal Gesten, bei denen die Zunge gegen das Dach des Mundes geworfen wird, vergleichbar mit einem sehr schnellen Stopp.[80] Diese Begriffe werden manchmal austauschbar verwendet, aber einige Phonetiker unterscheiden.[83] In einem Wasserhahn kontaktiert die Zunge das Dach in einer einzigen Bewegung, während sich die Zunge in einer Klappe tangential auf das Dach des Mundes bewegt und es in den Vorbeigehen schlägt.

Während eines Glottalic Airstream -MechanismusDie Glottis ist geschlossen und fängt einen Luftkörper ein. Dadurch kann die verbleibende Luft im Stimmtrakt getrennt bewegt werden. Eine Aufwärtsbewegung der geschlossenen Glottis wird diese Luft heraus bewegen, was dazu führt, Ejektivkonsonant. Alternativ können die Glottis senken und mehr Luft in den Mund saugen, was zu einem führt Implosive Konsonant.[84]

Klicks sind Stopps, bei denen die Zungenbewegung Luft in den Mund saugt, dies wird als als bezeichnet Velaric Airstream.[85] Während des Klicks wird die Luft verdünnt Zwischen zwei artikulierenden Verschlüssen, die einen lauten Klick -Sound erzeugen, wenn der vordere Verschluss veröffentlicht wird. Die Freisetzung des vorderen Verschlusss wird als Klick -Zustrom bezeichnet. Die Freisetzung des hinteren Verschlusss, der Velar oder Uvular sein kann, ist der Klickausfluss. Klicks werden in mehreren afrikanischen Sprachfamilien verwendet, wie die Khoisan und Bantu- Sprachen.[86]

Lungen- und Subglottalsystem

Die Lungen treiben fast alle Sprachproduktionen an, und ihre Bedeutung für die Phonetik ist auf die Erstellung des Drucks für pulmonische Geräusche zurückzuführen. Die häufigsten Arten von Klang in den Sprachen sind pulmonischer Ausstieg, wo Luft aus der Lunge ausgeatmet wird.[87] Das Gegenteil ist möglich, obwohl bekannt ist, dass keine Sprache als Phoneme pulmonische Eindringläute aufweist.[88] Viele Sprachen wie z. Schwedisch Verwenden Sie sie für paralinguistisch Artikulationen wie Affirmationen in einer Reihe genetisch und geografisch unterschiedlicher Sprachen.[89] Sowohl egressive als auch eindringende Geräusche verlassen sich darauf, die Stimmfalten in einer bestimmten Haltung zu halten und die Lungen zu verwenden, um Luft über die Stimmfalten zu zeichnen, so dass sie entweder vibrieren (geäußert) oder nicht vibrieren (stimmlos).[87] Pulmonische Artikulationen werden durch das Luftvolumen eingeschränkt, der in einem gegebenen Atemzyklus ausgeatmet werden kann, der als der bekannt ist Vitalkapazität.

Die Lungen werden verwendet, um zwei Druckarten gleichzeitig aufrechtzuerhalten, um die Phonation zu erzeugen und zu modifizieren. Um Phonation überhaupt zu produzieren, muss die Lunge einen Druck von 3 bis 5 cm h sichern2O höher als der Druck über den Glottis. Es werden jedoch kleine und schnelle Anpassungen am Subglottaldruck vorgenommen, um die Sprache für suprasementale Merkmale wie Spannung zu ändern. Eine Reihe von Brustmuskeln wird verwendet, um diese Anpassungen vorzunehmen. Da die Lungen und der Thorax während des Inhalation dauern, können die elastischen Kräfte der Lungen allein Druckdifferentiale erzeugen, die für die Phonation bei Lungenvolumina über 50 Prozent der lebenswichtigen Kapazität ausreichen.[90] Über 50 Prozent der lebenswichtigen Kapazität, die Atemmuskeln werden verwendet, um die elastischen Kräfte des Thorax zu "überprüfen", um ein stabiles Druckdifferential aufrechtzuerhalten. Unter diesem Volumen werden sie verwendet, um den Subglottaldruck durch aktives Ausatmen der Luft zu erhöhen.

Während der Sprache wird der Atemzyklus modifiziert, um sowohl sprachlichen als auch biologischen Bedürfnissen gerecht zu werden. Das Ausatmen, normalerweise etwa 60 Prozent des Atemzyklus in Ruhe, wird auf etwa 90 Prozent des Atemzyklus erhöht. Da der metabolische Bedarf relativ stabil ist, bleibt das Gesamtluftvolumen in den meisten Fällen von Sprache ungefähr das gleiche wie leise Atembewegung.[91] Eine Erhöhung der Sprachintensität von 18 dB (ein lautes Gespräch) hat relativ geringe Auswirkungen auf das Luftvolumen. Da ihre Atmungssysteme nicht so entwickelt sind wie Erwachsene, verwenden Kinder im Vergleich zu Erwachsenen einen größeren Anteil ihrer lebenswichtigen Kapazität mit tieferem Einatum.[92]

Quell -Filter -Theorie

Das Quell -Filter -Sprachmodell ist eine Theorie der Sprachproduktion, die den Zusammenhang zwischen Stimmtrakthaltung und den akustischen Konsequenzen erklärt. Unter diesem Modell kann der Stimmtrakt als Rauschquelle an einem akustischen Filter modelliert werden.[93] Die Geräuschquelle ist in vielen Fällen der Kehlkopf während des Stimmprozesses, obwohl andere Geräuschquellen auf die gleiche Weise modelliert werden können. Die Form des supraglottalen Stimmtrakts fungiert als Filter, und verschiedene Konfigurationen der Artikulatoren führen zu unterschiedlichen akustischen Mustern. Diese Änderungen sind vorhersehbar. Der Stimmtrakt kann als Folge von Röhrchen, an einem Ende, mit unterschiedlichen Durchmessern und durch Verwendung von Gleichungen für modelliert werden Akustische Resonanz Die akustische Wirkung einer Artikulationshaltung kann abgeleitet werden.[94] Der Prozess der inversen Filterung verwendet dieses Prinzip, um das Quellspektrum zu analysieren, das von den Stimmfalten während der Stimmung erzeugt wird. Durch die Einführung eines vorhergesagten Filters kann der akustische Effekt des supraglottalen Stimmtrakts rückgängig gemacht werden, was das akustische Spektrum erzeugt, das von den Stimmfalten erzeugt wird.[95] Dies ermöglicht eine quantitative Untersuchung der verschiedenen Phonationstypen.

Wahrnehmung

Die Sprachwahrnehmung ist der Prozess, durch den ein Sprachsignal von einem Zuhörer dekodiert und verstanden wird.[ich] Um die Sprache wahrzunehmen, muss das kontinuierliche akustische Signal in diskrete sprachliche Einheiten wie z. Phoneme, Morpheme, und Wörter.[96] Um Sounds korrekt zu identifizieren und zu kategorisieren, priorisieren die Hörer bestimmte Aspekte des Signals, die zwischen sprachlichen Kategorien zuverlässig unterscheiden können.[97] Während bestimmte Hinweise gegenüber anderen priorisiert werden, können viele Aspekte des Signals zur Wahrnehmung beitragen. Zum Beispiel, obwohl orale Sprachen akustische Informationen priorisieren, die McGurk -Effekt zeigt, dass visuelle Informationen verwendet werden, um mehrdeutige Informationen zu unterscheiden, wenn die akustischen Hinweise unzuverlässig sind.[98]

Während die Hörer eine Vielzahl von Informationen verwenden können, um das Sprachsignal zu segmentieren, ist die Beziehung zwischen akustischer Signal und Kategoriewahrnehmung keine perfekte Zuordnung. Durch Koartikulation, laute Umgebungen und individuelle Unterschiede, es gibt ein hohes Maß an akustischer Variabilität innerhalb der Kategorien.[99] Bekannt als das Problem von WahrnehmungsinvarianzHörer können Kategorien trotz der Variabilität der akustischen Instanziierung zuverlässig wahrnehmen.[100] Zu diesem Zweck haben die Zuhörer sich schnell für neue Sprecher und verändern ihre Grenzen zwischen den Kategorien, um den akustischen Unterscheidungen zu entsprechen, die ihr Konversationspartner macht.[101]

Vorsprechen

Wie Geräusche ihren Weg von der Quelle zum Gehirn machen

Das Audition, der Prozess des Hörgeräusche, ist die erste Phase der Wahrnehmung der Rede. Artikulatoren verursachen systematische Luftdruckänderungen, die als Schallwellen zum Ohr des Hörers wandern. Die Klangwellen treffen dann auf den Hörer Ohrspur es zu vibrieren lassen. Die Schwingung des Ohrspurs wird von der übertragen Ossikeln- Drei kleine Knochen des Mittelohrs - nach Schnecke.[102] Die Cochlea ist ein spiralförmiges, mit Flüssigkeit gefüllter Röhrchen, das in Längsrichtung durch die geteilt wird Organ von Corti das enthält die Basilarmembran. Die Basilar -Membran nimmt die Dicke zu, wenn sie durch die Cochlea bewegt, was zu unterschiedlichen Frequenzen an verschiedenen Orten schwingt. Dies tonotopisch Das Design ermöglicht es dem Ohr, Klang auf ähnliche Weise wie a zu analysieren Fourier-Transformation.[103]

Die differentielle Schwingung des Basilars verursacht die Haarzellen innerhalb des Organs von Corti zu bewegen. Dies bewirkt Depolarisation der Haarzellen und letztendlich eine Umwandlung des akustischen Signals in ein neuronales Signal.[104] Während die Haarzellen nicht produzieren Aktionspotentiale Sie setzen selbst einen Neurotransmitter bei Synapsen mit den Fasern der Hörnerv, was Aktionspotentiale hervorbringt. Auf diese Weise werden die Oszillationsmuster auf der Basilarmembran in umgewandelt räumlich -zeitliche Muster von Schusswänden, die Informationen über den Klang an die übertragen Hirnstamm.[105]

Prosodie

Neben Konsonanten und Vokalen beschreibt die Phonetik auch die Eigenschaften der Sprache, die nicht lokalisiert sind Segmente aber größere Spracheinheiten, wie z. Silben und Phrasen. Prosodie umfasst Hörmerkmale wie zum Beispiel Tonhöhe, Sprachrate, Dauer, und Lautstärke. Sprachen verwenden diese Eigenschaften zu unterschiedlichem Maße, um implementiert zu werden betonen, Pitch -Akzente, und Intonation - zum Beispiel, Stress auf Englisch und Spanisch korreliert mit Änderungen von Tonhöhe und Dauer, während Stress in Walisisch ist konstanter mit der Tonhöhe korreliert als die Dauer und der Stress in Thai ist nur mit der Dauer korreliert.[106]

Theorien der Sprachwahrnehmung

Frühe Theorien der Sprachwahrnehmung wie z. Motorheorie versuchte, das Problem der Wahrnehmungsinvarianz zu lösen, indem er argumentierte, dass Sprachwahrnehmung und Produktion eng miteinander verbunden waren. In seiner stärksten Form argumentiert die Motorheorie diese Sprachwahrnehmung erfordert der Zuhörer, der auf die Artikulatorische Darstellung von Klängen zugreift;[107] Um einen Sound richtig zu kategorisieren, kann ein Hörer die Artikulation, die diesen Klang erzeugen und diese Gesten identifizieren würde, die geplante sprachliche Kategorie abrufen.[108] Während Ergebnisse wie die MCGurk-Effekt und Fallstudien von Patienten mit neurologischen Verletzungen die Motorheorie geliefert haben, haben weitere Experimente die starke Form der Motorheorie nicht unterstützt, obwohl es eine gewisse Unterstützung für schwächere Formen der Motorheorie gibt, die eine Nicht-Nicht-Form beanspruchen deterministische Beziehung zwischen Produktion und Wahrnehmung.[108][109][110]

Nachfolgertheorien zur Sprachwahrnehmung legen den Fokus auf akustische Hinweise auf Klangkategorien und können in zwei breite Kategorien eingeteilt werden: Abstraktionstheorien und episodische Theorien.[111] In abstraktionistischen Theorien beinhaltet die Sprachwahrnehmung die Identifizierung eines idealisierten lexikalischen Objekts auf einem auf seine erforderlichen Komponenten reduzierten Signal und normalisiert das Signal, um der Variabilität der Lautsprecher entgegenzuwirken. Episodische Theorien wie das Exemplar -Modell argumentieren, dass die Sprachwahrnehmung auf detaillierte Erinnerungen zugreift (d. H., episodische Erinnerungen) von zuvor gehörten Token. Das Problem der Wahrnehmungsinvarianz wird durch episodische Theorien als Problem der Vertrautheit erklärt: Normalisierung ist ein Nebenprodukt der Exposition gegenüber variableren Verteilungen und nicht als diskreter Prozess, wenn die Theorien der Abstraktionist behauptet.[111]

Subdisziplinen

Akustische Phonetik

Akustische Phonetik befasst sich mit dem akustisch Eigenschaften von Sprachgeräuschen. Das Sensation des Schalls wird durch Druckschwankungen verursacht, die die verursachen Trommelfell bewegen. Das Ohr verwandelt diese Bewegung in neuronale Signale, die das Gehirn als Klang registriert. Akustische Wellenformen sind Aufzeichnungen, die diese Druckschwankungen messen.[112]

Artikulatorische Phonetik

Artikulatorische Phonetik befasst sich mit der Art und Weise, wie Sprachgeräusche erfolgen.

Hörphonetik

Auditory Phonetics untersucht, wie Menschen Sprache wahrnehmen. Aufgrund der anatomischen Merkmale des auditorischen Systems, das das Sprachsignal verzerrt, erleben Menschen keine Sprachgeräusche als perfekte akustische Aufzeichnungen. Zum Beispiel die auditorischen Eindrücke von Volumen, gemessen in Dezibel (DB), entspricht nicht linear dem Schalldruckunterschied.[113]

Die Nichtübereinstimmung zwischen akustischen Analysen und dem, was der Hörer hört, ist besonders in Sprachgeräuschen auffällig, die viel Hochfrequenzenergie haben, wie z. B. bestimmte Reibungen. Um diese Nichtübereinstimmung in Einklang zu bringen, wurden funktionelle Modelle des auditorischen Systems entwickelt.[114]

Klänge beschreiben

Menschliche Sprachen verwenden viele verschiedene Klänge und um sie zu vergleichen, müssen Linguisten in der Lage sein, Sounds auf eine Weise zu beschreiben, die Sprachunabhängig ist. Sprachgeräusche können auf verschiedene Arten beschrieben werden. Am häufigsten werden Sprachgeräusche durch die Mundbewegungen bezeichnet, die zur Erzeugung erforderlich sind. Konsonanten und Vokale sind zwei grobe Kategorien, die Phonetiker durch die Bewegungen in einem Sprachgeräusch definieren. Weitere feinkörnige Deskriptoren sind Parameter wie Artikulationsort. Ort der Artikulation, Art der Artikulation, und Aussagen werden verwendet, um Konsonanten zu beschreiben und sind die Hauptabteilungen der Internationales Phonetisches Alphabet Konsonant -Diagramm. Vokale werden nach Größe, Rückenheit und Rundung beschrieben. Die Gebärdensprache werden unter Verwendung eines ähnlichen, aber unterschiedlichen Parametersatzes beschrieben, um Zeichen zu beschreiben: Ort, Bewegung, Handform, Palmenorientierung und Nichtmanualmerkmale. Neben artikulierenden Beschreibungen können Geräusche, die in oralen Sprachen verwendet werden, mit ihrer Akustik beschrieben werden. Da die Akustik eine Folge der Artikulation darstellt, sind beide Beschreibungsmethoden ausreichend, um Geräusche mit der Auswahl zwischen Systemen zu unterscheiden, die vom untersuchten phonetischen Merkmal abhängen.

Konsonanten sind Sprachgeräusche, die mit einem vollständigen oder teilweisen Verschluss der artikuliert sind Stimmtrakt. Sie werden im Allgemeinen durch die Modifikation eines produziert Airstream aus der Lunge ausgeatmet. Die Atemorgane, die zum Erstellen und Modifizieren von Luftstrom verwendet werden, sind in drei Regionen unterteilt: den Stimmtrakt (supralaryngeal), die Larynxund das Subglottal -System. Der Airstream kann entweder sein egressiv (aus dem Stimmtrakt) oder eindringen (in den Stimmtrakt). In pulmonischen Klängen wird der Airstream von der Lunge im Subglottalsystem erzeugt und durchläuft den Kehlkopf und den Stimmtrakt. Glottalic Geräusche verwenden einen Airstream, der durch Bewegungen des Kehlkopfes ohne Luftstrom aus der Lunge erzeugt wird. Klicken Konsonanten werden durch die artikuliert Verdünnung von Luft mit der Zunge, gefolgt von der Freisetzung des Vorwärtsverschlusses der Zunge.

Vokale sind Silben Sprachgeräusche, die im Stimmtrakt ohne Hindernis ausgesprochen werden.[115] Im Gegensatz zu Konsonanten, die normalerweise bestimmte Artikulationsorte haben, werden Vokale in Bezug auf eine Reihe von Referenzvokalen definiert, die genannt werden Kardinalvokale. Um Vokale zu definieren, werden drei Eigenschaften benötigt: Zungenhöhe, Zungenrücken und Lippenrunden. Vokale, die mit einer stabilen Qualität artikuliert werden, werden genannt Monophthongs; Eine Kombination von zwei getrennten Vokalen in derselben Silbe ist a Diphthong.[116] In dem IPADie Vokale werden auf einer Trapezform dargestellt, die den menschlichen Mund darstellt: Die vertikale Achse repräsentiert den Mund vom Boden zu Dach und die horizontale Achse repräsentiert die Abmessung vorne.[117]

Transkription

Lautschrift ist ein System zum Transkriptieren Telefone das passieren in einer Sprache, ob Oral oder Schild. Das bekannteste System der phonetischen Transkription, die Internationales Phonetisches Alphabet (IPA) bietet einen standardisierten Satz von Symbolen für Mundtelefone.[118][119] Mit der standardisierten Natur des IPA können seine Benutzer die Telefone verschiedener Sprachen genau und konsequent transkribieren. Dialekte, und Idiolekten.[118][120][121] Das IPA ist ein nützliches Instrument nicht nur für das Studium der Phonetik, sondern auch für Sprachunterricht, professionelles Handeln und Sprach Pathologie.[120]

Während keine Gebärdensprache über ein standardisiertes Schreibsystem verfügt, haben Linguisten ihre eigenen Notationssysteme entwickelt, die die Handshaps, den Ort und die Bewegung beschreiben. Das Hamburg Notation System (Hamnosys) ähnelt der IPA darin, dass sie unterschiedliche Details ermöglicht. Einige Notationssysteme wie Komva und die Stokoe -System wurden für die Verwendung in Wörterbüchern ausgelegt; Sie verwenden auch alphabetische Buchstaben in der Landessprache für Handschöpfe, während Hamnosys die Handverhandlung direkt darstellt. Signwriting Ziel ist es, ein leicht zu larnendes Schreibsystem für Gebärdensprachen zu sein, obwohl es von keiner gehörlosen Gemeinschaft offiziell übernommen wurde.[122]

Zeichensprache

Im Gegensatz zu gesprochenen Sprachen, Wörter in Zeichensprache werden mit den Augen anstelle der Ohren wahrgenommen. Zeichen werden mit den Händen, dem Oberkörper und dem Kopf artikuliert. Die Hauptartikulatoren sind die Hände und Arme. Relative Teile des Arms werden mit den Begriffen beschrieben proximal und distal. Proximal bezieht sich auf einen Teil näher am Oberkörper, während ein distaler Teil weiter von ihm entfernt ist. Zum Beispiel ist eine Handgelenkbewegung im Vergleich zu einer Ellbogenbewegung distal. Aufgrund weniger Energie sind distale Bewegungen im Allgemeinen einfacher zu produzieren. Verschiedene Faktoren - wie Muskelflexibilität oder berücksichtigt werden Tabu - Beschränken Sie, was als Zeichen betrachtet werden kann.[123] Einheimische Unterzeichner schauen sich die Hände ihres Gesprächspartners nicht an. Stattdessen ist ihr Blick auf das Gesicht fixiert. Da peripherale Sicht ist nicht so fokussiert wie das Zentrum des Gesichtsfeldes, signalisiert in der Nähe des Gesichts, die subtilere Unterschiede in der Fingerbewegung und des Ortes wahrgenommen werden können.[124]

Im Gegensatz zu gesprochenen Sprachen haben Gebärdensprachen zwei identische Artikulatoren: die Hände. Unterzeichner können die Hand verwenden, die sie bevorzugen, ohne dass die Kommunikation stört. Aufgrund universeller neurologischer Einschränkungen haben zweihändige Anzeichen im Allgemeinen die gleiche Art von Artikulation in beiden Händen; Dies wird als Symmetriebedingung bezeichnet.[123] Die zweite universelle Einschränkung ist die Dominanzbedingung, die der Ansicht ist, dass eine Hand stationär bleibt, wenn zwei Handschöpfe involviert sind, und eine begrenztere Set -Handverhandlung im Vergleich zur dominanten, bewegenden Hand aufweist.[125] Darüber hinaus ist es für eine Hand in einem Zweihandschild üblich, in informellen Gesprächen fallen zu lassen, ein Prozess, der als schwacher Abfall bezeichnet wird.[123] Genau wie Wörter in gesprochenen Sprachen kann die Koartikulation dazu führen, dass Anzeichen der Form des anderen beeinflussen. Beispiele hierAssimilation) oder schwacher Tropfen (eine Instanz von Streichung).[126]

Siehe auch

Verweise

Anmerkungen

  1. ^ Linguisten diskutieren, ob diese Stufen interagieren können oder ob sie seriell auftreten (vergleichen Dell & Reich (1981) und Motley, Camden & Baars (1982)). Zur Erleichterung der Beschreibung wird der Sprachproduktionsprozess als eine Reihe von unabhängigen Stadien beschrieben, obwohl jüngste Beweise zeigen, dass dies ungenau ist.[11] Weitere Beschreibungen interaktiver Aktivierungsmodelle finden Sie unter Jaeger, Fassh & Hilliard (2012).
  2. ^ oder nach einem Teil einer Äußerung geplant; sehen Gleitman et al. (2007) Für Beweise für die Produktion, bevor eine Nachricht vollständig geplant ist
  3. ^ angepasst von Sedivy (2019, p. 411) und Boersma (1998, p. 11)
  4. ^ Sehen Feldman (1966) Für den ursprünglichen Vorschlag.
  5. ^ Sehen #Die Kehlkopf Weitere Informationen zur Anatomie der Phonation.
  6. ^ Hawaiianer zum Beispiel kontrastiert nicht stimmlose und stimmlose Plosive.
  7. ^ Es gibt Sprachen wie japanisch, wo Vokale in bestimmten Kontexten als stimmlos hergestellt werden.
  8. ^ Sehen #Artikulatorische Modelle Weitere Informationen zur akustischen Modellierung.
  9. ^ Wie bei der Sprachproduktion variiert die Art des sprachlichen Signals je nach der Sprachmodalität. Das Signal kann für mündliche Sprache akustisch, visuell für signierte Sprachen oder taktil für manuell-taktile Gebärdensprachen sein. Zur Einfachheit wird hier akustische Sprache beschrieben; Für die Wahrnehmung der Gebärdensprache speziell siehe Gebärdensprache#Zeichenwahrnehmung.

Zitate

  1. ^ O'Grady 2005, p. fünfzehn.
  2. ^ a b c Caffrey 2017.
  3. ^ Kiparsky 1993, p. 2918.
  4. ^ Kiparsky 1993, S. 2922–3.
  5. ^ Deussen, Paul (1980). 60 Upanishaden der Veda, Band I.. Motilal Banarasidass. p. 222. ISBN 978-8120814684.
  6. ^ Oxford English Dictionary 2018.
  7. ^ a b Roach 2015.
  8. ^ Ladefoged 1960, p. 388.
  9. ^ Ladefoged 1960.
  10. ^ Dell & O'Seaghdha 1992.
  11. ^ Sedivy 2019, p. 439.
  12. ^ Boersma 1998.
  13. ^ a b Ladefoged 2001, p. 5.
  14. ^ Ladefoged & Maddieson 1996, p. 9.
  15. ^ Ladefoged & Maddieson 1996, p. 16.
  16. ^ Maddieson 1993.
  17. ^ Fujimura 1961.
  18. ^ Ladefoged & Maddieson 1996, S. 16–17.
  19. ^ a b c International Phonetic Association 2015.
  20. ^ Ladefoged & Maddieson 1996, p. 18.
  21. ^ Ladefoged & Maddieson 1996, S. 17–18.
  22. ^ a b Ladefoged & Maddieson 1996, p. 17.
  23. ^ Dooke 1926.
  24. ^ Guthrie 1948, p. 61.
  25. ^ Ladefoged & Maddieson 1996, S. 19–31.
  26. ^ a b Ladefoged & Maddieson 1996, p. 28.
  27. ^ Ladefoged & Maddieson 1996, S. 19–25.
  28. ^ Ladefoged & Maddieson 1996, S. 20, 40–1.
  29. ^ Scatton 1984, p. 60.
  30. ^ Ladefoged & Maddieson 1996, p. 23.
  31. ^ Ladefoged & Maddieson 1996, S. 23–5.
  32. ^ Ladefoged & Maddieson 1996, S. 25, 27–8.
  33. ^ a b Ladefoged & Maddieson 1996, p. 27.
  34. ^ Ladefoged & Maddieson 1996, S. 27–8.
  35. ^ Ladefoged & Maddieson 1996, p. 32.
  36. ^ Ladefoged & Maddieson 1996, p. 35.
  37. ^ Ladefoged & Maddieson 1996, S. 33–34.
  38. ^ Keating & Lahiri 1993, p. 89.
  39. ^ Maddieson 2013.
  40. ^ Ladefoged & Maddieson 1996, p. 11.
  41. ^ Lodge 2009, p. 33.
  42. ^ a b Ladefoged & Maddieson 1996, p. 37.
  43. ^ a b Ladefoged & Maddieson 1996, p. 38.
  44. ^ Ladefoged & Maddieson 1996, p. 74.
  45. ^ Ladefoged & Maddieson 1996, p. 75.
  46. ^ Ladefoged 2001, p. 123.
  47. ^ Seikel, Drumright & King 2016, p. 222.
  48. ^ a b Ohala 1997, p. 1.
  49. ^ Chomsky & Halle 1968, S. 300–301.
  50. ^ Altmann 2002.
  51. ^ a b Löfqvist 2010, p. 359.
  52. ^ Munhall, Ostry & Flanagan 1991, p. 299, ff.
  53. ^ Löfqvist 2010, p. 360.
  54. ^ Bizzi et al. 1992.
  55. ^ Löfqvist 2010, p. 361.
  56. ^ Saltzman & Munhall 1989.
  57. ^ Mattingly 1990.
  58. ^ Löfqvist 2010, S. 362–4.
  59. ^ Löfqvist 2010, p. 364.
  60. ^ a b Gordon & Ladefoged 2001.
  61. ^ Gobl & Ní Chasaide 2010, p. 399.
  62. ^ Gobl & Ní Chasaide 2010, p. 400-401.
  63. ^ Gobl & Ní Chasaide 2010, p. 401.
  64. ^ a b Dawson & Phelan 2016.
  65. ^ Gobl & Ní Chasaide 2010, S. 388, ff.
  66. ^ Ladefoged & Maddieson 1996, p. 282.
  67. ^ Lodge 2009, p. 39.
  68. ^ Chomsky & Halle 1968.
  69. ^ Ladefoged & Maddieson 1996, p. 289.
  70. ^ Ladefoged & Maddieson 1996, p. 290.
  71. ^ Ladefoged & Maddieson 1996, p. 292-295.
  72. ^ Lodge 2009, p. 40.
  73. ^ Ladefoged & Maddieson 1996, p. 298.
  74. ^ a b c Ladefoged & Johnson 2011, p. 14.
  75. ^ Ladefoged & Johnson 2011, p. 67.
  76. ^ Ladefoged & Maddieson 1996, p. 145.
  77. ^ a b c Ladefoged & Johnson 2011, p. fünfzehn.
  78. ^ Ladefoged & Maddieson 1996, p. 102.
  79. ^ Ladefoged & Maddieson 1996, p. 182.
  80. ^ a b Ladefoged & Johnson 2011, p. 175.
  81. ^ Ladefoged & Maddieson 1996, p. 217.
  82. ^ Ladefoged & Maddieson 1996, p. 218.
  83. ^ Ladefoged & Maddieson 1996, p. 230-231.
  84. ^ Ladefoged & Johnson 2011, p. 137.
  85. ^ Ladefoged & Maddieson 1996, p. 78.
  86. ^ Ladefoged & Maddieson 1996, p. 246-247.
  87. ^ a b Ladefoged 2001, p. 1.
  88. ^ Eklund 2008, p. 237.
  89. ^ Eklund 2008.
  90. ^ Seikel, Drumright & King 2016, p. 176.
  91. ^ Seikel, Drumright & King 2016, p. 171.
  92. ^ Seikel, Drumright & King 2016, S. 168–77.
  93. ^ Johnson 2008, p. 83–5.
  94. ^ Johnson 2008, p. 104–5.
  95. ^ Johnson 2008, p. 157.
  96. ^ Sedivy 2019, p. 259–60.
  97. ^ Sedivy 2019, p. 269.
  98. ^ Sedivy 2019, p. 273.
  99. ^ Sedivy 2019, p. 259.
  100. ^ Sedivy 2019, p. 260.
  101. ^ Sedivy 2019, p. 274–85.
  102. ^ Johnson 2003, p. 46–7.
  103. ^ Johnson 2003, p. 47.
  104. ^ Schacter, Gilbert & Wegner 2011, p. 158–9.
  105. ^ Yost 2003, p. 130.
  106. ^ Cutler 2005.
  107. ^ Sedivy 2019, p. 289.
  108. ^ a b Galantucci, Fowler & Turvey 2006.
  109. ^ Sedivy 2019, p. 292–3.
  110. ^ Skipper, Devlin & Lametti 2017.
  111. ^ a b Goldinger 1996.
  112. ^ Johnson 2003, p. 1.
  113. ^ Johnson 2003, p. 46-49.
  114. ^ Johnson 2003, p. 53.
  115. ^ Ladefoged & Maddieson 1996, p. 281.
  116. ^ Gussenhoven & Jacobs 2017, p. 26-27.
  117. ^ Lodge 2009, p. 38.
  118. ^ a b O'Grady 2005, p. 17.
  119. ^ International Phonetic Association 1999.
  120. ^ a b Ladefoged 2005.
  121. ^ Ladefoged & Maddieson 1996.
  122. ^ Baker et al. 2016, p. 242-244.
  123. ^ a b c Baker et al. 2016, p. 229-235.
  124. ^ Baker et al. 2016, p. 236.
  125. ^ Baker et al. 2016, p. 286.
  126. ^ Baker et al. 2016, p. 239.

Werke zitiert

  • Abercrombie, D. (1967). Elemente der allgemeinen Phonetik. Edinburgh: Chicago, Aldine Pub. Co.
  • Altmann, Gerry (2002). Psycholinguistik: Kritische Konzepte in der Psychologie. London: Routledge. ISBN 978-0415229906. OCLC 48014482.
  • Baker, Anne; Van den Bogaerde, Beppie; Pfau, Roland; Schermer, Trude (2016). Die Sprachwissenschaft von Gebärdensprachen. Amsterdam/Philadelphia: John Benjamins Publishing Company. ISBN 978-90-272-1230-6.
  • Baumbach, E. J. M. (1987). Analytische Tsonga -Grammatik. Pretoria: Universität von Südafrika.
  • Bizzi, E.; Hogan, N.; Mussa-Volumen, F.; Giszter, S. (1992). "Verwendet das Nervensystem Gleichgewichtskontrolle, um einzelne und mehrere Gelenkbewegungen zu leiten?". Verhaltens- und Gehirnwissenschaften. 15 (4): 603–13. doi:10.1017/s0140525x00072538. PMID 23302290.
  • Bock, Kathryn; Levelt, Willem (2002). Atlmann, Gerry (Hrsg.). Psycholinguistik: Kritische Konzepte in der Psychologie. Vol. 5. New York: Routledge. S. 405–407. ISBN 978-0-415-26701-4.
  • Boersma, Paul (1998). Funktionelle Phonologie: Formalisierung der Wechselwirkungen zwischen artikulierender und Wahrnehmungsfahrten. Den Haag: Holland Academic Grafics. ISBN 9055690546. OCLC 40563066.
  • Caffrey, Cait (2017). "Phonetik". Salem Press Encyclopedia. Salem Press.
  • Catford, J. C. (2001). Eine praktische Einführung in die Phonetik (2. Aufl.). Oxford University Press. ISBN 978-0-19-924635-9.
  • Chomsky, Noam; Halle, Morris (1968). Schallmuster des Englischen. Harper und Reihe.
  • Cutler, Anne (2005). "Lexikalischer Stress" (PDF). In Pisoni, David B.; Remez, Robert (Hrsg.). Das Handbuch der Sprachwahrnehmung. Blackwell. S. 264–289. doi:10.1002/9780470757024.Ch11. ISBN 978-0-631-22927-8. OCLC 749782145. Abgerufen 2019-12-29.
  • Dawson, Hoffnung; Phelan, Michael, Hrsg. (2016). Sprachdateien: Materialien für eine Einführung in die Linguistik (12. Aufl.). Die Ohio State University Press. ISBN 978-0-8142-5270-3.
  • Dell, Gary; O'Seaghdha, Padraig (1992). "Phasen des lexikalischen Zugangs in der Sprachproduktion". Erkenntnis. 42 (1–3): 287–314. doi:10.1016/0010-0277 (92) 90046-k. PMID 1582160. S2CID 37962027.
  • Dell, Gary; Reich, Peter (1981). "Stufen in der Satzproduktion: Eine Analyse von Sprachfehlerdaten". Journal of Memory and Language. 20 (6): 611–629. doi:10.1016/s0022-5371 (81) 90202-4.
  • Toke, Clement M (1926). Die Phonetik der Zulu -Sprache. Bantu -Studien. Johannesburg: Wiwatersrand University Press.
  • Eklund, Robert (2008). "Pulmonische Eindringungsphonation: Diachrische und synchronische Eigenschaften, Verteilung und Funktion in der Produktion tierischer und menschlicher Klangproduktion und menschlicher Sprache". Journal of the International Phonetic Association. 38 (3): 235–324. doi:10.1017/s0025100308003563. S2CID 146616135.
  • Feldman, Anatol G. (1966). "Funktionales Tuning des Nervensystems unter Kontrolle der Bewegung oder Wartung einer stetigen Haltung, III: Mechanografische Analyse der Ausführung durch den Menschen der einfachsten motorischen Aufgabe". Biophysik. 11: 565–578.
  • Fujimura, Osamu (1961). "Bilabial Stop und Nasenkonsonanten: Eine Filmstudie und ihre akustischen Implikationen". Journal of Speech and Hearing Research. 4 (3): 233–47. doi:10.1044/jshr.0403.233. PMID 13702471.
  • Galantucci, Bruno; Fowler, Carol; Turvey, Michael (2006). "Die motorische Theorie der Sprachwahrnehmung überprüft". Psychonomisches Bulletin & Review. 13 (3): 361–377. doi:10.3758/bf03193857. PMC 2746041. PMID 17048719.
  • Gleitman, Lila; Januar, David; Nappa, Rebecca; Treeswell, John (2007). "Über das Geben und Nehmen zwischen Ereignis und Äußerungsformulierung". Journal of Memory and Language. 57 (4): 544–569. doi:10.1016/j.jml.2007.01.007. PMC 2151743. PMID 18978929.
  • Gobl, Christer; Ní Chasaide, Ailbhe (2010). "Sprachquellenvariation und ihre kommunikativen Funktionen". Das Handbuch der phonetischen Wissenschaften (2. Aufl.). S. 378–424.
  • Goldinger, Stephen (1996). "Wörter und Stimmen: episodische Spuren in der Identifizierung und Erkennungsgedächtnis von gesprochenem Wort". Journal of Experimental Psychology: Lernen, Gedächtnis und Erkenntnis. 22 (5): 1166–83. doi:10.1037/0278-7393.22.5.1166. PMID 8926483.
  • Gordon, Matthew; Ladefoged, Peter (2001). "Phonationstypen: Eine Übersicht über Linguistische". Journal of Phonetics. 29 (4): 383–406. doi:10.1006/jpho.2001.0147.
  • Guthrie, Malcolm (1948). Die Klassifizierung der Bantu -Sprachen. London: Oxford University Press.
  • Gussenhoven, Carlos; Jacobs, Haike (2017). Phonologie verstehen (Viertes Ausgabe). London und New York: Routledge. ISBN 9781138961418. OCLC 958066102.
  • Hall, Tracy Alan (2001). "Einführung: Phonologische Darstellungen und phonetische Umsetzung von charakteristischen Merkmalen". In Hall, Tracy Alan (Hrsg.). Besonderes Merkmalstheorie. de Gruyter. S. 1–40.
  • Halle, Morris (1983). "Über unverwechselbare Merkmale und ihre artikulierende Implementierung". Natürliche Sprache und sprachliche Theorie. 1 (1): 91–105. doi:10.1007/bf00210377. S2CID 170466631.
  • Hardcastle, William; Laver, John; Gibbon, Fiona, Hrsg. (2010). Das Handbuch der phonetischen Wissenschaften (2. Aufl.). Wiley-Blackwell. ISBN 978-1-405-14590-9.
  • International Phonetic Association (1999). Handbuch der International Phonetic Association. Cambridge University Press.
  • International Phonetic Association (2015). Internationales Phonetisches Alphabet. Internationale phonetische Vereinigung.
  • Jaeger, Florian; Außerdem Katrina; Hilliard, Caitlin (2012). "Phonologische Überlappung beeinflusst die lexikalische Selektion während der Satzproduktion". Journal of Experimental Psychology: Lernen, Gedächtnis und Erkenntnis. 38 (5): 1439–1449. doi:10.1037/a0027862. PMID 22468803.
  • Jakobson, Roman; Fant, Gunnar; Halle, Morris (1976). Vorrunden zur Sprachanalyse: Die charakteristischen Merkmale und ihre Korrelate. MIT Press. ISBN 978-0-262-60001-9.
  • Johnson, Keith (2003). Akustische und auditive Phonetik (2. Aufl.). Blackwell Pub. ISBN 1405101229. OCLC 50198698.
  • Johnson, Keith (2011). Akustische und auditive Phonetik (3. Aufl.). Wiley-Blackwell. ISBN 978-1-444-34308-3.
  • Jones, Daniel (1948). "Die London School of Phonetics". Zeitschrift für Phonetik. 11 (3/4): 127–135. (Nachgedruckt Jones, W. E.; Laver, J., Hrsg. (1973). Phonetik in der Linguistik. Longman. S. 180–186.)
  • Keating, Patricia; Lahiri, Aditi (1993). "Front -Velars, palatalisierte Velare und Palatale". Phonetica. 50 (2): 73–101. doi:10.1159/000261928. PMID 8316582. S2CID 3272781.
  • Kingston, John (2007). "Die Phonetik-Phonologie-Schnittstelle". In Delacy, Paul (Hrsg.). Das Cambridge -Handbuch der Phonologie. Cambridge University Press. ISBN 978-0-521-84879-4.
  • Kiparsky, Paul (1993). "Pāṇinian Linguistics". In Asher, R.E. (ed.). Enzyklopädie von Sprachen und Linguistik. Oxford: Pergamon.
  • Ladefoged, Peter (1960). "Der Wert phonetischer Aussagen". Sprache. 36 (3): 387–96. doi:10.2307/410966. JStor 410966.
  • Ladefoged, Peter (2001). Ein Kurs in Phonetik (4. Aufl.). Boston: Thomson/Wadsworth. ISBN 978-1-413-00688-9.
  • Ladefoged, Peter (2005). Ein Kurs in Phonetik (5. Aufl.). Boston: Thomson/Wadsworth. ISBN 978-1-413-00688-9.
  • Ladefoged, Peter; Johnson, Keith (2011). Ein Kurs in Phonetik (6. Aufl.). Wadsworth. ISBN 978-1-42823126-9.
  • Ladefoged, Peter; Maddieson, Ian (1996). Die Klänge der Weltsprachen der Welt. Oxford: Blackwell. ISBN 978-0-631-19815-4.
  • Levelt, Willem (1999). "Eine Theorie des lexikalischen Zugangs in der Sprachproduktion". Verhaltens- und Gehirnwissenschaften. 22 (1): 3–6. doi:10.1017/s0140525x99001776. HDL:11858/00-001M-0000-0013-3E7A-A. PMID 11301520. S2CID 152230066.
  • Lodge, Ken (2009). Eine kritische Einführung in die Phonetik. New York: Continuum International Publishing Group. ISBN 978-0-8264-8873-2.
  • Löfqvist, Anders (2010). "Theorien und Modelle der Sprachproduktion". Handbuch der phonetischen Wissenschaften (2. Aufl.). S. 353–78.
  • Maddieson, Ian (1993). "Untersuchung von Ewe Artikulationen mit elektromagnetischer Artikulographie". Forschungberichte des Intituts für Phonetik und Sprachliche Kommunikation der Universität München. 31: 181–214.
  • Maddieson, Ian (2013). "Uvulare Konsonanten". Im Trockner Matthew S.; Haspelmath, Martin (Hrsg.). Der Weltatlas von Sprachstrukturen online. Leipzig: Max -Planck -Institut für evolutionäre Anthropologie.
  • Mattingly, Ignatius (1990). "Der globale Charakter der phonetischen Gesten" (PDF). Journal of Phonetics. 18 (3): 445–52. doi:10.1016/s0095-4470 (19) 30372-9.
  • Motley, Michael; Camden, Carl; Baars, Bernard (1982). "Verdeckte Formulierung und Bearbeitung von Anomalien in der Sprachproduktion: Beweise aus experimentell ausgelösten Zungenschuppen". Journal für verbales Lernen und verbales Verhalten. 21 (5): 578–594. doi:10.1016/s0022-5371 (82) 90791-5.
  • Munhall, K.; Ostry, d; Flanagan, J. (1991). "Koordinatenräume in der Sprachplanung". Journal of Phonetics. 19 (3–4): 293–307. doi:10.1016/s0095-4470 (19) 30346-8.
  • O'Connor, J. D. (1973). Phonetik. Pelikan. S. 16–17. ISBN 978-0140215601.
  • O'Grady, William (2005). Zeitgenössische Sprachwissenschaft: Eine Einführung (5. Aufl.). Bedford/st. Martin. ISBN 978-0-312-41936-3.
  • Ohala, John (1997). "Aerodynamik der Phonologie". Proceedings der Seoul International Conference on Linguistics. 92.
  • "Phonetik, n.". Oxford English Dictionary online. Oxford University Press. 2018.
  • Roach, Peter (2015). "Praktisches phonetisches Training". Peter Roach. Abgerufen 10. Mai 2019.
  • Saltzman, Elliot; Munhall, Kevin (1989). "Dynamischer Ansatz zur Gestikmuster in der Sprachproduktion" (PDF). Ökologische Psychologie. 1 (4): 333–82. doi:10.1207/s15326969eco0104_2.
  • Scatton, Ernest (1984). Eine Referenz Grammatik des modernen bulgarischen. Slavica. ISBN 978-0893571238.
  • Schacter, Daniel; Gilbert, Daniel; Wegner, Daniel (2011). "Empfindung und Wahrnehmung". In Charles Linsmeiser (Hrsg.). Psychologie. Verlage wert. ISBN 978-1-4292-3719-2.
  • Schiller, Niels; Bles, Mart; Jansma, Bernadette (2003). "Verfolgung des zeitlichen Verlaufs der phonologischen Codierung in der Sprachproduktion: eine ereignisbezogene Hirnpotentialstudie". Kognitive Gehirnforschung. 17 (3): 819–831. doi:10.1016/s0926-6410 (03) 00204-0. HDL:11858/00-001M-0000-0013-17B1-A. PMID 14561465.
  • Sedivy, Julie (2019). Sprache im Auge: Eine Einführung in die Psycholinguistik (2. Aufl.). ISBN 978-1605357058.
  • Seikel, J. Anthony; Drumright, David; King, Douglas (2016). Anatomie und Physiologie für Sprache, Sprache und Hören (5. Aufl.). Cengage. ISBN 978-1-285-19824-8.
  • Skipper, Jeremy;Devlin, Joseph;Lametti, Daniel (2017). "Das hörende Ohr befindet sich immer in der Nähe der sprechenden Sprache: Überprüfung der Rolle des motorischen Systems in der Sprachwahrnehmung". Brain and Language. 164: 77–105. doi:10.1016/j.bandl.2016.10.004. PMID 27821280.
  • Stearns, Peter;Adas, Michael;Schwartz, Stuart;Gilbert, Marc Jason (2001). Weltzivilisationen (3. Aufl.).New York: Longman. ISBN 978-0-321-04479-2.
  • Trask, R.L. (1996). Ein Wörterbuch für Phonetik und Phonologie. Abingdon: Routledge. ISBN 978-0-415-11261-1.
  • Yost, William (2003). "Vorsprechen".In Alice F. Healy;Robert W. Proctor (Hrsg.). Handbuch der Psychologie: Experimentelle Psychologie.John Wiley und Söhne.p.130. ISBN 978-0-471-39262-0.

Externe Links