Computerlinguistik

Computerlinguistik ist ein interdisziplinär Feld besorgt mit dem Computermodellierung von Natürliche Sprachesowie die Untersuchung geeigneter rechnerischer Ansätze zu sprachlichen Fragen. Im Allgemeinen stützt sich die rechnerische Sprachwissenschaft auf Linguistik, Informatik, künstliche Intelligenz, Mathematik, Logik, Philosophie, Kognitionswissenschaft, kognitive Psychologie, Psycholinguistik, Anthropologie und Neurowissenschaften, unter anderen.

Unterfelder und verwandte Bereiche

Traditionell entstanden die Computersprachlerin als Gebiet von künstliche Intelligenz durchgeführt von Informatiker die sich auf die Anwendung von Computern auf die Verarbeitung von a spezialisiert hatten Natürliche Sprache. Mit der Bildung der Assoziation für Computer -Linguistik (ACL)[1] und die Gründung der Independent Conference Series, das Feld in den 1970er und 1980er Jahren konsolidiert.

Der Association for Computational Linguistics definiert die Computational Linguistics als:

... die wissenschaftliche Studie von Sprache Aus rechnerischer Perspektive. Computerlinguisten sind an der Bereitstellung interessiert Computermodelle von verschiedenen Arten von sprachlichen Phänomenen.[2]

Der Begriff "Computational Linguistics" wird heutzutage (2020) als nahezu Synonym von angesehen Verarbeitung natürlicher Sprache (NLP) und (menschliche) Sprachtechnologie. Diese Begriffe legen einen stärkeren Schwerpunkt auf Aspekte praktischer Anwendungen als auf theoretische Untersuchungen und seit den 2000er Jahren. In der Praxis haben sie den Begriff "rechnerische Linguistik" in der NLP/ACL -Community weitgehend ersetzt.[3] Obwohl sie sich ausdrücklich auf das Unterfeld der angewandten Computersprunguistik beziehen.

Die Computer -Linguistik hat sowohl theoretische als auch angewandte Komponenten. Die theoretische rechnerische Linguistik konzentriert sich auf Themen in Theoretische Sprachwissenschaft und kognitive Wissenschaft.[4] Applied Computational Linguistics konzentriert sich auf das praktische Ergebnis der Modellierung menschlicher Sprache.[4]

Theoretische rechnerische Linguistik beinhaltet die Entwicklung formaler Theorien von Grammatik (Parsing) und Semantikoft geerdet in formelle Logik und symbolisch (Wissensbasiert) Ansätze. Zu den Forschungsbereichen, die durch theoretische Computersprachen untersucht werden, gehören:

Angewandte Computersprachlie wird dominiert von maschinelles Lernentraditionell verwenden statistische Methodenseit Mitte der 2010er Jahre von Neuronale Netze: Socker et al. (2012)[5] war früh Tiefes Lernen Tutorial bei der ACL 2012 und traf sich sowohl von Interesse als auch (damals) Skepsis der meisten Teilnehmer. Bis dahin wurde das neuronale Lernen im Grunde genommen aufgrund seiner mangelnden statistischen Interpretierbarkeit abgelehnt. Bis 2015 hatte sich Deep Learning zu dem Hauptrahmen von NLP entwickelt. Wie für die von Applied Computational Linguistics angesprochenen Aufgaben siehe Verarbeitung natürlicher Sprache Artikel. Dies beinhaltet klassische Probleme wie das Design von Pos-taggers (Teil der Speech-Tagger), Parser zum natürliche Sprachen, oder Aufgaben wie z. Maschinenübersetzung (MT) Die Unterabteilung von Computersprachlingen, die sich mit Computern befassen, die zwischen den Sprachen übersetzt werden. Als eine der frühesten und schwierigsten Anwendungen der Computational Linguistics stützt sich MT auf viele Teilfelder und sowohl theoretische als auch angewandte Aspekte. Traditionell wurde die automatische Sprachübersetzung als notorisch harte Zweig der Computersprunguistik angesehen.[6]

Abgesehen von der Dichotomie zwischen theoretischen und angewandten Computersprachlienistik gibt es andere Berechnungsabteilungen in wichtige Bereiche nach verschiedenen Kriterien, darunter:

  • Mittel von der Sprache verarbeitet, ob gesprochen oder Text: Spracherkennung und Sprachsynthese Behandeln Sie mit der Verständnis oder Erstellung der gesprochenen Sprache mit Computern.
  • Aufgabe durchgeführt werden, z. B. Analyse der Sprache (Erkennung) oder Synthese der Sprache (Generation): Parsing und Generation sind Unterabteilungen der Computer-Linguistik, die jeweils die Sprache auseinander nehmen und sie zusammenstellen.

Traditionell wurden Anwendungen von Computern zur Behebung von Forschungsproblemen in anderen Zweige der Linguistik als Aufgaben innerhalb der Computer -Linguistik beschrieben. Dies schließt unter anderem ein

Ursprünge

Computerlinguistik wird häufig im Bereich von gruppiert künstliche Intelligenz war aber vor der Entwicklung künstlicher Intelligenz anwesend. Die Computer -Linguistik entstand in den 1950er Jahren in den USA, um Computer automatisch aus Fremdsprachen, insbesondere russischen wissenschaftlichen Zeitschriften, in Englisch zu übersetzen.[9] Da können Computer machen Arithmetik (systematische) Berechnungen viel schneller und genauer als Menschen, es wurde angenommen, dass es nur eine kurze Zeit ist, bevor sie auch die Sprache verarbeiten konnten.[10] Rechen- und quantitative Methoden werden historisch auch in der versuchten Rekonstruktion früherer Formen moderner Sprachen und der Untergruppen moderner Sprachen in Sprachfamilien verwendet. Frühere Methoden wie z. Lexikostatistik und Glottochronologie, haben sich als verfrüht und ungenau erwiesen. Jüngste interdisziplinäre Studien, die insbesondere Konzepte aus biologischen Studien ausleihen Gen Mapping, haben sich erwiesen, um ausgefeiltere analytische Tools und zuverlässigere Ergebnisse zu erzielen.[11]

Wann Maschinenübersetzung (Auch als mechanische Übersetzung bezeichnet) konnten nicht sofort genaue Übersetzungen ergeben. Die automatische Verarbeitung menschlicher Sprachen wurde so weit komplexer als ursprünglich angenommen. Computerlinguistik wurde als Name des neuen Studienfelds geboren, der sich der Entwicklung gewidmet hat Algorithmen und Software zur intelligenten Verarbeitung von Sprachdaten. Der Begriff "Computerlinguistik" selbst wurde zuerst von geprägt von David Hays, ein Gründungsmitglied beides Assoziation für Computational Linguistics (ACL) und die Internationaler Komitee für Computer -Linguistik (ICCL).[12]

Um eine Sprache in eine andere zu übersetzen, wurde beobachtet, dass man das verstehen musste Grammatik von beiden Sprachen, einschließlich beides Morphologie (die Grammatik der Wortformen) und Syntax (die Grammatik der Satzstruktur). Um Syntax zu verstehen, musste man auch verstehen Semantik und die Lexikon (oder 'Vokabular') und sogar etwas von der Pragmatik der Sprachgebrauch. Was als Versuch begann, sich zwischen Sprachen zu übersetzen, entwickelte sich zu einer gesamten Disziplin, die dem Verständnis der Repräsentation und der Verarbeitung natürlicher Sprachen mit Computern widmete.[13]

Heutzutage erfolgt die Forschung im Rahmen der Computational Linguistics bei Computational Linguistics Abteilungen,[14] Computational Linguistics Laboratories,[15] Informatik Abteilungen,[16] und Linguistikabteilungen.[17][18] Einige Forschungsarbeiten im Bereich der Computer-Linguistik zielen darauf ab, Arbeitssprach- oder Textverarbeitungssysteme zu erstellen, während andere ein System schaffen, das die Interaktion zwischen Menschen und Maschinen ermöglicht. Programme, die für die Kommunikation zwischen Mensch und Maschine bestimmt sind, werden genannt Gesprächsmittel.[19]

Ansätze

Genauso wie die Computer -Sprachwissenschaft von Experten in verschiedenen Bereichen und durch eine breite Auswahl an Abteilungen durchgeführt werden kann, können auch die Forschungsfelder eine Vielzahl von Themen ansprechen. In den folgenden Abschnitten werden einige der Literatur erörtert, die im gesamten Feld in vier Hauptbereiche des Diskurses verfügbar sind: Entwicklungslinguistik, strukturelle Linguistik, sprachliche Produktion und sprachliches Verständnis.

Entwicklungsansätze

Sprache ist eine kognitive Fähigkeit, die sich während des gesamten Lebens eines Individuums entwickelt. Dieser Entwicklungsprozess wurde unter Verwendung verschiedener Techniken untersucht, und ein rechnerischer Ansatz ist einer davon. Menschlich Sprachentwicklung Liefert einige Einschränkungen, die es schwieriger machen, eine Rechenmethode anzuwenden, um sie zu verstehen. Zum Beispiel während Spracherwerbmenschliche Kinder sind größtenteils nur positive Beweise ausgesetzt.[20] Dies bedeutet, dass während der sprachlichen Entwicklung eines Individuums der einzige Beweis für eine korrekte Form vorliegt und keine Beweise für das, was nicht korrekt ist. Dies sind unzureichende Informationen für ein einfaches Hypothesentestverfahren für Informationen, die als Sprache komplex sind.[21] und liefert daher bestimmte Grenzen für einen rechnerischen Ansatz zur Modellierung der Sprachentwicklung und -aufnahme bei einer Person.

Es wurden Versuche unternommen, den Entwicklungsprozess des Spracherwerbs bei Kindern aus einem Rechenwinkel zu modellieren, was zu beiden führt Statistische Grammatiken und Verbindungsleitungsmodelle.[22] Die Arbeit in diesem Bereich wurde auch als Methode vorgeschlagen, um die zu erklären Entwicklung der Sprache durch Geschichte. Unter Verwendung von Modellen wurde gezeigt, dass Sprachen mit einer Kombination von einfachen Eingaben gelernt werden können, die inkrementell dargestellt werden, wenn das Kind einen besseren Speicher und eine längere Aufmerksamkeitsspanne entwickelt.[23] Dies wurde gleichzeitig als Grund für die lange Entwicklungsperiode menschlicher Kinder ausgewiesen.[23] Beide Schlussfolgerungen wurden aufgrund der Stärke der Stärke gezogen künstliche neuronale Netz was das Projekt erstellt hat.

Die Fähigkeit von Säuglingen, die Sprache zu entwickeln, wurde auch mit Robotern modelliert[24] um sprachliche Theorien zu testen. Ermöglicht, wie Kinder zu lernen, wurde ein Modell basierend auf einem erstellt Gewehr Modell, in dem die Zuordnungen zwischen Aktionen, Wahrnehmungen und Effekten erstellt und mit gesprochenen Wörtern verbunden wurden. Entscheidend war, dass diese Roboter funktionierende Wort-zu-Mitteln erwerben, ohne grammatikalische Struktur zu benötigen, um den Lernprozess erheblich zu vereinfachen und Informationen auf Informationen zu werfen, was das aktuelle Verständnis der sprachlichen Entwicklung fördert. Es ist wichtig zu beachten, dass diese Informationen nur empirisch unter Verwendung eines rechnerischen Ansatzes getestet werden können.

Als unser Verständnis der sprachlichen Entwicklung eines Individuums innerhalb eines Lebens verbessert Robotersysteme lernenEs ist auch wichtig zu berücksichtigen, dass sich die Sprachen selbst im Laufe der Zeit ändern und entwickeln. Rechenansätze zum Verständnis dieses Phänomens haben sehr interessante Informationen entdeckt. Verwendung der Preisgleichung und Pólya Urne Dynamik, Forscher haben ein System geschaffen, das nicht nur die zukünftige sprachliche Evolution vorhersagt, sondern auch Einblick in die evolutionäre Geschichte der heutigen Sprachen gibt.[25] Diese Modellierungsanstrengung erreichte durch die Computersprachlieistik, was sonst unmöglich gewesen wäre.

Es ist klar, dass das Verständnis der sprachlichen Entwicklung beim Menschen sowie in der gesamten evolutionären Zeit aufgrund von Fortschritten in der Computersprachistik fantastisch verbessert wurde. Die Fähigkeit, Systeme an zu modellieren und zu modifizieren, ermöglicht der Wissenschaft eine ethische Methode zum Testen von Hypothesen, die ansonsten unerbittlich wäre.

Strukturelle Ansätze

Um bessere Rechenmodelle der Sprache zu erstellen, ist ein Verständnis der Struktur der Sprache von entscheidender Bedeutung. Zu diesem Zweck die Englische Sprache wurde sorgfältig unter Verwendung von rechnerischen Ansätzen untersucht, um besser zu verstehen, wie die Sprache auf struktureller Ebene funktioniert. Eines der wichtigsten Teile, die die sprachliche Struktur untersuchen können, ist die Verfügbarkeit großer sprachlicher Korpora oder Stichproben. Dies gewährt Computer -Linguisten die Rohdaten, die für die Ausführung ihrer Modelle erforderlich sind und die zugrunde liegenden Strukturen in der enormen Datenmenge, die in jeder Sprache enthalten sind, besser verstehen. Eine der am häufigsten zitierten englischen sprachlichen Korpora ist der Penn Baumbank.[26] Aus diesem Korpus stammt aus weit verbreiteten Quellen wie IBM-Computerhandbüchern und transkribierten Telefongesprächen und enthält über 4,5 Millionen Wörter amerikanischer Englisch. Dieser Korpus wurde in erster Linie mit Verwendung von Anmerkungen versehen Teil der Rede Tagging und syntaktische Klammern und haben zu erheblichen empirischen Beobachtungen im Zusammenhang mit der Sprachstruktur.[27]

Es wurden auch theoretische Ansätze zur Struktur von Sprachen entwickelt. Diese Arbeiten ermöglichen es Computational Linguistics, einen Rahmen zu haben, in dem Hypothesen erarbeiten können, das das Verständnis der Sprache auf eine Vielzahl von Arten fördert. Eine der ursprünglichen theoretischen Thesen bei der Internalisierung von Grammatik und Struktur der Sprache schlug zwei Arten von Modellen vor.[21] In diesen Modellen, Regeln oder Muster erlernte, die Stärke mit der Häufigkeit ihrer Begegnung erhöht.[21] Die Arbeit hat auch eine Frage für Computational-Linguisten zur Beantwortung: Wie lernt ein Kind eine bestimmte und nicht normale Grammatik?Chomsky Normale Form) ohne eine übergeneralisierte Version zu lernen und stecken zu bleiben?[21] Theoretische Bemühungen wie diese sind die Richtung, in der die Forschung früh in der Lebensdauer eines Studienbereichs verläuft, und sind entscheidend für das Wachstum des Feldes.

Strukturelle Informationen über Sprachen ermöglichen die Entdeckung und Implementierung der Ähnlichkeitserkennung zwischen Textpaaren.[28] Zum Beispiel wurde kürzlich nachgewiesen, dass auf der Grundlage der strukturellen Informationen, die in Mustern des menschlichen Diskurses vorhanden sind, konzeptionell Rezidivdiagramme Kann verwendet werden, um Trends in Daten zu modellieren und zu visualisieren und zuverlässige Messungen der Ähnlichkeit zwischen natürlichen textuellen Äußerungen zu erzeugen.[28] Diese Technik ist ein starkes Werkzeug, um die Struktur des Menschen weiter zu untersuchen Diskurs. Ohne den rechnerischen Ansatz für diese Frage wären die in den Diskursdaten vorhandenen sehr komplexen Informationen für Wissenschaftler unzugänglich geblieben.

Informationen zu den strukturellen Daten einer Sprache sind für die verfügbar Englisch sowie andere Sprachen, wie z. japanisch.[29] Unter Verwendung von Rechenmethoden wurden japanische Satzkorpora analysiert und ein Muster von Protokoll-Normalität wurde in Bezug auf die Satzlänge gefunden.[29] Obwohl die genaue Ursache für diese logarithmische Anomalie unbekannt bleibt, sind genau diese Art von Informationen, die die Computer -Linguistik aufdecken soll. Diese Informationen könnten zu weiteren wichtigen Entdeckungen in Bezug auf die zugrunde liegende Struktur des Japanisch führen und eine Reihe von Auswirkungen auf das Verständnis von Japanisch als Sprache haben. Die Computer -Linguistik ermöglicht sehr aufregende Ergänzungen der wissenschaftlichen Wissensbasis schnell und mit sehr wenig Raum für Zweifel.

Ohne einen rechnerischen Ansatz zur Struktur sprachlicher Daten wären ein Großteil der verfügbaren Informationen, die jetzt verfügbar sind, noch unter der Weite der Daten innerhalb einer einzelnen Sprache versteckt. Die Computer -Linguistik ermöglicht es Wissenschaftlern, enorme Datenmengen zuverlässig und effizient zu analysieren und die Möglichkeit für Entdeckungen zu schaffen, die im Gegensatz zu allen anderen Ansätzen gesehen werden.

Produktionsansätze

Das Produktion von Sprache ist ebenso komplex in den von ihm bereitgestellten Informationen und den erforderlichen Fähigkeiten, die ein fließender Hersteller haben muss. Das heißt, Verständnis ist nur die Hälfte des Kommunikationsproblems. Die andere Hälfte ist, wie ein System Sprache erzeugt, und die Computer -Linguistik hat in diesem Bereich interessante Entdeckungen gemacht.

Alan Turing: Informatiker und Namensgeberentwickler der Turing-Test als Methode zur Messung der Intelligenz einer Maschine

In einer jetzt berühmten Zeitung, die 1950 veröffentlicht wurde Alan Turing schlug die Möglichkeit vor, dass Maschinen eines Tages die Fähigkeit haben könnten, "zu denken". Als ein Gedankenexperiment Für das, was das Konzept des Denkens in Maschinen definieren könnte, schlug er einen "Nachahmungstest" vor, bei dem ein menschliches Subjekt nur zwei Textgespräche führt, eines mit einem anderen Menschen und einer mit einer Maschine, die versucht, wie ein Mensch zu reagieren. Turing schlägt vor, dass, wenn das Subjekt den Unterschied zwischen dem Menschen und der Maschine nicht erkennen kann, der Schluss gezogen werden kann, dass die Maschine überdenken kann.[30] Heute ist dieser Test als der bekannt Turing-Test und es bleibt eine einflussreiche Idee im Bereich der künstlichen Intelligenz.

Joseph Weizenbaum: früher, vormalig MIT Professor und Informatiker, der sich entwickelte Eliza, ein primitives Computerprogramm, das verwendet Verarbeitung natürlicher Sprache.

Eines der frühesten und bekanntesten Beispiele eines Computerprogramms, das auf natürliche Weise mit dem Menschen unterwegs ist, ist die Eliza Programm entwickelt von Joseph Weizenbaum bei MIT im Jahr 1966. Das Programm emulierte a Rogerian Psychotherapeut Bei der Beantwortung schriftlicher Aussagen und Fragen, die von einem Benutzer gestellt wurden. Es schien in der Lage zu sein, zu verstehen, was dazu gesagt wurde, und intelligent zu reagieren, aber in Wahrheit folgte es einfach einer Muster -Matching -Routine, die sich nur auf ein paar Schlüsselwörter in jedem Satz stützte. Die Reaktionen wurden durch Rekombination der unbekannten Teile des Satzes um richtig übersetzte Versionen der bekannten Wörter erzeugt. Zum Beispiel, in der Phrase "Es scheint, dass du mich hasst" versteht Eliza "du" und "Ich", das dem allgemeinen Muster "Du [einige Wörter] mich] entspricht und Eliza erlaubt, die Wörter" du "und" ich "zu aktualisieren, Zu "Ich" und "du" und antworten "Was lässt dich denken, ich hasse dich?". In diesem Beispiel hat Eliza kein Verständnis des Wortes "Hass", aber es ist nicht für eine logische Reaktion im Kontext dieser Art von Psychotherapie erforderlich.[31]

Einige Projekte versuchen immer noch, das Problem zu lösen, das zuerst die Computerlinguistik als Fachgebiet begann. Methoden sind jedoch raffinierter geworden, und folglich sind die Ergebnisse von rechnerischen Linguisten aufschlussreicher geworden. Verbessern ComputerübersetzungEs wurden mehrere Modelle verglichen, einschließlich Versteckte Markov -Modelle, Glättungstechniken und die spezifischen Verfeinerungen derjenigen, um sie auf Verbsübersetzung anzuwenden.[32] Das Modell, das die natürlichsten Übersetzungen von erzeugt wurde Deutsch und Französisch Words war ein raffiniertes Ausrichtungsmodell mit Abhängigkeit erster Ordnung und ein Fruchtbarkeitsmodell. Sie bieten auch effiziente Trainingsalgorithmen für die vorgestellten Modelle, die anderen Wissenschaftlern die Möglichkeit geben können, ihre Ergebnisse weiter zu verbessern. Diese Art von Arbeit ist spezifisch für Computer -Linguistik und verfügt über Anwendungen, die das Verständnis der Erzeugung und Verständnis der Sprache von Computern erheblich verbessern könnten.

Es wurden auch Arbeiten durchgeführt, um Computer auf naturalistischere Weise zu Sprachen zu bringen. Unter Verwendung sprachlicher Input vom Menschen wurden Algorithmen konstruiert, die in der Lage sind, den Produktionsstil eines Systems auf der Grundlage eines Faktors wie sprachlichen Input von einem Menschen oder einer abstrakten Faktoren wie Höflichkeit oder eines der von sprachlichen Inputs zu ändern Fünf Hauptdimensionen der Persönlichkeit.[33] Diese Arbeit verfolgt einen rechnerischen Ansatz über Parameter Schätzung Modelle zur Kategorisierung der Vielzahl von sprachlichen Stilen, die wir über Einzelpersonen hinweg sehen, und es vereinfachen, dass ein Computer auf die gleiche Weise funktioniert, wodurch erledigt wird Menschliche interaktion mit dem Computer viel natürlicher.

Textbasierter interaktiver Ansatz

Viele der frühesten und einfachsten Modelle der Interaktion zwischen Mensch und Compute, wie zum Beispiel Eliza, beinhalten beispielsweise eine textbasierte Eingabe des Benutzer, um eine Antwort vom Computer zu generieren. Mit dieser Methode löst mit dieser Methode Wörter, die von einem Benutzer eingegeben wurden Schlüsselwort Erspotung.

Sprachbasierter interaktiver Ansatz

Jüngste Technologien haben mehr Schwerpunkt auf sprachbasierte interaktive Systeme gelegt. Diese Systeme wie z. Siri des iOS Betriebssystem, operieren Sie eine ähnliche Muster-anerkennende Technik wie die von textbasierten Systemen Spracherkennung. Dieser Zweig der Linguistik beinhaltet die Verarbeitung der Sprache des Benutzers als Schallwellen und die Interpretation der Akustik und der Sprachmuster für den Computer, um die Eingabe zu erkennen.[34]

Verständnisansätze

Ein Großteil des Fokus der modernen Computersprunguistik liegt auf dem Verständnis. Mit der Verbreitung des Internets und der Fülle leicht zugänglicher schriftlicher menschlicher Sprache die Fähigkeit, ein Programm zu erstellen, das in der Lage ist, in der Lage zu werden menschliche Sprache verstehen Hätte viele breite und aufregende Möglichkeiten, einschließlich verbesserter Suchmaschinen, automatisierter Kundenservice und Online -Bildung.

Frühe Arbeiten im Verständnis beinhalteten die Anwendung von Bayes'schen Statistiken auf die Aufgabe der optischen Charakterkennung, wie 1959 durch Bledsoe und Browing veranschaulicht, in dem ein großes Wörterbuch möglicher Buchstaben durch "Lernen" aus Beispielbuchstaben und dann die Wahrscheinlichkeit, dass eines dieserjenigen, erzeugt wurde Gelehrte Beispiele stimmten mit dem neuen Input überein, um eine endgültige Entscheidung zu treffen.[35] Weitere Versuche, Bayes'sche Statistiken auf die Sprachanalyse anzuwenden Die föderalistischen Papiere wurde verwendet, um zu versuchen, ihre Urheberschaft zu bestimmen (zu dem Schluss, dass Madison höchstwahrscheinlich die Mehrheit der Papiere verfasst hat).[36]

1971 Terry Winograd entwickelte früh Verarbeitung natürlicher Sprache Engine, die in der Lage ist, natürlich geschriebene Befehle in einer einfachen regelbezogenen Umgebung zu interpretieren. Das primäre Sprach -Parsing -Programm in diesem Projekt wurde genannt Shrdlu, was in der Lage war, ein etwas natürliches Gespräch mit dem Benutzer zu führen, der ihm Befehle gab, jedoch nur im Rahmen der Spielzeugumgebung, die für die Aufgabe entwickelt wurde. Diese Umgebung bestand aus verschiedenen geformten und farbigen Blöcken, und Shrdlu war in der Lage, Befehle wie "einen Block zu finden, der größer ist als der, den Sie halten, und in die Box einfügen". und Fragen wie "Ich verstehe nicht, welche Pyramide Sie meinen." als Antwort auf die Eingabe des Benutzers.[37] Obwohl beeindruckend, diese Art von Verarbeitung natürlicher Sprache hat sich außerhalb des begrenzten Umfangs der Spielzeugumgebung als viel schwieriger erwiesen. Ebenso ein Projekt von entwickelt von NASA Lunar wurde entwickelt, um Antworten auf natürlich schriftliche Fragen zur geologischen Analyse von Mondgesteinen zu geben, die von den Apollo -Missionen zurückgegeben wurden.[38] Diese Art von Problemen werden als bezeichnet als Frage Beantwortung.

Erste Versuche, die gesprochene Sprache zu verstehen, basierten auf Arbeiten in den 1960er und 1970er Jahren in der Signalmodellierung, bei denen ein unbekanntes Signal analysiert wird, um nach Mustern zu suchen und Vorhersagen auf der Grundlage seiner Geschichte zu treffen. Ein anfänglicher und etwas erfolgreicher Ansatz zur Anwendung dieser Art von Signalmodellierung auf die Sprache wurde unter Verwendung von versteckten Markov -Modellen erreicht, wie es 1989 von Rabiner detailliert beschrieben wurde.[39] Dieser Ansatz versucht, die Wahrscheinlichkeiten für die willkürliche Anzahl von Modellen zu bestimmen, die bei der Erzeugung von Sprache und zur Modellierung der Wahrscheinlichkeiten für verschiedene Wörter verwendet werden könnten, die aus jedem dieser möglichen Modelle generiert werden. Ähnliche Ansätze wurden frühzeitig angewendet Spracherkennung Versuche, die in den späten 70ern bei IBM mit Word/Teil-of-Rede-Speech-Paarwahrscheinlichkeiten beginnen.[40]

In jüngerer Zeit wurden diese Arten von statistischen Ansätzen auf schwierigere Aufgaben wie die Themenidentifikation unter Verwendung der Bayes'schen Parameterschätzung angewendet, um Themenwahrscheinlichkeiten in Textdokumenten zu schließen.[41]

Anwendungen

Die angewandte rechnerische Linguistik entspricht weitgehend mit Verarbeitung natürlicher Sprache. Beispielanwendungen für Endbenutzer umfassen Spracherkennungssoftware, wie die Siri -Funktion von Apple, Rechtschreibprüfung, Tools, Sprachsynthese Programme, die häufig verwendet werden, um die Aussprache zu demonstrieren oder den Behinderten und maschinellen Übersetzungsprogrammen und Websites wie Google Translate zu helfen.[42]

Computersprachler sind auch in Situationen hilfreich, in denen er beteiligt ist sozialen Medien und die InternetZum Beispiel zur Bereitstellung von Inhaltsfiltern in Chatrooms oder auf Website -Suche,[42] zum Gruppieren und Organisieren von Inhalten durch Social Media Mining,[43] Dokumentenabruf und Clustering. Wenn beispielsweise eine Person nach "rotem, großem Fahrzeug mit vier Wellen" sucht, um Bilder eines roten Lastwagens zu finden, findet die Suchmaschine weiterhin die gewünschten Informationen, indem sie Wörter wie "Vierrad" mit "Auto" übereinstimmen.[44]

Berechnungsansätze sind auch wichtig, um die sprachliche Forschung zu unterstützen, z. B. in Korpuslinguistik[7] oder Historische Sprachwissenschaft. Für die Untersuchung von Veränderungen im Laufe der Zeit können Computermethoden zur Modellierung und Identifizierung von Sprachfamilien beitragen[8] (Siehe weiter quantitative vergleichende Sprachwissenschaft oder Phylogenetik) sowie die Modellierung von Änderungen des Klangs[45] und Bedeutung.[46]

Erbe

Das Thema der Computational Linguistics hat sich wiederum auf die Populärkultur auswirkt:

Siehe auch

Verweise

  1. ^ "ACL -Mitgliedsportal | Der Association for Computational Linguistics Mitgliedsportal". www.aclweb.org. Abgerufen 2020-08-17.
  2. ^ "Was ist die Computer -Linguistik?". Der Assoziation für Computer -Linguistik. Februar 2005.
  3. ^ Wie zum Beispiel von Ido Dagan bei seiner Rede im The ACL 2010 Bankett in Uppsala, Schweden.
  4. ^ a b Uszkoreit, Hans. "Was ist die Computer -Linguistik?". Abteilung für Computer -Linguistik und Phonetik der Saarland University.
  5. ^ Socker, Richard. "Deep Learning für NLP-ACL 2012 Tutorial". Socker. Abgerufen 2020-08-17.
  6. ^ Oettinger, A. G. (1965). Computerlinguistik. The American Mathematical Monthly, Vol. 72, Nr. 2, Teil 2: Computer und Computing, S. 147–150.
  7. ^ a b McEnery, Thomas (1996). Corpus -Linguistik: Eine Einführung. Edinburgh: Edinburgh University Press. p. 114. ISBN 978-0748611652.
  8. ^ a b Bowern, Claire. "Computerphylogenetik." Jährliche Überprüfung der Linguistik 4 (2018): 281-296.
  9. ^ John Hutchins: Rückblick und Aussicht auf computergestützte Übersetzung. Proceedings of Mt Summit VII, 1999, S. 30–44.
  10. ^ Arnold B. Barach: Übersetzungsmaschine 1975: Und die kommenden Änderungen.
  11. ^ T. Crowley., C. Bowern. Eine Einführung in die historische Sprachwissenschaft. Auckland, N.Z.: Oxford Up, 1992. Print.
  12. ^ "Verstorbene Mitglieder". ICCL -Mitglieder. Archiviert von das Original am 17. Mai 2017. Abgerufen 15. November 2017.
  13. ^ Verarbeitung natürlicher Sprache von Liz Liddy, Eduard Hovy, Jimmy Lin, John Prager, Dragomir Radev, Lucy Vanderwende, Ralph Weichschedel
  14. ^ "Computerlinguistik und Phonetik".
  15. ^ "Yatsko's Computational Linguistic Laboratory".
  16. ^ "Clip".
  17. ^ Computerlinguistik - Abteilung für Linguistik - Georgetown College
  18. ^ "Upenn Linguistics: Computational Linguistics".
  19. ^ Jurafsky, D.& Martin, J. H. (2009). Sprach- und Sprachverarbeitung: Eine Einführung in die Verarbeitung natürlicher Sprache, die Berechnung der Linguistik und die Spracherkennung. Upper Saddle River, N.J: Pearson Prentice Hall.
  20. ^ Bowerman, M. (1988). Das Problem "No Negative Evidence": Wie vermeiden Kinder, eine übermäßig allgemeine Grammatik zu konstruieren? Erklären von Sprachuniversalien.
  21. ^ a b c d Braine, M.D.S. (1971). Auf zwei Arten von Modellen der Internalisierung von Grammatiken. Indisch. Slobin (Hrsg.), Die Ontogenese der Grammatik: eine theoretische Perspektive. New York: Akademische Presse.
  22. ^ Powers, D.M.W. & Turk, C.C.R. (1989). Maschinelles Lernen der natürlichen Sprache. Springer-Verlag. ISBN978-0-387-19557-5.
  23. ^ a b Elman, Jeffrey L. (1993). "Lernen und Entwicklung in neuronalen Netzwerken: Die Bedeutung des kleinen Anfangens". Erkenntnis. 48 (1): 71–99. doi:10.1016/0010-0277 (93) 90058-4. PMID 8403835. S2CID 2105042.
  24. ^ Salvi, G.; Montesano, L.; Bernardino, A.; Santos-Victor, J. (2012). "Sprachbootstrapping: Lernwortbedeutungen aus der Wahrnehmungs-Action-Assoziation". IEEE -Transaktionen zu Systemen, Mann und Kybernetik. Teil b. 42 (3): 660–71. Arxiv:1711.09714. doi:10.1109/tsmcb.2011.2172420. PMID 22106152. S2CID 977486.
  25. ^ Gong, T.; Shuai, L.; Tamariz, M. & Jäger, G. (2012). E. Scalas (Hrsg.). "Untersuchung der Sprachänderung unter Verwendung von Preisgleichungen und Pólya-Dynamik". PLUS EINS. 7 (3): E33171. Bibcode:2012ploso ... 733171g. doi:10.1371/journal.pone.0033171. PMC 3299756. PMID 22427981.
  26. ^ Marcus, M. & Marcinkiewicz, M. (1993). "Bauen eines großen kommentierten Korpus von Englisch: die Penn Treebank" (PDF). Computerlinguistik. 19 (2): 313–330.
  27. ^ Taylor, Ann (2003). "1". Baumbanks. Frühlings Niederlande. S. 5–22.
  28. ^ a b Angus, D.; Smith, A. & Wiles, J. (2012). "Konzeptionelle Rezidivplots: Aufdecken von Mustern im menschlichen Diskurs" (PDF). IEEE -Transaktionen zur Visualisierung und Computergrafik. 18 (6): 988–97. doi:10.1109/tvcg.2011.100. PMID 22499664. S2CID 359497.
  29. ^ a b Furuhashi, S. & Hayakawa, Y. (2012). "Lognormalität der Verteilung japanischer Satzlängen". Journal der Physical Society of Japan. 81 (3): 034004. Bibcode:2012JPSJ ... 81C4004f. doi:10.1143/jpsj.81.034004.
  30. ^ Turing, A. M. (1950). "Computermaschinen und Intelligenz". Geist. 59 (236): 433–460. doi:10.1093/mind/lix.236.433. JStor 2251299.
  31. ^ Weizenbaum, J. (1966). "Eliza - ein Computerprogramm für das Studium der Kommunikation der natürlichen Sprache zwischen Mensch und Maschine". Kommunikation der ACM. 9 (1): 36–45. doi:10.1145/365153.365168. S2CID 1896290.
  32. ^ Och, F. J.; Ney, H. (2003). "Ein systematischer Vergleich verschiedener statistischer Ausrichtungsmodelle". Computerlinguistik. 29 (1): 19–51. doi:10.1162/089120103321337421.
  33. ^ Mairesse, F. (2011). "Wahrnehmung der Benutzer des sprachlichen Stils kontrollieren: Trainingbare Generation von Persönlichkeitsmerkmalen". Computerlinguistik. 37 (3): 455–488. doi:10.1162/coli_a_00063.
  34. ^ Sprachdateien. Das Abteilung für Linguistik der Ohio State University. 2011. S. 624–634. ISBN 9780814251799.
  35. ^ Bledsoe, W. W. & Browning, I. (1959). Mustererkennung und Lesen nach Maschine. Die auf der 1. bis 3. Dezember 1959 vorgelegten Papiere in der COMPUTER-Konferenz von Eastern Joint IRE-Aiee-ACM-Computer-IRE-AIEE-ACM ’59 (Ost). New York, New York, USA: ACM Press. S. 225–232. doi:10.1145/1460299.1460326.
  36. ^ Mosteller, F. (1963). "Inferenz in einem Urheberschaftsproblem". Zeitschrift der American Statistical Association. 58 (302): 275–309. doi:10.2307/2283270. JStor 2283270.
  37. ^ Winograd, T. (1971). "Verfahren als Darstellung für Daten in einem Computerprogramm zum Verständnis der natürlichen Sprache" (Bericht). Archiviert vom Original am 2016-11-01. Abgerufen 2012-06-15. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  38. ^ Woods, W.; Kaplan, R. & Nash-Webber, B. (1972). "Das natürliche Sprachinformationssystem der Mondwissenschaften" (Bericht). {{}}: Journal zitieren erfordert |journal= (Hilfe)
  39. ^ Rabiner, L. (1989). "Ein Tutorial über versteckte Markov -Modelle und ausgewählte Anwendungen in der Spracherkennung". Proceedings of the IEEE. 77 (2): 257–286. Citeseerx 10.1.1.381.3454. doi:10.1109/5.18626.
  40. ^ Bahl, L.; Baker, J.; Cohen, P.; Jelinek, F. (1978). "Erkennung von kontinuierlich lesen natürlichen Korpus". ICASSP '78. IEEE Internationale Konferenz über Akustik, Sprache und Signalverarbeitung. Vol. 3. S. 422–424. doi:10.1109/ICASSP.1978.1170402.
  41. ^ Bleiei, D. & Ng, A. (2003). "Latent Dirichlet Allocation". Das Journal of Machine Learning. 3: 993–1022.
  42. ^ a b "Karrieren in der Computational Linguistics". California State University. Abgerufen 19. September 2016.
  43. ^ Marujo, LuS et al. "Automatische Keyword -Extraktion auf Twitter." Language Technologies Institute, Carnegie Mellon University, n.d. Netz. 19. September 2016.
  44. ^ "Computerlinguistik". Stanford Encyclopedia of Philosophy. Metaphysics Research Lab, Stanford University. 26. Februar 2014. Abgerufen 19. April, 2017.
  45. ^ Pigoli, Davide et al. "Die Analyse akustischer phonetischer Daten: Unterschiede in den gesprochenen Romantiksprachen." Arxiv Preprint Arxiv: 1507.07587 985 (2015); Gruppe, die funktionellen Phylogenien. "Phylogenetische Inferenz für funktionswerte Merkmale: Sprachgeräuschentwicklung." Trends in Ecology & Evolution 27.3 (2012): 160-166 ..
  46. ^ z.B. Hamilton, William L., Jure Leskovec und Dan Jurafsky. "Diachronische Worteinbettungen zeigen statistische Gesetze semantischer Veränderungen." Arxiv Preprint Arxiv: 1605.09096 (2016).
  47. ^ "'Star Trek' Übersetzer greifen nach der letzten Grenze. ". www.cnn.com. Abgerufen 2020-08-17.
  48. ^ Badham, John (1983-06-03), Kriegs Spiele, abgerufen 2016-02-22
  49. ^ Hershman-Leeson, Lynn (1999-02-19), Ada konzipieren, abgerufen 2016-02-22
  50. ^ Jonze, Spike (2014-01-10), Sie, abgerufen 2016-02-18
  51. ^ Tyldum, Morten (2014-12-25), Das Nachahmungsspiel, abgerufen 2016-02-18
  52. ^ Garland, Alex (2015-04-24), Ex machina, abgerufen 2016-02-18
  53. ^ Villeneuve, Denis (2016-10-10). "Ankunft". IMDB. Abgerufen 18. Dezember 2019.

Weitere Lektüre

  • Bates, M (1995). "Modelle des Verständnisses der natürlichen Sprache". Verfahren der Nationalen Akademie der Wissenschaften der Vereinigten Staaten von Amerika. 92 (22): 9977–9982. Bibcode:1995pnas ... 92.9977b. doi:10.1073/pnas.92.22.9977. PMC 40721. PMID 7479812.
  • Steven Bird, Ewan Klein und Edward Loper (2009). Verarbeitung natürlicher Sprache mit Python. O'Reilly Media. ISBN978-0-596-51649-9.
  • Daniel Jurafsky und James H. Martin (2008). Sprach- und Sprachverarbeitung, 2. Auflage. Pearson Prentice Hall. ISBN978-0-13-187321-6.
  • Mohamed Zakaria Kurdi (2016). Verarbeitung der natürlichen Sprache und Computersprachling: Sprache, Morphologie und Syntax, Volumen 1. ite-wiley. ISBN978-1848218482.
  • Mohamed Zakaria Kurdi (2017). Verarbeitung der natürlichen Sprache und Computersprachlerin: Semantik, Diskurs und Anwendungen, Band 2. Iste-wiley. ISBN978-1848219212.

Externe Links