Virtueller Assistent

Apple TV Fernbedienung, mit denen Benutzer fragen können Siri Der virtuelle Assistent, um Inhalte zu finden, die man sehen kann
[1]Amazon Echo Smart Lautsprecher Ausführen der Alexa virtueller Assistent

Ein Intelligenter virtueller Assistent (Iva) oder Intelligenter persönlicher Assistent (IPA) ist ein Softwaremagiger Dies kann Aufgaben oder Dienste für eine Person ausführen, die auf Befehlen oder Fragen basiert. Der Begriff "Chatbot"wird manchmal verwendet, um auf virtuelle Assistenten im Allgemeinen oder ausdrücklich zugegriffen zu beziehen, auf die von Online Chat. In einigen Fällen dienen Online -Chat -Programme ausschließlich zu Unterhaltungszwecken. Einige virtuelle Assistenten können menschliche Sprache interpretieren und über synthetisierte Stimmen reagieren. Benutzer können ihre Assistenten Fragen stellen, Hausautomationsgeräte und Medienwiedergabe über Voice steuern und andere grundlegende Aufgaben wie E-Mails, To-Do-Listen und Kalender mit verbalen Befehlen verwalten.[2] Ein ähnliches Konzept ist jedoch mit Unterschieden unter dem Dialogsysteme.[3]

Ab 2017 wachsen die Fähigkeiten und Verwendung virtueller Assistenten rasch aus, wobei neue Produkte auf den Markt kommen und stark auf E -Mail und sowohl auf E -Mail Voice -Benutzer -Schnittstellen. Apple und Google haben große installierte Benutzerbasis auf Smartphones. Microsoft hat eine große installierte Basis von Fenster-basierend persönliche Computer, Smartphones und Smart Lautsprecher. Amazon verfügt über eine große Installationsbasis für intelligente Lautsprecher.[4] Gespräch Hat über 100 Millionen Engagements über seine E -Mail- und SMS -Schnittstelle intelligente virtuelle Assistenten für Unternehmen.

Jetzt bezieht sich der virtuelle Assistent nicht nur auf eine Maschine, sondern auf eine Person, deren Hauptaufgabe darin besteht, seinem Arbeitgeber zu helfen, virtuell einen bestimmten Online -Job zu erledigen. Die meiste Zeit lebt diese Person in einem anderen Teil der Welt.

Geschichte

Experimentelle Jahrzehnte: 1910er bis 1980er Jahre

Radio Rex war das erste 1922 veröffentlichte Sprachaktivierspielzeug.[5] Es war ein Holzspielzeug in Form eines Hundes, der aus seinem Haus kommen würde, wenn sein Name genannt wird.

1952, Bell Labs Präsentiert "Audrey", die automatische Ziffer -Erkennungsmaschine. Es belegte ein sechs Fuß hoher Relaisregal, verbrauchte erhebliche Leistung, hatte Kabelströme und zeigte die unzähligen Wartungsprobleme im Zusammenhang mit komplexen Vakuumrohrschaltungen. Es könnte die grundlegenden Spracheinheiten, Phoneme, anerkennen. Es beschränkte sich auf eine genaue Anerkennung von Ziffern, die von ausgewiesenen Sprechern gesprochen wurden. Es könnte daher für die Sprachwahl verwendet werden, aber in den meisten Fällen war Push-Button-Wählen billiger und schneller, anstatt die aufeinanderfolgenden Ziffern zu sprechen.[6]

Ein weiteres frühes Tool, das ermöglicht wurde, digitale Spracherkennung durchzuführen, war die IBM -Schuhkarton Sprachaktivierter Taschenrechner, der der Öffentlichkeit während des 1962 Seattle Worlds Messe Nach seiner ersten Markteinführung im Jahr 1961. Dieser frühe Computer entwickelte sich fast 20 Jahre vor der Einführung des ersten IBM PC 1981 konnte 16 gesprochene Wörter und die Ziffern 0 bis 9 erkennen.

Das erste Computerprogramm für natürliche Sprachverarbeitung oder das Chatbot Eliza wurde von MIT Professor entwickelt Joseph Weizenbaum In den 1960ern. Es wurde geschaffen, um "zu demonstrieren, dass die Kommunikation zwischen Mensch und Maschine oberflächlich war".[7] Eliza verwendete Musteranpassungs- und Substitutionsmethodik in Skriptantworten, um die Konversation zu simulieren, was eine Illusion des Verständnisses seitens des Programms ergab.

Weizenbaums eigener Sekretärin bat Weizenbaum Berichten zufolge, den Raum zu verlassen, damit sie und Eliza ein echtes Gespräch führen könnten. Weizenbaum war darüber überrascht, später zu schreiben: "Ich hatte nicht bemerkt ... dass extrem kurze Expositionen gegenüber einem relativ einfachen Computerprogramm leistungsstarke Wahndenken bei normalen Menschen hervorrufen könnten.[8]

Dies gab dem Namen Eliza -EffektDie Tendenz, das Verhalten des Computers unbewusst anzunehmen, ist analog zu menschlichem Verhalten; Das heißt, Anthropomorphisation, ein Phänomen, das in menschlichen Wechselwirkungen mit virtuellen Assistenten vorhanden ist.

Der nächste Meilenstein bei der Entwicklung der Spracherkennungstechnologie wurde in den 1970er Jahren in der Carnegie Mellon Universität in Pittsburgh, Pennsylvania mit erheblicher Unterstützung der Verteidigungsministerium der Vereinigten Staaten und sein DARPA Agentur, finanzierte fünf Jahre eines Research -Forschungsprogramms für Sprachverständnisse, das darauf abzielt, ein Mindestvokabular von 1.000 Wörtern zu erreichen. Unternehmen und Akademie, darunter IBM, Carnegie Mellon University (CMU) und das Stanford Research Institute, nahmen an dem Programm teil.

Das Ergebnis war "Harpy", es beherrschte ungefähr 1000 Wörter, das Vokabular eines Dreijährigen und es konnte Sätze verstehen. Es könnte eine Sprache verarbeiten, die dem vorprogrammierten Vokabular, der Aussprache und den Grammatikstrukturen folgte, um zu bestimmen, welche Wörter Sequenzen zusammen machten, und somit die Spracherkennungsfehler reduzieren.

1986 war Tangora ein Upgrade des Schuhkartons, es war eine Stimme, die eine Schreibmaschine erkannte. Benannt nach dem zu diesem Zeitpunkt nach dem weltweit schnellsten Typisten hatte es ein Vokabular von 20.000 Wörtern und nutzte die Vorhersage, um das wahrscheinlichste Ergebnis zu entscheiden, das auf dem in der Vergangenheit gesagt wurde. IBMs Ansatz basierte auf einem Verstecktes Markov -Modell, was Statistiken zu digitalen Signalverarbeitungstechniken hinzufügt. Die Methode ermöglicht es, die wahrscheinlichste vorherzusagen Phoneme einem bestimmten Phonem zu folgen. Trotzdem musste jeder Sprecher die Schreibmaschine individuell trainieren, um seine Stimme zu erkennen und zwischen jedem Wort zu pausieren.

Geburt von intelligenten virtuellen Assistenten: 1990er - present

In den neunziger Jahren wurde die digitale Spracherkennungstechnologie zu einem Merkmal des Personalcomputers mit IBM, Philips und Lernout & Hauspie Kämpfe für Kunden. Viel später die Markteinführung des ersten Smartphone IBM Simon 1994 legte die Grundlage für intelligente virtuelle Assistenten, wie wir sie heute kennen.

1997 Dragon's Natürlich Die Software könnte natürliche menschliche Sprache ohne Pausen zwischen jedem Wort in ein Dokument mit einer Geschwindigkeit von 100 Wörtern pro Minute erkennen und transkribieren. Eine Version von Natural Spaid steht noch zum Download zur Verfügung und wird heute noch heute von vielen Ärzten in den USA und Großbritannien verwendet, um ihre medizinischen Unterlagen zu dokumentieren.

In 2001 Kolloquis öffentlich eingeführt Intelligentauf Plattformen wie ZIEL und MSN Messenger. Während SmarterChild in der Lage war, Spiele zu spielen, das Wetter zu überprüfen, Fakten nachzuschlagen und sich bis zu einem gewissen Grad mit den Benutzern zu unterhalten.[9]

Der erste moderne digitale virtuelle Assistent, der auf einem Smartphone installiert wurde, war Siri, was als Merkmal der vorgestellt wurde iPhone 4s am 4. Oktober 2011.[10] Apple Inc. entwickelte Siri nach der Übernahme von 2010 von 2010 Siri Inc., a ausgründen von SRI International, das ist ein Forschungsinstitut, das von finanziert wird von DARPA und die Verteidigungsministerium der Vereinigten Staaten.[11] Ziel war es, Aufgaben wie das Senden einer SMS, das Treffen von Telefonanrufen, das Überprüfen des Wetters oder das Einrichten eines Alarms zu unterstützen. Im Laufe der Zeit hat es sich entwickelt, um Restaurantempfehlungen zu geben, das Internet zu durchsuchen und Anweisungen zu geben.

Im November 2014 kündigte Amazon Alexa neben dem Echo an.

Im April 2017 veröffentlichte Amazon einen Service für den Bau Konversationsschnittstellen für jede Art von virtuellen Assistenten oder Schnittstellen.

Interaktionsmethode

Virtuelle Assistenten arbeiten über:

Einige virtuelle Assistenten sind über mehrere Methoden zugänglich, wie z. Google Assistant über Chat auf der Google Allo und Google -Nachrichten -App und über Voice on Google Home Smart Lautsprecher.

Virtuelle Assistenten verwenden Verarbeitung natürlicher Sprache (NLP), um Benutzertext oder Spracheingabe für ausführbare Befehle anzupassen. Viele lernen ständig mit Verwendung künstliche Intelligenz Techniken einschließlich maschinelles Lernen. Einige dieser Assistenten wie Google Assistant (der enthält Google Lens) und Samsung Bixby haben auch die zusätzliche Fähigkeit zu tun Bildverarbeitung Um Objekte im Bild zu erkennen, um den Benutzern dabei zu helfen, bessere Ergebnisse aus den geklickten Bildern zu erzielen.

Um einen virtuellen Assistenten mithilfe der Stimme zu aktivieren, kann ein Wake -Wort verwendet werden. Dies ist ein Wort oder eine Gruppe von Wörtern wie "Hey Siri", "OK Google" oder "Hey Google", "Alexa" und "Hey Microsoft".[14] Wenn virtuelle Assistenten immer beliebter werden, sind zunehmende rechtliche Risiken verbunden.[15]: 815

Geräte und Objekte, wo gefunden

Virtuelle Assistenten können in viele Arten von Plattformen integriert werden oder wie, wie Amazon Alexa, über mehrere von ihnen:

Dienstleistungen

Virtuelle Assistenten können eine Vielzahl von Dienstleistungen anbieten. Diese beinhalten:[23]

  • Geben Sie Informationen wie Wetter, Fakten aus z. Wikipedia oder IMDBStellen Sie einen Alarm ein, erstellen Sie Aufgabenlisten und Einkaufslisten
  • Spielen Sie Musik aus Streaming -Diensten wie wie Spotify und Pandora; Radiosender spielen; lesen Hörbücher
  • Spielen Sie Videos, Fernsehsendungen oder Filme auf Fernseher ab und Streaming von z. Netflix
  • Gesprächsprotokoll (siehe unten)
  • Unterstützung der öffentlichen Interaktionen mit der Regierung (siehe Künstliche Intelligenz in der Regierung)
  • Ergänzung und/oder ersetzen Sie den Kundenservice durch Menschen.[24] Ein Bericht schätzte, dass ein automatisierter Online-Assistent einen Rückgang der Arbeitsladung um 30% für einen von Menschen bereitgestellten Menschen erbrachte Call-Center.[25]

Gesprächsprotokoll

Der Gesprächskommere ist E-Commerce über verschiedene Messaging -Mittel, auch über Sprachassistenten[26] aber auch Live-Chat auf E-Commerce Websites, Live -Chat auf Messaging -Anwendungen wie z. Wechat, Facebook Messenger und WhatsApp[27] und Chatbots auf Messaging -Anwendungen oder Websites.

Kundendienst

Ein virtueller Assistent kann mit dem Kundendienstteam eines Unternehmens zusammenarbeiten, um sie zur Verfügung zu stellen 24x7 Unterstützung für Kunden. Es bietet schnelle Antworten, die die Erfahrung eines Kunden verbessern.

Dienste von Drittanbietern

Amazon ermöglicht Alexa "Fähigkeiten" und Google "Aktionen", im Wesentlichen Anwendungen, die auf den Assistentenplattformen ausgeführt werden.

Privatsphäre virtueller Assistenten

Virtuelle Assistenten haben eine Vielzahl von Datenschutzbedenken im Zusammenhang mit ihnen. Merkmale wie Aktivierung durch Sprachausstattung stellen eine Bedrohung dar, da solche Funktionen das Gerät immer zuhören müssen.[28] Datenschutzmodi wie die Schaltfläche Virtual Security wurden vorgeschlagen, um eine mehrschichtige Authentifizierung für virtuelle Assistenten zu erstellen.[29]

Datenschutzrichtlinie prominenter virtueller Assistenten

Google Assistant

Die Datenschutzrichtlinie von Google Assistant besteht darin, dass die Audiodaten ohne die Erlaubnis des Benutzers nicht gespeichert werden, sondern die Konversations -Transkripte möglicherweise speichern, um ihre Erfahrungen zu personalisieren. Die Personalisierung kann in Einstellungen ausgeschaltet werden. Wenn ein Benutzer möchte, dass Google Assistant Audiodaten speichert, kann er zu Voice & Audio Activity (VAA) gehen und diese Funktion einschalten. Audiodateien werden an Cloud gesendet und von Google verwendet, um die Leistung von Google Assistant zu verbessern. Nur wenn die VAA -Funktion eingeschaltet ist.[30]

Amazon's Alexa

Die Datenschutzrichtlinie des virtuellen Assistenten von Amazon, Alexagibt an, dass es nur Gespräche hört, wenn sein Wake -Wort (wie Alexa, Amazon, Echo) verwendet wird. Es beginnt das Gespräch nach dem Ruf eines Wake -Wortes aufzuzeichnen, und stellt nach 8 Sekunden Stille auf. Es sendet die aufgezeichnete Konversation in die Cloud. Es ist möglich, die Aufzeichnung aus der Cloud zu löschen, indem sie "Alexa Privacy" in "Alexa" besucht. [31]

Apples Siri

Apple gibt an, dass es Audio nicht zur Verbesserung von Siri aufzeichnet. Stattdessen wird Transkripte verwendet. Transkriptionsdaten werden nur gesendet, wenn sie für die Analyse als wichtig erachtet werden. Benutzer können sich jederzeit abschließen, wenn sie nicht möchten, dass Siri die Transkripte in der Cloud senden.[32]

Vermutet und beobachtetes Interesse für den Verbraucher

Vermuteten Mehrwert als eine neue Art von Interaktionen zu ermöglichen

Der Mehrwert der virtuellen Assistenten kann unter anderem aus den folgenden:

  1. Es ist bequem: Es gibt einige Sektoren, in denen die Stimme die einzige Möglichkeit für eine mögliche Kommunikation ist, und im Allgemeinen ermöglicht es, sowohl Hände als auch Sehvermögen zu freien, um eine andere Aktivität parallel parallel auszuführen, oder hilft auch behinderte Menschen.
  2. Es ist schneller: Stimme ist effizienter als auf einer Tastatur zu schreiben: Wir können bis zu 200 sprechen Wörter pro Minute im Gegensatz zu 60 im Falle eines Schreibens auf einer Tastatur. Es ist auch natürlicher, wodurch weniger Aufwand erforderlich ist (das Lesen eines Textes kann jedoch 700 Wörter pro Minute erreichen).[33]
  • Virtuelle Assistenten sparen viel Zeit durch Automatisierung: Sie können Termine einnehmen oder die Nachrichten lesen, während der Verbraucher etwas anderes tut. Es ist auch möglich, den virtuellen Assistenten zu bitten, Besprechungen zu planen und damit die Zeit zu organisieren. Die Designer neuer digitaler Scheduler erläuterten den Ehrgeiz, den diese Kalender planen, damit die Verbraucher seine Zeit effizienter, durch maschinelles Lernprozesse und eine vollständige Organisation von Arbeitszeit und Freizeit nutzen. Als Beispiel, wenn der Verbraucher den Wunsch ausdrückt, eine Pause zu planen in der Lage zu sein, die Freizeit des Verbrauchers zu planen und zu organisieren, um ihnen eine optimale Arbeitseffizienz zu gewährleisten.[34]

Wahrgenommenes Interesse

Grafische Summe der Studie, die Gründe des Interesses virtueller Assistenten für Verbraucher erfassen
  • Laut einer kürzlich durchgeführten Studie (2019) sind die beiden Gründe für den Einsatz virtueller Assistenten für Verbraucher die nützliche und wahrgenommene Freude. Das erste Ergebnis dieser Studie ist, dass sowohl die wahrgenommene Nützlichkeit als auch der wahrgenommene Genuss einen gleichwertigen Einfluss auf die Bereitschaft der Verbraucher haben, einen virtuellen Assistenten zu verwenden.
  • Das zweite Ergebnis dieser Studie ist:
  1. Vorausgesetzt, die Qualität der Inhalte hat einen sehr starken Einfluss auf die wahrgenommene Nützlichkeit und einen starken Einfluss auf den wahrgenommenen Genuss.
  2. Die visuelle Attraktivität hat einen sehr starken Einfluss auf den wahrgenommenen Genuss.
  3. Die Automatisierung hat einen starken Einfluss auf die wahrgenommene Nützlichkeit.[35]

Kontroversen

Kontroversen für künstliche Intelligenz

  • Virtuelle Assistenten spornen die Filterblase: Wie für sozialen MedienAlgorithmen der virtuellen Assistenten werden geschult, um relevante Daten zu zeigen und andere auf der Grundlage früherer Aktivitäten des Verbrauchers zu verwerfen: Die relevanten Daten sind diejenigen, die interessiert oder dem Verbraucher gefallen. Infolgedessen werden sie aus Daten isoliert, die mit ihren Standpunkten nicht einverstanden sind, sie effektiv in ihre eigene intellektuelle Blase isolieren und ihre Meinungen verstärken. Es war bekannt, dass dieses Phänomen verstärkte Gefälschte Nachrichten und Echokammern.[36]
  • Virtuelle Assistenten werden manchmal auch dafür kritisiert, überbewertet zu werden. Im Speziellen, A. Casilli weist darauf hin, dass die KI der virtuellen Assistenten aus zwei Gründen weder intelligent noch künstlich ist:
  1. Nicht intelligent, weil sie nur der Assistent des Menschen und nur durch Aufgaben erledigen, die ein Mensch leicht erledigen könnte, und in einem sehr begrenzten Gesprächen von Handlungen: Suchen, Klassen und Präsentieren von Informationen, Angeboten oder Dokumenten. Außerdem können virtuelle Assistenten weder selbst Entscheidungen treffen und Dinge antizipieren.
  2. Und nicht künstlich, weil sie ohne menschliche Labelisierung durch die menschliche Labelisierung unmöglich wären Mikroarbeit.[37]

Ethik -Implikationen

2019 Antonio A. Casilli, ein Franzose Soziologe, kritisierte künstliche Intelligenz und virtuelle Assistenten insbesondere auf folgende Weise:

Auf einer ersten Ebene ist die Tatsache, dass der Verbraucher kostenlose Daten für die Schulung und Verbesserung des virtuellen Assistenten liefert, oft ohne es zu wissen, ethisch störend.

Aber in einer zweiten Ebene könnte es noch ethisch beunruhigender sein, zu wissen, wie diese Ais werden mit diesen Daten geschult.

Dies künstliche Intelligenz wird über durch Neuronale Netze, die eine große Menge an benötigen Beschriftete Daten. Diese Daten müssen jedoch durch einen menschlichen Prozess gekennzeichnet werden, der den Anstieg von erklärt Mikrowork im letzten Jahrzehnt. Das heißt, einige Menschen weltweit aus der Ferne, die sich wiederholende und sehr einfache Aufgaben für ein paar Cent erledigen, z. B. auf virtuelle Assistenten -Sprachdaten und aufschreiben, was gesagt wurde. Der Mikrowork wurde wegen der von ihm verursachten Auftragsunsicherheit kritisiert, und für den gesamten Mangel an Regulierung: Das durchschnittliche Gehalt betrug 1,38 Dollar/Stunde in 2010,[38] und es bietet weder Gesundheitsversorgung noch Altersvorsorge. Krankengeld, Mindestlohn. Daher sind virtuelle Assistenten und ihre Designer umstritten für die Unsicherheit von Arbeitsplätzen, und die KIs, die sie vorschlagen, sind immer noch menschlich in der Art und Weise, wie sie ohne den Mikrowork von Millionen menschlicher Arbeiter unmöglich wären.[37]

Datenschutzbedenken werden durch die Tatsache ausgelöst, dass die Anbieter virtueller Assistenten in unverschlüsselter Form Sprachbefehle zur Verfügung stehen und daher mit Dritten geteilt und auf nicht autorisierte oder unerwartete Weise verarbeitet werden können.[39] Zusätzlich zum sprachlichen Inhalt der aufgezeichneten Sprache können die Art des Ausdrucks und der Sprachmerkmale eines Benutzers implizit Informationen über seine biometrische Identität, Persönlichkeitsmerkmale, Körperform, körperliche und psychische Gesundheit, Geschlecht, Geschlecht, Stimmungen und Emotionen, sozioökonomischer Status enthalten und geografische Herkunft.[40]

Entwicklerplattformen

Bemerkenswerte Entwicklerplattformen für virtuelle Assistenten umfassen:

  • Amazon Lex wurde im April 2017 für Entwickler geöffnet. Es geht darum natürliches Sprachverständnis Die Technologie in Kombination mit automatischer Spracherkennung wurde im November 2016 eingeführt.[41]
  • Google bietet die Aktionen auf Google und Dialogflow Plattformen für Entwickler, um "Aktionen" für Google Assistant zu erstellen[42]
  • Apple bietet Sirikit den Entwicklern, um Erweiterungen zu erstellen Siri
  • IBM's Watson, während manchmal als virtueller Assistent gesprochen wird, ist tatsächlich ein ganzes künstliche Intelligenz Plattform und Community, die einige virtuelle Assistenten betreiben, Chatbots. und viele andere Arten von Lösungen.[43][44]

Vorherige Generationen

In früheren Generationen von virtuellen Assistenten von Texten wurde der Assistent oft durch eine dargestellt Benutzerbild (a.k.a. Interaktiver Online -Charakter oder automatisierter Charakter) - Dies war als ein bekannt verkörperter Wirkstoff.

Wirtschaftliche Relevanz

Für Einzelpersonen

Digitale Erlebnisse, die von virtuellen Assistenten ermöglicht werden, gehören zu den wichtigsten technologischen Fortschritten und vielversprechendsten Verbrauchertrends. Experten behaupten, dass digitale Erlebnisse ein statusgewichtiges, vergleichbar mit „realen“ Erfahrungen erzielen, wenn sie nicht mehr gefragt und geschätzt werden.[45] Der Trend wird durch eine hohe Anzahl häufiger Benutzer und das erhebliche Wachstum der weltweiten Benutzerzahl virtueller digitaler Assistenten verifiziert. Mitte 2017 wird die Anzahl der häufigen Benutzer digitaler virtueller Assistenten weltweit auf etwa 1 Mrd. Mrd. liegen.[46] Darüber hinaus kann beobachtet werden, dass die virtuelle digitale Assistenztechnologie nicht mehr auf Smartphone -Anwendungen beschränkt ist, sondern in vielen Branchensektoren vorhanden ist (inkl. Automobil, Telekommunikation, Einzelhandel, Gesundheitswesen und Bildung).[47] Als Reaktion auf die erheblichen F & E -Kosten von Unternehmen in allen Sektoren und auf eine zunehmende Umsetzung mobiler Geräte wird der Markt für Spracherkennungstechnologie voraussichtlich in einem wachsen CAGR von 34,9% weltweit im Zeitraum 2016 bis 2024 und dadurch bis 2024 eine globale Marktgröße von 7,5 Milliarden US -Dollar übertreffen.[47] Nach An Ovum Die Studie, die "native digitale Assistentin installierte Basis" wird voraussichtlich bis 2021 die Weltbevölkerung überschreiten, mit 7,5 Milliarden Active Voice AI -Capable -Geräten.[48] Laut OVUM wird zu diesem Zeitpunkt "Google Assistant den Markt für Sprach -AI -fähige Geräte mit 23,3%Marktanteil dominieren, gefolgt von Samsungs Bixby (14,5%), Apples Siri (13,1%), Amazon's Alexa (3,9%) und Microsoft's Cortana (2,3%). "[48]

Berücksichtigung der regionalen Verteilung der Marktführer, nordamerikanischen Unternehmen (z. Nuance -Kommunikation, IBM, Egain) wird erwartet, dass sie die Branche in den nächsten Jahren aufgrund der erheblichen Auswirkungen von BYOD dominieren (BYOD (Bringen Sie Ihr eigenes Gerät mit) und Unternehmensmobilitätsmodelle für Unternehmen. Darüber hinaus wird erwartet, dass die zunehmende Nachfrage nach Smartphone-unterstützten Plattformen das Wachstum der nordamerikanischen intelligenten Virtual Assistant (IVA) weiter steigern wird. Trotz seiner geringeren Größe im Vergleich zum nordamerikanischen Markt die intelligente virtuelle Assistentenindustrie aus dem Asiatisch-pazifik Die Region mit ihren Hauptakteuren in Indien und China wird voraussichtlich im Zeitraum 2016–2024 mit einer jährlichen Wachstumsrate von 40% (über dem globalen Durchschnitt) wachsen.[47]

Wirtschaftliche Möglichkeit für Unternehmen

Virtuelle Assistenten sollten nicht nur als Gadget für Einzelpersonen angesehen werden, da sie einen echten wirtschaftlichen Nutzen für Unternehmen haben könnten. Ein virtueller Assistent kann beispielsweise die Rolle eines immer verfügbaren Assistenten mit einem enzyklopädischen Wissen übernehmen. Und die Besprechungen organisieren, Inventare überprüfen und Informationen überprüfen können. Virtuelle Assistenten sind umso wichtiger als ihre Integration in kleine und mittlere Unternehmen häufig in einem einfachen ersten Schritt durch die globalere Anpassung und Verwendung von Internet der Dinge (IoT). In der Tat werden IoT-Technologien zunächst von kleinen und mittelgroßen Unternehmen als Technologien von kritischer Bedeutung wahrgenommen, aber zu kompliziert, riskant oder kostspielig, um sie zu verwenden.[49]

Sicherheit

Im Mai 2018 Forscher aus dem Universität von Kalifornien, Berkeley, veröffentlichte ein Papier, das zeigte, dass Audiobefehle für das menschliche Ohr nicht nachweisbar in Musik oder gesprochenes Text eingebettet werden konnten, wodurch virtuelle Assistenten dazu manipuliert werden, bestimmte Aktionen auszuführen, ohne dass der Benutzer dies zur Kenntnis nehmen.[50] Die Forscher haben kleine Änderungen an Audiodateien vorgenommen, die die Klangmuster, die Spracherkennungssysteme erkennen sollen, abgebrochen wurden. Diese wurden durch Geräusche ersetzt, die vom System unterschiedlich interpretiert werden und es befehlen, Telefonnummern zu wählen, Websites zu öffnen oder sogar Geld zu übertragen.[50] Die Möglichkeit davon ist seit 2016 bekannt.[50] und betrifft Geräte von Apfel, Amazonas und Google.[51]

Zusätzlich zu unbeabsichtigten Aktionen und Sprachaufzeichnungen sind ein weiteres Sicherheits- und Datenschutzrisiko, das mit intelligenten virtuellen Assistenten verbunden ist Haus- oder Garage- oder Bestellelemente online ohne das Wissen des Benutzers. Obwohl einige IVAs ein Sprachtraining-Merkmal bieten, um eine solche Impotation zu verhindern, kann es für das System schwierig sein, zwischen ähnlichen Stimmen zu unterscheiden. Eine böswillige Person, die in der Lage ist, auf ein IVA-fähiges Gerät zuzugreifen, kann das System dazu bringen, zu denken, dass sie der wahre Eigentümer sind und kriminelle oder schelmische Handlungen durchführen.[52]

Siehe auch

Verweise

  1. ^ Casas Cobo, Francisco Javier. La Crisis de la Arquitectura Moderna en (These). Universidad Polutecnica de Madrid - Universitätsbibliothek.
  2. ^ Hoy, Matthew B. (2018). "Alexa, Siri, Cortana und mehr: Eine Einführung in Sprachassistenten". Medizinische Referenzdienste vierteljährlich. 37 (1): 81–88. doi:10.1080/02763869.2018.1404391. PMID 29327988. S2CID 30809087.
  3. ^ Klüwer, Tina. "Von Chatbots über Dialogsysteme." Konversationsmittel und Interaktion mit natürlicher Sprache: Techniken und wirksame Praktiken. IGI Global, 2011. 1–22.
  4. ^ Daniel B. Kline (30. Januar 2017). "Alexa, wie groß ist das Echo von Amazon?". Der bunte Narren.
  5. ^ Markowitz, Judith. "Spielzeug, die eine Stimme haben". Realtechmag.
  6. ^ Moskvitch, Katia. "Die Maschinen, die zuzuhören". BBC. Abgerufen 5. Mai 2020.
  7. ^ Epstein, J; Klinkenberg, W. D. (1. Mai 2001). "Von Eliza zum Internet: Eine kurze Geschichte der computergestützten Bewertung". Computer im menschlichen Verhalten. 17 (3): 295–314. doi:10.1016/s0747-5632 (01) 00004-8. ISSN 0747-5632.
  8. ^ Weizenbaum, Joseph (1976). Computermacht und menschliche Vernunft: Von der Beurteilung bis zur Berechnung. Oliver Wendell Holmes Library Phillips Academy. San Francisco: W. H. Freeman.
  9. ^ "Smartphone: Ihr neuer persönlicher Assistent - Orange Pop". 10. Juli 2017. archiviert von das Original am 10. Juli 2017. Abgerufen 5. Mai 2020.
  10. ^ Darren Murph (4. Oktober 2011). "iPhone 4s praktisch!". Engadget.com. Abgerufen 10. Dezember 2017.
  11. ^ "Feature: Von IBM Schuhkarton bis Siri: 50 Jahre SpracherKennung - Welt" [Vom IBM -Schuhkarton bis Siri: 50 Jahre Spracherkennung]. Sterben (auf Deutsch). Welt.de. 20. April 2012. Abgerufen 10. Dezember 2017.
  12. ^ "Conversica sammelt 31 Millionen US -Dollar an der Serie -C -Finanzierung, um die Expansion der Konversations -KI für das Geschäft zu befeuern". Bloomberg.com. 30. Oktober 2018. Abgerufen 23. Oktober 2020.
  13. ^ Herrera, Sebastian (26. September 2019). "Amazon erweitert Alexas Reichweite in Wearables". Das Wall Street Journal. Abgerufen 26. September 2019.
  14. ^ "S7617 - Entwickeln Sie Ihre eigene Wake Word -Engine wie" Alexa "und" OK Google "". GPU -Technologiekonferenz. Abgerufen 17. Juli 2017.
  15. ^ Van Loo, Rory (1. März 2019). "Digitaler Marktperfektion". Michigan Law Review. 117 (5): 815. doi:10.36644/mlr.117.5.digital. S2CID 86402702.
  16. ^ Lynn LA (27. Februar 2017). "Alles, was Google Assistent auf dem Pixel tun kann". CNET. Abgerufen 10. Dezember 2017.
  17. ^ Morrison, Maureen (5. Oktober 2014). "Domino's Pitches Voice Ordering App in Fast-Food zuerst | CMO-Strategie". Sprichwort. Abgerufen 10. Dezember 2017.
  18. ^ Dan O'Shea (4. Januar 2017). "LG stellt den Smart-Kühlschrank mit Amazon Alexa-fähiger Lebensmittelbestellung ein". Einzelhandels -Tauchgang. Abgerufen 10. Dezember 2017.{{}}: Cs1 montiert: Mehrfachnamen: Autorenliste (Link)
  19. ^ Samuel Gibbs (7. Februar 2017). "Amazon's Alexa entkommt dem Echo und steigt in Autotechnologie.". Der Wächter. Abgerufen 10. Dezember 2017.
  20. ^ "Was ist Google Assistant, wie funktioniert es und welche Geräte bieten es an?". Tasche Flusen. 6. Oktober 2017. Abgerufen 10. Dezember 2017.
  21. ^ Airlines, Alaska (2. Januar 2017). ""Ask Jenn", Alaska Airlines -Website ". Alaska Airlines. Alaskaair.com. Abgerufen 10. Dezember 2017.
  22. ^ AT & T Tech Channel (26. Juni 2013). "American Airlines (US Airways) - Erste US -Fluggesellschaft für die Bereitstellung natürlicher Sprache" (Video), Nuance Enterprise auf YouTube. Youtube.com. Archiviert vom Original am 21. Dezember 2021. Abgerufen 10. Dezember 2017. YouTube -Titel: Airline Information System, 1989 - AT & T Archives - Spracherkennung
  23. ^ Taylor Martin; David Priest (10. September 2017). "Die vollständige Liste der Alexa -Befehle bisher". CNET. Abgerufen 10. Dezember 2017.
  24. ^ Konger, Alisa; Sangkeettrakarn, Chatchawal; Kongyoung, Sarawoot; Haruechaiyasak, Choochart (1. Januar 2009). Implementierung eines Online -Helpdesk -Systems basierend auf dem Konversationsagenten. Verfahren der Internationalen Konferenz zum Management von Emergent Digital Ecosystems. Medes '09. New York, NY, USA: ACM. S. 69: 450–69: 451. doi:10.1145/1643823.1643908. ISBN 9781605588292. S2CID 1046438.
  25. ^ Anthony O'Donnell (3. Juni 2010). "Aetnas neuer" virtueller Online -Assistent "". Versicherung & Technologie. Archiviert von das Original am 7. Juni 2010.
  26. ^ "Wie Sie Ihre Produkte und Ihre Marke für den Gesprächskommeren vorbereiten". 6. März 2018.
  27. ^ Taylor, Glenn (5. März 2018). "Die große Chance des Einzelhandels: 87% der US -Verbraucher erfassen die Macht des Gesprächshandels - Einzelhandelskontrollpunkte".
  28. ^ Zhang, Guoming; Yan, Chen; Ji, Xiaoyu; Zhang, Tianchen; Zhang, Taimin; Xu, Wenyuan (2017). "Delfinagne". Proceedings der ACM SIGSAC -Konferenz 2017 über Computer- und Kommunikationssicherheit - CCS '17. S. 103–117. Arxiv:1708.09537. doi:10.1145/3133956.3134052. ISBN 9781450349468. S2CID 2419970.
  29. ^ Lei, Xinyu; Tu, Guan-Hua; Liu, Alex X.; Li, Chi-yu; Xie, Tian (2017). "Die Unsicherheit der digitalen Sprachassistenten zu Hause - Amazon Alexa als Fallstudie". Arxiv:1712.03327 [cs.cr].
  30. ^ "Mehr tun, um Ihre Privatsphäre mit dem Assistenten zu schützen". Google. 23. September 2019. Abgerufen 27. Februar 2020.
  31. ^ "Alexa, Echo -Geräte und Ihre Privatsphäre". Amazon.com. Abgerufen 27. Februar 2020.
  32. ^ "Verbesserung des Datenschutzschutzes von Siri". Apple Newsroom. Abgerufen 27. Februar 2020.
  33. ^ Minker, W.; Néel, F. (2002). "Développement des Technologies Vocales". Le Travail Humain. 65 (3): 261. doi:10.3917/th.653.0261. ISSN 0041-1868.
  34. ^ Wajcman, Judy (2019). "Die digitale Architektur des Zeitmanagements" (PDF). Wissenschaft, Technologie und menschliche Werte. 44 (2): 315–337. doi:10.1177/0162243918795041. S2CID 149648777.
  35. ^ Yang, Heetae; Lee, Hwansoo (26. Juni 2018). "Benutzerverhalten virtueller persönlicher Assistenzgeräte verstehen". Informationssysteme und E-Business-Management. 17 (1): 65–87. doi:10.1007/s10257-018-0375-1. ISSN 1617-9846. S2CID 56838915.
  36. ^ Tisseron, Serge (2019). "La Famille Sous Écoute". L'École des Eltern. Nr. 632 (3): 16. doi:10.3917/epar.632.0016. ISSN 0424-2238. S2CID 199344092.
  37. ^ a b Casilli, Antonio A. (2019). EN DESTANTE LES ROBOTS. Enquête Sur Le Travail du Clic. Ausgaben seuil. ISBN 978-2-02-140188-2. OCLC 1083583353.
  38. ^ Horton, John Joseph; Chilton, Lydia B. (2010). "Die Arbeitsökonomie von bezahltem Crowdsourcing". Verfahren der 11. ACM -Konferenz über elektronischen Handel - EC '10. EC '10. New York, New York, USA: ACM Press: 209–218. Arxiv:1001.0627. doi:10.1145/1807342.1807376. ISBN 978-1-60558-822-3. S2CID 18237602.
  39. ^ "Apple, Google und Amazon haben möglicherweise Ihre Privatsphäre durch Überprüfung der Befehle digitaler Assistenten verletzt.". Reichtum. 5. August 2019. Abgerufen 13. Mai 2020.
  40. ^ Kröger, Jacob Leon; Lutz, Otto Hans-Martin; Raschke, Philip (2020). "Privatsphäre Implikationen der Sprach- und Sprachanalyse - Offenlegung von Informationen durch Inferenz". Privatsphäre und Identitätsmanagement. Daten zum besseren Leben: KI und Privatsphäre. IFIP -Fortschritte in der Informations- und Kommunikationstechnologie. Vol. 576. S. 242–258. doi:10.1007/978-3-030-42504-3_16. ISBN 978-3-030-42503-6. ISSN 1868-4238.
  41. ^ "Amazon Lex, die Technologie hinter Alexa, öffnet sich für Entwickler". Techcrunch. 20. April 2017. Abgerufen 10. Dezember 2017.
  42. ^ "Aktionen auf Google | Google -Entwickler". Abgerufen 10. Dezember 2017.
  43. ^ "Watson - Geschichten darüber, wie KI und Watson das Geschäft und unsere Welt verändern". Ibm.com. Abgerufen 10. Dezember 2017.
  44. ^ Memeti, Suejb; Pllana, Sabri (Januar 2018). "Papa: Ein paralleler Programmierassistent von IBM Watson Cognitive Computing Technology". Journal of Computational Science. 26: 275–284. doi:10.1016/j.jocs.2018.01.001.
  45. ^ "5 Verbrauchertrends für 2017". Trendwatching. 31. Oktober 2016. Abgerufen 10. Dezember 2017.
  46. ^ Felix Richter (26. August 2016). "Diagramm: Digitale Assistenten - immer in Ihrem Service". Statista. Abgerufen 10. Dezember 2017.
  47. ^ a b c "Virtual Assistant Industry Statistics« Global Market Insights, Inc ". Gminsights.wordpress.com. 30. Januar 2017. Abgerufen 10. Dezember 2017.
  48. ^ a b "Virtuelle digitale Assistenten, um die Weltbevölkerung bis 2021 zu überholen". ovum.informa.com. Abgerufen 11. Mai 2018.
  49. ^ Jones, Nory B.; Graham, C. Matt (Februar 2018). "Kann das IoT kleinen Unternehmen helfen?" Bulletin of Science, Technologie und Gesellschaft. 38 (1–2): 3–12. doi:10.1177/0270467620902365. ISSN 0270-4676. S2CID 214031256.
  50. ^ a b c "Alexa und Siri können diesen versteckten Befehl hören. Sie können nicht". Die New York Times. 10. Mai 2018. ISSN 0362-4331. Abgerufen 11. Mai 2018.
  51. ^ "Als Sprachassistenten der Mainstream gehen, warnen die Forscher vor Schwachstellen.". CNET. 10. Mai 2018. Abgerufen 11. Mai 2018.
  52. ^ Chung, H.; Iorga, M.; Voas, J.; Lee, S. (2017). "Alexa, kann ich dir vertrauen?". Computer. 50 (9): 100–104. doi:10.1109/mc.2017.3571053. ISSN 0018-9162. PMC 5714311. PMID 29213147.