Prädiktive Analytics
Prädiktive Analytics umfasst eine Vielzahl statistischer Techniken aus Data Mining, prädiktiver Modellierung und maschinellem Lernen, die aktuelle und historische Fakten analysieren, um Vorhersagen über zukünftige oder auf andere Weise unbekannte Ereignisse zu treffen.
In der Wirtschaft nutzen Vorhersagemodelle in historischen und transaktionalen Daten, um Risiken und Chancen zu identifizieren. Die Modelle erfassen Beziehungen zwischen vielen Faktoren, um die Bewertung des Risikos oder des Potenzials im Zusammenhang mit bestimmten Bedingungen zu ermöglichen und die Entscheidungsfindung für Kandidatentransaktionen zu leiten.
Der definierende funktionale Effekt dieser technischen Ansätze besteht oder beeinflussen organisatorische Prozesse, die sich über eine große Anzahl von Personen beziehen, z.
Definition
Predictive Analytics ist eine Reihe von Business Intelligence -Technologien (BIS), die Beziehungen und Muster in großen Datenmengen aufdeckt, die zur Vorhersage von Verhalten und Ereignissen verwendet werden können. Im Gegensatz zu anderen BI-Technologien ist die prädiktive Analytik zukunftsweisend und nutzt vergangene Ereignisse, um die Zukunft zu antizipieren.[1] Zu den statistischen Techniken für prädiktive Analysen gehören Datenmodellierung, maschinelles Lernen, Ai, tiefes Lernen Algorithmen und Data Mining. Oft ist das unbekannte Interesse in der Zukunft, aber prädiktive Analysen können auf jede Art von Unbekannten angewendet werden, unabhängig davon, ob sie in der Vergangenheit, Gegenwart oder Zukunft ist. Zum Beispiel die Identifizierung von Verdächtigen nach dem Verbrechen oder Kreditkartenbetrug, wie es stattfindet.[2] Der Kern der prädiktiven Analytik beruht auf der Aufnahme von Beziehungen zwischen Erklärungsvariablen und die vorhergesagten Variablen aus früheren Ereignissen und ausnutzen sie, um das unbekannte Ergebnis vorherzusagen. Es ist jedoch wichtig zu beachten, dass die Genauigkeit und Verwendbarkeit der Ergebnisse stark von der Datenanalyse und der Qualität der Annahmen abhängt.[3]
Die prädiktive Analytik wird häufig als Vorhersage auf detaillierterer Granularitätsniveau definiert, d. H. Erzeugung Vorhersagewerte (Wahrscheinlichkeiten) für jedes einzelne organisatorische Element. Dies unterscheidet es von Vorhersage. Zum Beispiel "Prädiktive Analytics - Technologie, die aus Erfahrung (Daten) lernt, um das zukünftige Verhalten von Einzelpersonen vorherzusagen, um bessere Entscheidungen zu treffen."[4] In zukünftigen industriellen Systemen wird der Wert der prädiktiven Analytik darin bestehen, potenzielle Probleme vorherzusagen und zu verhindern, um einen Abbruch nahe Null zu erreichen und weiter integriert zu werden. Prescriptive Analytics zur Entscheidungsoptimierung.[5]
Große Daten
Obwohl es keine universelle Definition von Big Data gibt, beziehen sich die meisten von ihnen auf die Verarbeitung einer großen Reihe von Datenpunkten, um ein fertiges Produkt zu erhalten. Wenn der Datensatz zu groß ist, um mit herkömmlichen Analysetechniken analysiert zu werden, wird Big Data Analytics ins Spiel kommen. Die Größe ist jedoch nicht der einzige Faktor, der Big Data definiert.
Gartners Definition von Big Data ist nützlich, um die definierenden Eigenschaften von Big Data zu erklären: "Big Data sind hochvolumige, hochgeschwindige und/oder hohe Informationsvermögenswerte mit hoher Sorte, die kostengünstige, innovative Formen der Informationsverarbeitung erfordern, die erweiterte Erkenntnisse ermöglichen Entscheidungsfindung und Prozessautomatisierung. "[6] Diese Eigenschaften werden manchmal als 3 gegen Big Data bezeichnet.
Wenn wir über das Datenvolumen sprechen, denken Sie über seine Größe nach. Es gibt keine universellen Kriterien für die Größe, die bestimmt, ob ein Datensatz "groß" ist oder nicht, da die Größe relativ ist. Terabyte von Daten könnten für ein Unternehmen als Big Data angesehen werden, während ein anderes Unternehmen eine größere Speichereinheit als Kriterien für Big Data wie einen Petabyte oder einen Exabyte verwendet.
Die Datengeschwindigkeit bezieht sich auf die Datengeschwindigkeit und die Zeit, um sie zu erstellen, zu speichern und zu analysieren. Die Batch-Verarbeitung wurde traditionell verwendet, um große Datenblöcke zu verarbeiten, dies dauert jedoch viel Zeit und ist nur nützlich, wenn die Entscheidungsfindung ohne schnelllebige Datenverarbeitung erfolgreich sein kann. Die Märkte der heutigen Zeit erfordern jedoch eine Echtzeitverarbeitung für leistungsstarke und erfolgreiche Entscheidungen in sehr vielseitigen und wettbewerbsfähigen Umgebungen.
Es gibt auch einige verschiedene Arten von Daten, was Gartner mit Abwechslung bedeutet. Daten können strukturiert, semi-strukturiert oder unstrukturiert werden. "Strukturierte Daten sind Daten, die sich an ein vordefiniertes Datenmodell halten und daher unkompliziert sind zu analysieren."[6] Strukturierte Daten haben im Allgemeinen Zeilen und Spalten, die mit grundlegenden Techniken sortiert und gesucht werden können. Tabellenkalkulationen und relationale Datenbanken sind typische Beispiele für strukturierte Daten. Unstrukturierte Daten sind im Grunde genommen das Gegenteil von strukturierten Daten, da sie kein vordefinierter Datenmodell einhalten und keine Spalten oder Zeilen enthalten, um die Daten zu organisieren. Dies macht unstrukturierte Daten schwieriger zu verstehen als strukturierte Daten, die mit herkömmlichen Programmen wie Excel und SQL problemlos verarbeitet werden können. Einige Beispiele für unstrukturierte Daten sind E -Mails, PDF -Dateien und Google -Suche. Das Speichern und Verarbeiten unstrukturierter Daten ist in den letzten Jahren aufgrund von Programmen wie Power BI und Tableau viel einfacher geworden.
"Semi-strukturierte Daten liegen zwischen strukturierten und unstrukturierten Daten. Sie enthält keine formale Datenstruktur, enthält jedoch Tags und andere Markierungen, um die Daten zu organisieren."[7] Die semi-strukturierte Kategorie von Daten ist viel einfacher zu analysieren als unstrukturierte Daten. Viele Big-Data-Tools können semi-strukturierte Daten von Daten wie XML- oder JSON-Dateien lesen und verarbeiten.
Das Volumen, die Vielfalt und die Geschwindigkeit von Big Data haben Herausforderungen für die Erfassung, Speicherung, Suche, Teilen, Analyse und Visualisierung auf die gesamte Karte eingeführt. Beispiele für Big -Data -Quellen sind Webprotokolle, Rfid, Sensor Daten, soziale Netzwerke, Internet -Suche Indexierung, detaillierte Aufzeichnungen, militärische Überwachung und komplexe Daten in astronomischen, biogeochemischen, Genomik- und Atmosphärenwissenschaften. Dank der technologischen Fortschritte in der Computerhardware - faster -cpus, billigerer Speicher und MPP Architekturen - und neue Technologien wie Hadoop, Karte verkleinern, und In-Database und Textanalyse Für die Verarbeitung von Big Data ist es jetzt machbar, massive Mengen von strukturiertem und abzubauen, zu analysieren und abzubauen unstrukturierte Daten für neue Erkenntnisse. Es ist auch möglich, Prädiktivalgorithmen für Streaming -Daten auszuführen. Heute ist die Erforschung von Big Data und die Verwendung von prädiktiven Analysen mehr Organisationen als je zuvor in Reichweite und neue Methoden, die in der Lage sind, solche Datensätze zu behandeln, werden vorgeschlagen.
Analytische Techniken
Die Ansätze und Techniken zur Durchführung von prädiktiven Analysen können weitgehend in Regressionstechniken und maschinelles Lerntechniken eingeteilt werden.
Maschinelles Lernen
Maschinelles Lernen kann als die Fähigkeit einer Maschine definiert werden, das menschliche Verhalten zu lernen und dann nachzuahmen, das Intelligenz erfordert. Dies wird durch künstliche Intelligenz, Algorithmen und Modelle erreicht.[8]
Autoregressive integrierte gleitende Durchschnitt (ARIMA)
ARIMA -Modelle sind ein häufiges Beispiel für Zeitreihenmodelle. Diese Modelle verwenden Autoregression, was bedeutet, dass das Modell mit einer Regressionssoftware ausgestattet werden kann, die maschinelles Lernen verwendet, um den größten Teil der Regressionsanalyse und -glättung durchzuführen. Es ist bekannt, dass ARIMA -Modelle keinen Gesamttrend haben, sondern eine Unterschiede um den Durchschnitt, der eine konstante Amplitude aufweist, was zu statistisch ähnlichen Zeitmustern führt. Dadurch werden Variablen analysiert und Daten filtriert, um zukünftige Werte besser zu verstehen und vorherzusagen.[9][10]
Ein Beispiel für eine ARIMA -Methode sind exponentielle Glättungsmodelle. Exponentielle Glättung berücksichtigt den Unterschied in der Bedeutung zwischen älteren und neueren Datensätzen, da die neueren Daten genauer und wertvoller bei der Vorhersage zukünftiger Werte sind. Um dies zu erreichen, werden Exponenten verwendet, um neuere Datensätze in den Berechnungen ein größeres Gewicht zu erzielen als die älteren Sätze.[11]
Zeitreihenmodelle
Zeitreihenmodelle sind eine Teilmenge des maschinellen Lernens, die Zeitreihen verwenden, um Daten mithilfe früherer Werte zu verstehen und zu prognostizieren. Eine Zeitreihe ist die Abfolge des Wertes einer Variablen über gleiche Zeiträume, wie z. B. Jahre oder Quartier in Geschäftsanwendungen.[12] Um dies zu erreichen, müssen die Daten geglättet werden, oder die zufällige Varianz der Daten muss entfernt werden, um Trends in den Daten anzuzeigen. Es gibt mehrere Möglichkeiten, dies zu erreichen.
Einzelner gleitender Durchschnitt
Einzelne Methoden für gleitende Durchschnittsmethoden verwenden immer kleinere nummerierte Sätze vergangener Daten, um Fehler zu verringern, die mit der Einnahme eines einzelnen Durchschnitts verbunden sind, was es zu einem genaueren Durchschnitt macht als der Durchschnitt des gesamten Datensatzes.[13]
Zentrierter gleitender Durchschnitt
Zentrierte gleitende Durchschnittsmethoden verwenden die Daten, die in den einzelnen gleitenden Durchschnittsmethoden gefunden wurden, indem ein Durchschnitt des mittleren Datensatzes eingenommen wird. Da der mittlere Datensatz jedoch mit geraden Datensätzen schwer zu berechnen ist, funktioniert diese Methode besser mit ungeraden Datensätzen als sogar.[14]
Vorhersagemodellierung
Vorhersagemodellierung ist eine statistische Technik, mit der künftiges Verhalten vorhergesagt wird. Es wird Prädiktive Modelle verwendet, um eine Beziehung zwischen einer bestimmten Einheit in einer bestimmten Probe und einer oder mehreren Merkmalen des Geräts zu analysieren. Das Ziel dieser Modelle ist es, die Möglichkeit zu bewerten, dass eine Einheit in einer anderen Probe dasselbe Muster zeigt. Vorhersagemodelllösungen können als Art der Data Mining -Technologie angesehen werden. Die Modelle können sowohl historische als auch aktuelle Daten analysieren und ein Modell generieren, um potenzielle zukünftige Ergebnisse vorherzusagen.[7]
Unabhängig von der verwendeten Methodik beinhaltet der Prozess der Erstellung von prädiktiven Modellen die gleichen Schritte. Erstens ist es notwendig, die Projektziele und gewünschten Ergebnisse zu bestimmen und diese in prädiktive analytische Ziele und Aufgaben zu übersetzen. Analysieren Sie dann die Quelldaten, um den am besten geeigneten Daten- und Modellaufbauansatz zu bestimmen (Modelle sind nur so nützlich wie die anwendbaren Daten, die zum Erstellen verwendet werden). Wählen Sie die Daten aus und transformieren Sie, um Modelle zu erstellen. Erstellen und Testmodelle, um zu bewerten, ob sie gültig sind und die Projektziele und Metriken erreichen können. Wenden Sie die Ergebnisse des Modells auf geeignete Geschäftsprozesse an (Identifizierung von Mustern in den Daten bedeutet nicht unbedingt, dass ein Unternehmen versteht, wie sie es nutzen oder nutzen können). Verwalten und pflegen Sie danach Modelle, um die Leistung zu standardisieren und zu verbessern (die Nachfrage wird für das Modellmanagement erhöht, um neue Compliance -Vorschriften zu erfüllen).[1]
Regressionstechniken
Im Allgemeinen verwendet die Regressionsanalyse Strukturdaten zusammen mit den früheren Werten unabhängiger Variablen und der Beziehung zwischen ihnen und der abhängigen Variablen für die Form Vorhersagen.[9]
Lineare Regression
Bei der linearen Regression wird ein Diagramm mit den vorherigen Werten der auf der y-Achse aufgetragenen abhängigen Variablen und der auf der X-Achse aufgetragenen unabhängigen Variablen konstruiert. Eine Regressionslinie wird dann durch ein statistisches Programm konstruiert, das die Beziehung zwischen den unabhängigen und abhängigen Variablen darstellt, die verwendet werden können, um die Werte der abhängigen Variablen nur auf der Grundlage der unabhängigen Variablen vorherzusagen. Mit der Regressionslinie zeigt das Programm auch eine Steigungs -Intercept -Gleichung für die Linie, die eine Addition für den Fehlerterm der Regression enthält. Um den Wert des Fehlerbegriffs zu verringern, werden andere unabhängige Variablen in das Modell eingeführt, und ähnliche Analysen werden an diesen unabhängigen Variablen durchgeführt.[9][15]
Anwendungen
Analytische Überprüfung und bedingte Erwartungen bei der Prüfung
Ein wichtiger Aspekt der Prüfung umfasst die analytische Überprüfung. In der analytischen Überprüfung wird die Angemessenheit der untersuchten Berichterstattung Konturen bestimmt. Wirtschaftsprüfer erfüllen diesen Prozess durch prädiktive Modellierung zur Bildung von Vorhersagen, die als bedingte Erwartungen der Ausgleiche mit autoregressiven integrierten Methoden (Integrated Moving Average) und allgemeine Regressionsanalysemethoden geprüft werden.[9] Speziell durch die statistische Technik für Analytical Review (STAR) -Methoden.[16]
Die ARIMA-Methode für die analytische Überprüfung verwendet Zeitreihenanalyse zu früheren geprüften Balancen, um die bedingten Erwartungen zu erzeugen. Diese bedingten Erwartungen werden dann mit den auf dem geprüfte Konto gemeldeten tatsächlichen Guthaben verglichen, um festzustellen, wie eng die gemeldeten Guthaben an den Erwartungen sind. Wenn die gemeldeten Guthaben den Erwartungen nahe sind, werden die Konten nicht weiter geprüft. Wenn sich die gemeldeten Guthaben stark von den Erwartungen unterscheiden, besteht eine höhere Möglichkeit eines materiellen Rechnungslegungsfehlers und es wird eine weitere Prüfung durchgeführt.[16]
Regressionsanalysemethoden werden auf ähnliche Weise eingesetzt, außer dass das verwendete Regressionsmodell die Verfügbarkeit von nur einer unabhängigen Variablen ausgeht. Die Wesentlichkeit der unabhängigen Variablen, die zu den geprüften Kontosträgern beiträgt, wird unter Verwendung der vergangenen Kontos zusammen mit den gegenwärtigen Strukturdaten ermittelt.[9] Materialität ist die Bedeutung einer unabhängigen Variablen in ihrer Beziehung zur abhängigen Variablen.[17] In diesem Fall ist die abhängige Variable der Kontostand. Dadurch wird die wichtigste unabhängige Variable verwendet, um die bedingte Erwartung zu erzeugen, und ähnlich wie bei der ARIMA -Methode wird die bedingte Erwartung dann mit dem angegebenen Kontostand verglichen und eine Entscheidung auf der Grundlage der Nähe der beiden Guthaben getroffen.[9]
Die Sternmethoden arbeiten unter Verwendung der Regressionsanalyse und fallen in zwei Methoden. Der erste ist der Ansatz der monatlichen Ausgleiche des Stars, und die verwendeten bedingten Erwartungen und die verwendete Regressionsanalyse sind an einen Monat gebunden, die geprüft werden. Die andere Methode ist der Ansatz der Stern jährlichen Balance, der in größerem Maßstab auftritt, indem die bedingten Erwartungen und die Regressionsanalyse auf ein Jahr geprüft werden. Neben der geprüften Zeit in der Zeit arbeiten beide Methoden gleich, indem sie erwartete und berichtete Guthaben gemeldet haben, um festzustellen, welche Konten weiter untersucht werden sollen.[16]
Geschäftswert
Wenn wir uns in eine Welt technologischer Fortschritte bewegen, in denen immer mehr Daten erstellt und digital gespeichert werden, suchen Unternehmen nach Möglichkeiten, diese Gelegenheit zu nutzen und diese Informationen zu nutzen, um Gewinne zu erzielen. Predictive Analytics können verwendet werden und können vielen Unternehmen, einschließlich Vermögensverwaltungsunternehmen, Versicherungsunternehmen, Kommunikationsunternehmen und vielen anderen Unternehmen, viele Vorteile bieten. In einer von IDC Analyse The Future durchgeführten Studie erklären Dan Vasset und Henry D. Morris, wie ein Vermögensverwaltungsunternehmen Predictive Analytics verwendet hat, um eine bessere Marketingkampagne zu entwickeln. Sie wechselten von einem Massenmarketing-Ansatz zu einem kundenorientierten Ansatz, bei dem sie jedes Angebot anstatt demselben Angebot an jeden Kunden zu senden, basierend auf seinem Kunden. Vorhersageanalyse wurde verwendet, um die Wahrscheinlichkeit vorherzusagen, dass ein möglicher Kunde ein personalisiertes Angebot annehmen würde. Aufgrund der Marketingkampagne und der Vorhersageanalyse stieg die Akzeptanzquote des Unternehmens an, wobei die dreifache Anzahl der Personen ihre personalisierten Angebote akzeptierte.[18]
Der technologische Fortschritt in der Vorhersageanalyse hat ihren Wert für Unternehmen erhöht. Ein technologischer Fortschritt sind leistungsfähigere Computer, und mit dieser prädiktiven Analytik ist es in der Lage, Prognosen für große Datensätze viel schneller zu erstellen. Mit der erhöhten Rechenleistung kommt auch mehr Daten und Anwendungen, was bedeutet, dass ein breiteres Array von Eingängen mit prädiktiver Analysen verwendet werden soll. Ein weiterer technologischer Fortschritt umfasst eine benutzerfreundlichere Schnittstelle, die eine geringere Eintrittsbarriere und weniger umfangreiche Schulungen ermöglicht, damit die Mitarbeiter die Software und Anwendungen effektiv nutzen können. Aufgrund dieser Fortschritte nehmen viele weitere Unternehmen Vorhersageanalysen ein und sehen die Vorteile für die Effizienz und Effektivität der Mitarbeiter sowie die Gewinne.[19]
Cash-Flow-Vorhersage
Arima Univariate und multivariate Modelle können zur Vorhersage der Zukunft eines Unternehmens verwendet werden Cashflowsmit seinen Gleichungen und Berechnungen basierend auf den früheren Werten bestimmter Faktoren, die zu Cashflows beitragen. Unter Verwendung der Zeitreihenanalyse können die Werte dieser Faktoren analysiert und extrapoliert werden, um die zukünftigen Cashflows für ein Unternehmen vorherzusagen. Für die univariaten Modelle sind frühere Werte von Cashflows der einzige Faktor, der in der Vorhersage verwendet wird. In der Zwischenzeit verwenden die multivariaten Modelle mehrere Faktoren im Zusammenhang mit Abgrenzungsdaten, wie z. B. das Betriebsergebnis vor der Abschreibung.[20]
Ein weiteres Modell zur Vorhersage von Cash-Flows wurde 1998 entwickelt und ist als DeChow, Kothari und Watts Model (DKW (1998) bekannt. DKW (1998) verwendet eine Regressionsanalyse, um die Beziehung zwischen mehreren Variablen und Cashflows zu bestimmen. Durch diese Methode stellte das Modell fest, dass Cashflow-Änderungen und -Anterklärungen negativ mit dem aktuellen Einkommen verbunden sind und diese Beziehung die Cashflows für die nächste Periode vorhersagt. Das DKW (1998) -Modell leitet diese Beziehung zusammen mit dem Inventar durch die Beziehungen von Rückstellungen und Cashflows zu Konten ab, die zu zahlen und Forderungen zahlbar sind.[21]
Kinderschutz
Einige Kinderhilfsbehörden haben begonnen, Vorhersageanalysen zu verwenden, um Fälle mit hohem Risiko zu kennzeichnen.[22] Zum Beispiel in Hillsborough County, FloridaDie Verwendung eines prädiktiven Modellierungswerkzeugs durch die Kinderhilfsorganisation hat bei der Zielpopulation den Tod von Missbrauch im Zusammenhang mit Kindern verhindert.[23]
Klinische Entscheidungsunterstützungssysteme
Die prädiktive Analyse hat im Gesundheitswesen hauptsächlich verwendet, um festzustellen, welche Patienten das Risiko für die Entwicklung von Erkrankungen wie Diabetes, Asthma oder Herzerkrankungen haben. Zusätzlich raffiniert Klinische Entscheidungsunterstützungssysteme Integrieren Sie Prädiktivanalysen zur Unterstützung der medizinischen Entscheidungsfindung.
Eine Studie von 2016 von Neurodegenerative Störungen Bietet ein leistungsstarkes Beispiel für eine CDS -Plattform zur Diagnose, Verfolgung, Vorhersage und Überwachung des Fortschritts von Parkinson-Krankheit.[24]
Vorhersage von Ergebnissen von rechtlichen Entscheidungen
Die Vorhersage des Ergebnisses von Juridische Entscheidungen kann durch KI -Programme erfolgen. Diese Programme können als assistive Instrumente für Berufe in dieser Branche verwendet werden.[25][26]
Vorhersage von Portfolio, Produkt oder Wirtschaftsebene
Oft liegt der Schwerpunkt der Analyse nicht der Verbraucher, sondern das Produkt, das Portfolio, die Firma, die Industrie oder sogar die Wirtschaft. Zum Beispiel könnte ein Einzelhändler daran interessiert sein, die Nachfrage auf Lagerverwaltung nach Bestandsverwaltungszwecken vorherzusagen. Oder das Federal Reserve Board könnte daran interessiert sein, die Arbeitslosenquote für das nächste Jahr vorherzusagen. Diese Arten von Problemen können durch prädiktive Analysen unter Verwendung von Zeitreihenstechniken angegangen werden (siehe unten). Sie können auch über maschinelles Lernen angesprochen werden, die die ursprüngliche Zeitreihe in einen Merkmalsvektorraum verwandeln, in dem der Lernalgorithmus Muster findet, die eine prädiktive Kraft haben.[27][28]
Underwriting
Viele Unternehmen müssen aufgrund ihrer unterschiedlichen Dienstleistungen das Risiko -Exposure berücksichtigen und die für die Deckung des Risikos erforderlichen Kosten bestimmen. Vorhersageanalysen können helfen Underwrite Diese Mengen durch Vorhersage der Krankheitswahrscheinlichkeit, Ursprünglich, Konkursusw. Die prädiktive Analyse kann den Prozess des Kundenerwerbs rationalisieren, indem das zukünftige Risikoverhalten eines Kunden anhand der Anwendungsebenendaten vorhergesagt wird. Vorhersageanalysen in Form von Kredit -Scores haben den Zeitraum, den es für Kreditgenehmigungen benötigt, insbesondere auf dem Hypothekenmarkt, verkürzt. Eine ordnungsgemäße Vorhersageanalyse kann zu ordnungsgemäßen Preisentscheidungen führen, die dazu beitragen können, das zukünftige Ausfallrisiko zu verringern. Vorhersageanalysen können verwendet werden, um moralische Gefahren zu mildern und Unfälle zu verhindern, dass Unfälle auftreten.[29]
Siehe auch
- Versicherungsmathematik
- Künstliche Intelligenz im Gesundheitswesen
- Analyseverfahren (Finanzierungsprüfung)
- Computersoziologie
- Kriminalitätsreduzierung unter Verwendung der statistischen Vorgeschichte
- Krankheitsüberwachung
- Lernanalyse
- Odds Algorithmus
- Mustererkennung
- Prädiktive Inferenz
- Vorhersagepolizei
- Social Media Analytics
Verweise
- ^ a b Eckerson, Wayne, W (2007). "Prädiktive Analytics. Erweitern Sie den Wert Ihrer Data Warehousing -Investition" (PDF).
- ^ Finlay, Steven (2014). Prädiktive Analytics, Data Mining und Big Data. Mythen, Missverständnisse und Methoden (1. Aufl.). Basingstoke: Palgrave Macmillan. p. 237. ISBN 978-1137379276.
- ^ "Vorhersage oder nicht vorherzusagen". McCoy-Partners.com. Abgerufen 2022-05-05.
- ^ Siegel, Eric (2013). Predictive Analytics: Die Befugnis, vorherzusagen, wer klickt, kauft, lügt oder stirbt (1. Aufl.). Wiley. ISBN 978-1-1183-5685-2.
- ^ Spalek, Seweryn (2019). Datenanalyse im Projektmanagement. Taylor & Francis Group, LLC.
- ^ a b "Definition von Big Data - Gartner Informationstechnologie Glossar". Gärtner. Abgerufen 2022-04-28.
- ^ a b McCarthy, Richard; McCarthy, Mary; Ceccucci, Wendy (2021). Anwendung von prädiktiven Analysen: Wert in Daten finden. Springer.
- ^ "Maschinelles Lernen, erklärt". Mit Sloan. Abgerufen 2022-05-06.
- ^ a b c d e f Kinney, William R. (1978). "Arima und Regression in der analytischen Übersicht: Ein empirischer Test". Die Rechnungslegungsüberprüfung. 53 (1): 48–60. ISSN 0001-4826. JStor 245725.
- ^ "Einführung in Arima -Modelle". people.duke.edu. Abgerufen 2022-05-06.
- ^ "6.4.3. Was ist exponentielle Glättung?". www.itl.nist.gov. Abgerufen 2022-05-06.
- ^ "6.4.1. Definitionen, Anwendungen und Techniken". www.itl.nist.gov. Abgerufen 2022-05-06.
- ^ "6.4.2.1. Single gleitender Durchschnitt". www.itl.nist.gov. Abgerufen 2022-05-06.
- ^ "6.4.2.2. Zentrierter gleitender Durchschnitt". www.itl.nist.gov. Abgerufen 2022-05-06.
- ^ "Lineare Regression". www.stat.yale.edu. Abgerufen 2022-05-06.
- ^ a b c Kinney, William R.; Salamon, Gerald L. (1982). "Regressionsanalyse bei Prüfung: Ein Vergleich alternativer Untersuchungsregeln". Journal of Accounting Research. 20 (2): 350–366. doi:10.2307/2490745. ISSN 0021-8456. JStor 2490745.
- ^ Pricewaterhousecoopers. "Materialität in Audits". Pwc. Abgerufen 2022-05-03.
- ^ Vesset, Dan; Morris, Henry D. (Juni 2011). "Der geschäftliche Wert der prädiktiven Analytik" (PDF). Weißes Papier: 1–3.
- ^ Stone, Paul (April 2007). "Einführung der Vorhersageanalysen: Chancen". Alle Tage. doi:10.2118/106865-ms.
- ^ Lorek, Kenneth S.; Willinger, G. Lee (1996). "Ein multivariates Zeitreihen-Vorhersagemodell für Cashflow-Daten". Die Rechnungslegungsüberprüfung. 71 (1): 81–102. ISSN 0001-4826. JStor 248356.
- ^ Barth, Mary E.; Cram, Donald P.; Nelson, Karen K. (2001). "Rückstellungen und die Vorhersage zukünftiger Cashflows". Die Rechnungslegungsüberprüfung. 76 (1): 27–58. doi:10.2308/ACCR.2001.76.1.27. ISSN 0001-4826. JStor 3068843.
- ^ Reform, Förderung (2016-02-03). "Neue Strategien längst überfällig bei der Messung des Wohlfahrtsrisikos für Kinder". Der Abdruck. Abgerufen 2022-05-03.
- ^ "In unserer Reichweite: Eine nationale Strategie zur Beseitigung von Kindesmissbrauch und Vernachlässigung von Todesfällen" (PDF). Kommission zur Beseitigung von Kindesmissbrauch und Vernachlässigung von Todesfällen. 2016.
- ^ Dinov, Ivo D.; Heavner, Ben; Tang, Ming; Glusman, Gustavo; Chard, Kyle; Darcy, Mike; Madduri, Ravi; PA, Judy; Spino, Cathie; Kesselman, Carl; Foster, Ian (2016-08-05). "Predictive Big Data Analytics: Eine Studie zur Parkinson-Krankheit unter Verwendung großer, komplexer, heterogener, inkongruenter, Multi-Source- und unvollständiger Beobachtungen". PLUS EINS. 11 (8): E0157077. Bibcode:2016PLOSO..1157077d. doi:10.1371/journal.pone.0157077. ISSN 1932-6203. PMC 4975403. PMID 27494614.
- ^ Aletras, Nikolaos; Tsarapatsanis, Dimitrios; Preoţiuc-pietro, Daniel; Lampos, Vasiseios (2016). "Vorhersage von gerichtlichen Entscheidungen des Europäischen Gerichtshofs für Menschenrechte: Eine Perspektive der natürlichen Sprachverarbeitung". Peerj Informatik. 2: e93. doi:10.7717/peerj-cs.93.
- ^ UCL (2016-10-24). "AI prognostiziert die Ergebnisse von Menschenrechtsversuchen". UCL -Nachrichten. Abgerufen 2022-05-03.
- ^ Dhar, Vasant (6. Mai 2011). "Vorhersage auf den Finanzmärkten: Der Fall für kleine Disjunkte". ACM -Transaktionen zu intelligenten Systemen und Technologie. 2 (3): 1–22. doi:10.1145/1961189.1961191. ISSN 2157-6904. S2CID 11213278.
- ^ Dhar, Vasant; Chou, Dashin; Provost, Foster (2000-10-01). "Entdecken Sie interessante Muster für die Entscheidungsfindung in Anlage mit glühender ◯-a genetischer Lernender, der mit Entropiereduktion überlagert ist.". Data Mining und Wissensentdeckung. 4 (4): 251–280. doi:10.1023/a: 1009848126475. ISSN 1384-5810. S2CID 1982544.
- ^ Montserrat, Guillen; Cevolini, Alberto (November 2021). "Verwendung von Risikoanalysen zur Verhinderung von Unfällen, bevor sie auftreten - die Zukunft der Versicherung". Journal of Financial Transformation.
Weitere Lektüre
- Agresti, Alan (2002). Kategorische Datenanalyse. Hoboken: John Wiley und Söhne. ISBN 0-471-36093-7.
- Coggeshall, Stephen, Davies, John, Jones, Roger.und Schutzer, Daniel, "intelligente Sicherheitssysteme", in Freedman, Roy S., Flein, Robert A. und Lederman, Jess, Herausgeber (1995). Künstliche Intelligenz auf den Kapitalmärkten. Chicago: Irwin. ISBN 1-55738-811-3.
{{}}
:|author=
hat generischen Namen (Hilfe)CS1 Wartung: Mehrere Namen: Autorenliste (Link) - L. Devroye; L. Györfi; G. Lugosi (1996). Eine probabilistische Theorie der Mustererkennung. New York: Springer-Verlag. ISBN 9781461207115.
- Enders, Walter (2004). Angewandte Zeitreihenökonometrie. Hoboken: John Wiley und Söhne. ISBN 0-521-83919-x.
- Greene, William (2012). Ökonometrische Analyse, 7. Aufl.. London: Prentice Hall. ISBN 978-0-13-139538-1.
- Guidère, Mathieu; Howard N, Sh. Argamon (2009). Reiche Sprachanalyse für Terrorismusbekämpfung. Berlin, London, New York: Springer-Verlag. ISBN 978-3-642-01140-5.
- Mitchell, Tom (1997). Maschinelles Lernen. New York: McGraw-Hill. ISBN 0-07-042807-7.
- Siegel, Eric (2016). Predictive Analytics: Die Befugnis, vorherzusagen, wer klicken, kaufen, lügen oder sterben wird. John Wiley. ISBN 978-1119145677.
- Tukey, John (1977). Explorationsdatenanalyse. New York: Addison-Wesley. ISBN 0-201-07616-0.
- Finlay, Steven (2014). Prädiktive Analytics, Data Mining und Big Data. Mythen, Missverständnisse und Methoden. Basingstoke: Palgrave Macmillan. ISBN 978-1-137-37927-6.
- Coker, Frank (2014). Puls: Verständnis der wichtigsten Zeichen Ihres Unternehmens. Bellevue, WA: Ambient Light Publishing. ISBN 978-0-9893086-0-1.