Netz Analyse
Netz Analyse ist die Messung, Sammlung, Analyse, und Berichterstattung über Web Daten zu verstehen und zu optimieren Webnutzung.[1] Webanalytik ist nicht nur ein Prozess zum Messen Webverkehr kann aber als Werkzeug für Unternehmen verwendet werden und Marktforschung und beurteilen und verbessern Webseite Wirksamkeit. Webanalyseanwendungen können Unternehmen auch dabei helfen, die Ergebnisse des herkömmlichen Drucks oder der Sendung zu messen Werbekampagne. Es kann verwendet werden, um zu schätzen, wie sich der Verkehr zu einer Website nach dem Start einer neuen Werbekampagne ändert. Web Analytics bietet Informationen über die Anzahl der Besucher zu einer Website und die Anzahl der Seitenansichten oder erstellen Benutzerverhaltensprofile.[2] Es hilft, Verkehr und Popularitätstrends zu messen, was für die Marktforschung nützlich ist.
Grundlegende Schritte des Webanalytikprozesses

Die meisten Webanalyseprozesse sind auf vier wesentliche Phasen oder Schritte zurückzuführen,[3] welche sind:
- Datenerfassung: Diese Phase ist die Erfassung der grundlegenden elementaren Daten. Normalerweise sind diese Daten Zählungen von Dingen. Ziel dieser Phase ist es, die Daten zu sammeln.
- Verarbeitung von Daten in Informationen: Diese Phase nimmt normalerweise Zählungen an und macht sie Verhältnisse, obwohl es möglicherweise noch einige Zählungen gibt. Das Ziel dieser Phase ist es, die Daten zu übernehmen und sie in Informationen, insbesondere den Metriken, anzupassen.
- Entwicklung von KPI: Diese Phase konzentriert Schlüsselleistungsindikatoren (KPI). KPIs befassen sich oft mit Conversion -Aspekten, aber nicht immer. Es hängt von der Organisation ab.
- Formulierung der Online -Strategie: Diese Phase befasst sich mit den Online -Zielen, -zielen und -standards für die Organisation oder das Unternehmen. Diese Strategien beziehen sich in der Regel mit Geldverdiensten, Sparen oder Erhöhung des Marktanteils.
Eine weitere wesentliche Funktion, die von den Analysten zur Optimierung der Websites entwickelt wurde, sind die Experimente
- Experimente und Tests: A/B -Test ist ein kontrolliertes Experiment mit zwei Varianten in Online -Einstellungen wie z. Web Entwicklung.
Das Ziel von A/B -Tests besteht darin, Änderungen der Webseiten zu identifizieren und vorzuschlagen, die den Effekt eines statistisch getesteten Ergebniss von Interesse erhöhen oder maximieren.
Jede Stufe wirkt sich auf oder kann die vorangegangene Stufe beeinflussen (d. H. D.h. Manchmal beeinflusst die Daten, die für die Sammlung verfügbar sind, die Online -Strategie. In anderen Fällen wirkt sich die Online -Strategie auf die gesammelten Daten aus.
Webanalytics -Technologien
Es gibt mindestens zwei Kategorien von Webanalysen. außerhalb des Standorts und vor Ort Netz Analyse.
- Webanalysen außerhalb des Standorts Bezieht sich auf Webmessungen und -analysen, unabhängig davon, ob eine Person eine Website besitzt oder unterhält. Es enthält die Messung der Website einer Website Potenzial Publikum (Gelegenheit), Anteil der Sprache (Sichtbarkeit) und Buzz (Kommentare), die im gesamten Internet stattfinden.
- Webanalyse vor OrtMessen Sie das Verhalten eines Besuchers einmal auf einer bestimmten Website. Dies schließt seine Treiber und Umbauten ein; Zum Beispiel das Grad, in dem sich unterscheidet Startseiten sind mit Online -Einkäufen verbunden. Webanalytik vor Ort misst die Leistung einer bestimmten Website in einem kommerziellen Kontext. Diese Daten werden typischerweise mit Schlüsselleistungsindikatoren für die Leistung und wird verwendet, um eine Website zu verbessern oder VermarktungskampagneDas Publikum Antwort. Google Analyticsund Adobe Analyticssind der am häufigsten verwendete Webanalytics-Dienst vor Ort; Obwohl neue Tools entstehen, die zusätzliche Informationsebenen liefern, einschließlich Wärmekarten und Sitzung Wiederholung.
Historisch gesehen wurde Webanalysen verwendet, um sich auf die Messung der Besucher vor Ort zu beziehen. Diese Bedeutung ist jedoch verschwommen, vor allem, weil Anbieter Werkzeuge produzieren, die beide Kategorien umfassen. Viele verschiedene Anbieter bieten vor Ort Webanalyse -Software und Dienstleistungen. Es gibt zwei technische Hauptmethoden, um die Daten zu sammeln. Die erste und traditionelle Methode, Serverprotokolldateianalyse, liest die Protokolldateien in welcher Webserver Aufzeichnungen von Dateianfragen von Browsern. Die zweite Methode, Seitennagging, Verwendet JavaScript Eingebettet in die Webseite, um Bildanfragen an einen von Drittanbietern analytischen Server zu stellen, wenn eine Webseite von einem gerendert wird Webbrowser oder falls gewünscht, wenn ein Mausklick auftritt. Beide sammeln Daten, die verarbeitet werden können, um Webverkehrsberichte zu erstellen.
Datenquellen für Webanalysen
Das grundlegende Ziel der Webanalyse besteht darin, Daten im Zusammenhang mit Webverkehr und Nutzungsmustern zu sammeln und zu analysieren. Die Daten stammen hauptsächlich aus vier Quellen:[4]
- Direct HTTP -Anforderungsdaten: Direkt aus HTTP -Anforderungsnachrichten (HTTP -Anforderungsheader).
- Daten auf Netzwerkebene und servergebundene Daten, die mit HTTP-Anforderungen zugeordnet sind: Nicht Teil einer HTTP-Anforderung, aber für erfolgreiche Anforderungsübertragungen sind dies erforderlich-beispielsweise die IP-Adresse eines Antragstellers.
- Daten auf Anwendungsebene mit HTTP-Anforderungen gesendet: generiert und verarbeitet von Programmen auf Anwendungsebene (wie JavaScript, PHP und ASP.NET), einschließlich Sitzungen und Empfehlungen. Diese werden normalerweise eher von internen Protokollen als von öffentlichen Webanalysediensten erfasst.
- Externe Daten: Kann mit Daten vor Ort kombiniert werden, um die oben beschriebenen Website-Verhaltensdaten zu verbessern und die Webnutzung zu interpretieren. Beispielsweise werden IP-Adressen in der Regel mit geografischen Regionen und Internetdienstanbietern, E-Mail-E-Mails und Klickraten, Direktwerbung für Kampagnen, Verkäufe, Lead-Historien oder anderen Datentypen verbunden.
Webserverprotokolldateianalyse
Webserver zeichnen einige ihrer Transaktionen in einer Protokolldatei auf. Es wurde bald festgestellt, dass diese Protokolldateien von einem Programm gelesen werden konnten, um Daten zur Popularität der Website bereitzustellen. So entstanden Webprotokollanalyse -Software.
In den frühen neunziger Jahren bestand die Website -Statistik in erster Linie aus der Anzahl der Kundenanfragen (oder Hits) auf den Webserver gemacht. Dies war anfangs eine vernünftige Methode, da jede Website häufig aus einer einzelnen HTML -Datei bestand. Mit der Einführung von Bildern in HTML und Websites, die mehrere HTML -Dateien erstreckten, wurde diese Anzahl weniger nützlich. Der erste echte kommerzielle Protokollanalysator wurde 1994 von IPRO veröffentlicht.[5]
Mitte der neunziger Jahre wurden zwei Maßeinheiten eingeführt, um die Menge der menschlichen Aktivitäten auf Webservern genauer zu messen. Diese waren Seitenaufrufe und Besuche (oder Sitzungen). EIN Seitenansicht wurde als eine Anfrage definiert, die für eine Seite an den Webserver gestellt wurde, im Gegensatz zu einer Grafik, während a Besuch wurde definiert als eine Abfolge von Anforderungen eines einzigartig identifizierten Kunden, der nach einer bestimmten Inaktivität, normalerweise 30 Minuten, abgelaufen ist.
Das Auftauchen von Suchmaschinenspinnen und Roboter Ende der neunziger Jahre zusammen mit Web -Proxies und Dynamisch zugewiesene IP -Adressen für große Unternehmen und ISPs, machte es schwieriger, einzigartige menschliche Besucher auf einer Website zu identifizieren. Protokollanalysatoren reagierten von Verfolgung Besuche von Kekseund durch Ignorieren von Anfragen von bekannten Spinnen.
Die umfassende Verwendung von Web -Caches präsentierte auch ein Problem für die Analyse der Protokolldatei. Wenn eine Person eine Seite wiederholt, wird die zweite Anfrage häufig aus dem Cache des Browsers abgerufen, so dass vom Webserver keine Anfrage empfangen wird. Dies bedeutet, dass der Weg der Person durch die Website verloren geht. Das Caching kann durch Konfigurieren des Webservers besiegt werden. Dies kann jedoch zu einer verschlechterten Leistung für den Besucher und eine größere Last auf den Servern führen.[6]
Seitennagging
Bedenken hinsichtlich der Genauigkeit der Protokolldateianalyse bei Vorhandensein von Caching und dem Wunsch, Webanalysen als ausgelagerten Dienst durchzuführen, führten zur zweiten Datenerfassungsmethode, das Seiten -Tagging oder die Seite "Seitenverfahren oder".Web Beacons".
Mitte der 1990er Jahre, Webzähler Es wurden üblicherweise zu sehen - dies waren Bilder, die in einer Webseite enthalten waren, die zeigten, wie oft das Bild angefordert wurde, was eine Schätzung der Anzahl der Besuche in dieser Seite war. In den späten neunziger Jahren entwickelte sich dieses Konzept zu einem kleinen unsichtbaren Bild anstelle eines sichtbaren Bildes und mithilfe von JavaScript zusammen mit der Bildanforderung bestimmte Informationen über die Seite und den Besucher. Diese Informationen können dann von einem Webanalyseunternehmen remote verarbeitet und umfangreiche Statistiken generiert werden.
Der Webanalytics -Dienst verwaltet auch den Prozess der Zuweisung eines Cookies dem Benutzer, mit dem sie während seines Besuchs und bei späteren Besuchen eindeutig identifiziert werden können. Die Akzeptanzraten von Cookie variieren erheblich zwischen den Websites und können die Qualität der gesammelten und gemeldeten Daten beeinflussen.
Sammeln von Website-Daten mit einem Drittanbieter-Datenerfassungsserver (oder sogar einem internen Datenerfassungsserver) erfordert ein zusätzliches DNS Suchen Sie nach dem Computer des Benutzers, um die IP -Adresse des Sammelservers zu bestimmen. Gelegentlich können Verzögerungen beim Abschluss erfolgreicher oder fehlgeschlagener DNS -Lookups dazu führen, dass Daten nicht gesammelt werden.
Mit zunehmender Popularität von Ajax-Basierte Lösungen, eine Alternative zur Verwendung eines unsichtbaren Bildes besteht darin, einen Rückruf an den Server von der gerenderten Seite zu implementieren. In diesem Fall würde ein Stück JavaScript -Code an den Server zurückgerufen und Informationen über den Client weitergeben, der dann von einem Webanalytics -Unternehmen aggregiert werden kann, wenn die Seite im Webbrowser gerendert wird.
LogFile -Analyse vs Seiten -Tagging
Sowohl LogFile -Analyse -Programme als auch Seiten -Tagging -Lösungen sind für Unternehmen zur Verfügung, die Webanalysen durchführen möchten. In einigen Fällen wird das gleiche Webanalyseunternehmen beide Ansätze anbieten. Die Frage stellt sich dann, welche Methode ein Unternehmen wählen sollte. Jeder Ansatz hat Vor- und Nachteile.[7]
Vorteile der Logfileanalyse
Die Hauptvorteile der Protokolldateianalyse gegenüber der Seiten -Tagging sind wie folgt:
- Der Webserver erstellt normalerweise bereits Protokolldateien, sodass die Rohdaten bereits verfügbar sind. Es sind keine Änderungen an der Website erforderlich.
- Die Daten befinden sich auf den Servern des Unternehmens und befinden sich eher in einem Standard als in einem proprietären Format. Dies erleichtert ein Unternehmen, die Programme später zu wechseln, verschiedene Programme zu verwenden und historische Daten mit einem neuen Programm zu analysieren.
- Protokolldateien enthalten Informationen zu Besuchen von Suchmaschinenspinnen, die im Allgemeinen mithilfe von JavaScript -Tagging aus den Analysetools ausgeschlossen sind. (Einige Suchmaschinen führen möglicherweise nicht einmal JavaScript auf einer Seite aus.) Obwohl diese nicht als Teil der menschlichen Aktivität gemeldet werden sollten, sind es nützliche Informationen für nützliche Informationen für Suchmaschinenoptimierung.
- Protokolldateien erfordern keine zusätzliche DNS Lookups oder TCP Slow beginnt. Somit gibt es keine externen Serveraufrufe, die die Seitenlastgeschwindigkeiten verlangsamen oder zu unzähligen Seitenansichten führen können.
- Der Webserver zeichnet zuverlässig jede von ihm durchgeführte Transaktion auf, z. Servieren von PDF -Dokumenten und -inhalten, die von Skripten generiert werden, und stützt sich nicht darauf, dass die Browser der Besucher zusammenarbeiten.
Vorteile des Seiten -Tagging
Die Hauptvorteile der Seiten -Markierung gegenüber der Protokolldateianalyse sind wie folgt:
- Das Zählen wird aktiviert, indem die Seite geöffnet wird (angesichts der Tatsache, dass der Web -Client die Tag -Skripte ausführt) und sie nicht vom Server anfordert. Wenn eine Seite zwischengespeichert wird, wird sie nicht durch serverbasierte Protokollanalyse gezählt. Zwischen zwischengespeicherte Seiten können bis zu ein Drittel aller Seitenansichten berücksichtigen, was sich negativ auf viele Site-Metriken auswirken kann.
- Die Daten werden über eine Komponente ("Tag") auf der Seite gesammelt, die normalerweise in JavaScript geschrieben wurde. Es wird normalerweise in Verbindung mit einer serverseitigen Skriptsprache verwendet (wie z. Php) zu manipulieren und (normalerweise) in einer Datenbank zu speichern.
- Das Skript hat möglicherweise Zugriff auf zusätzliche Informationen im Web -Client oder auf den Benutzer, der nicht in der Abfrage gesendet wird, z. B. die Bildschirmgrößen der Besucher und den Preis der von ihnen gekauften Waren.
- Das Seitungs -Tagging kann über Ereignisse berichten, die keine Anfrage an den Webserver beinhalten, z. B. Interaktionen innerhalb Blinken Filme, teilweise Formulare, Mausereignisse wie Onclick, Onmouseover, Onfocus, Onblur usw.
- Der Seiten -Tagging -Service verwaltet den Prozess der Zuweisung von Cookies an Besucher. Bei der Analyse der Protokolldatei muss der Server darauf konfiguriert werden.
- Unternehmens -Tagging steht Unternehmen zur Verfügung, die keinen Zugriff auf ihre Webserver haben.
- In letzter Zeit ist das Seiten -Tagging zu einem Standard in Webanalysen geworden.[8]
Ökonomische Faktoren
Die Logfileanalyse wird fast immer intern durchgeführt. Das Seitungs-Tagging kann intern ausgeführt werden, wird jedoch häufiger als Drittanbieter-Dienst bereitgestellt. Der wirtschaftliche Unterschied zwischen diesen beiden Modellen kann auch für eine Firma berücksichtigt werden, die erkauft.
- Die LogFile-Analyse umfasst typischerweise einen einmaligen Software-Kauf. Einige Anbieter führen jedoch maximale jährliche Seitenansichten mit zusätzlichen Kosten ein, um zusätzliche Informationen zu verarbeiten. Zusätzlich zu kommerziellen Angeboten sind mehrere Open-Source-Analyse-Analyse-Tools sind kostenlos erhältlich.
- Für die Analyse von Logfile müssen Daten gespeichert und archiviert werden, was häufig schnell groß wird. Obwohl die Kosten für Hardware dazu minimal sind, kann der Overhead für eine IT -Abteilung beträchtlich sein.
- Für die LogFile -Analyse muss Software gehalten werden, einschließlich Updates und Sicherheitspatches.
- Komplexe Seiten -Tagging -Anbieter berechnen eine monatliche Gebühr basierend auf dem Volumen, d. H. Anzahl der Seitenansichten pro Monat gesammelt.
Welche Lösung billiger ist, hängt von der Menge an technischem Know -how im Unternehmen, dem ausgewählten Anbieter, der auf den Websites zu sehenen Aktivitäten, der Tiefe und der Art der gesuchten Informationen und der Anzahl der unterschiedlichen Websites ab, die Statistiken benötigen.
Unabhängig von der angewendeten Anbieterlösung oder der Datenerfassungsmethode sollten auch die Kosten für die Analyse und Interpretation von Web -Besucher einbezogen werden. Das heißt, die Kosten für die Umwandlung von Rohdaten in umsetzbare Informationen. Dies kann aus der Verwendung von Beratern von Drittanbietern, der Einstellung eines erfahrenen Webanalysts oder der Schulung einer geeigneten internen Person erfolgen. EIN Kosten-Nutzen-Analyse kann dann durchgeführt werden. Welche Umsatzerhöhung oder Kosteneinsparungen können beispielsweise durch Analyse der Web -Besucherdaten erzielt werden?
Hybridmethoden
Einige Unternehmen produzieren Lösungen, die Daten sowohl über Protokolldateien als auch über Seiten -Tagging sammeln und beide Arten analysieren können. Mithilfe einer Hybridmethode möchten sie genauere Statistiken als die beiden Methoden für sich erstellen. Eine frühe Hybridlösung wurde 1998 von Rufus Evison produziert.
Geolokalisierung von Besuchern
Mit IP -GeolokalisierungEs ist möglich, die Standorte der Besucher zu verfolgen. Mit einer IP -Geolocation -Datenbank oder einer API können Besucher auf Stadt, Region oder Länderebene geoloziert werden.[9]
IP Intelligence oder Internet Protocol (IP) Intelligence ist eine Technologie, die das Internet abbildet und IP -Adressen nach Parametern wie geografischer Standort (Land, Region, Staat, Stadt und Postleitzahl), Verbindungstyp, Internetdienstanbieter (ISP), kategorisiert, kategorisiert. Proxyinformationen und mehr. Die erste Generation von IP -Intelligenz wurde als bezeichnet Geotargeting oder Geolokalisierung Technologie. Diese Informationen werden von Unternehmen für die Online -Publikumssegmentierung in Anwendungen wie verwendet Onlinewerbung, Verhaltensziel, Inhaltslokalisierung (oder Website -Lokalisierung), Management von Digitalen Rechten, Personalisierung, Online -Betrugserkennung, lokalisierte Suche, erweiterte Analyse, globales Verkehrsmanagement und Inhaltsverteilung.
Klicken Sie auf Analytics

Klicken Sie auf Analytics, auch bekannt als ClickStream ist eine besondere Art von Webanalysen, die besondere Aufmerksamkeit auf sich ziehen Klicks.
Häufig, Klicken Sie auf Analytics Konzentriert sich auf vor Ort analytische. Ein Redakteur einer Website verwendet Click Analytics, um die Leistung seiner jeweiligen Site zu bestimmen, wenn die Benutzer der Website klicken.
Ebenfalls, Klicken Sie auf Analytics Kann je nach Art der gesuchten Informationen in Echtzeit oder "unwirklichen" Zeiten stattfinden. In der Regel möchten die Redakteure von Titelseiten auf Hochtouren-Nachrichtenmedien-Websites ihre Seiten in Echtzeit überwachen, um den Inhalt zu optimieren. Redakteure, Designer oder andere Arten von Stakeholdern können Klicks auf einen breiteren Zeitrahmen analysieren, um die Leistung von Autoren, Designelementen oder Anzeigen usw. zu bewerten.
Daten zu Klicks können auf mindestens zwei Arten gesammelt werden. Im Idealfall ist ein Klick, wenn er auftritt, "protokolliert", und diese Methode erfordert eine gewisse Funktionalität, die relevante Informationen aufnimmt, wenn das Ereignis auftritt. Alternativ kann man die Annahme einrichten, dass eine Seitenansicht ein Ergebnis eines Klicks ist, und daher ein simuliertes Klick protokollieren, der zu dieser Seitenansicht führte.
Kundenlebenszyklusanalyse
Die Kundenlebenszyklusanalyse ist ein Besucheransatz für die Messung, der unter den Dach des Lebenszyklus-Marketings fällt. Seitenansichten, Klicks und andere Ereignisse (z. B. API-Anrufe, Zugriff auf Dienste von Drittanbietern usw.) sind alle an einen einzelnen Besucher gebunden, anstatt als separate Datenpunkte gespeichert zu werden. Customer Lifecycle Analytics versucht, alle Datenpunkte an a zu verbinden Marketingtrichter das kann Einblicke in das Besucherverhalten und das Verhalten von Besuchern bieten und Website -Optimierung.
Andere Methoden
Manchmal werden andere Methoden zur Datenerfassung verwendet. Paketschnüffeln sammelt Daten von schnüffeln Der Netzwerkverkehr zwischen dem Webserver und der Außenwelt. Das Paketschnüffeln beinhaltet keine Änderungen an den Webseiten oder Webservern. Die Integration von Webanalysen in die Webserver -Software selbst ist ebenfalls möglich.[10] Beide Methoden behaupten, bessere zu liefern Echtzeit Daten als andere Methoden.
Webanalytics-Metriken vor Ort
Es gibt keine global vereinbarten Definitionen innerhalb von Webanalysen, da die Branchengremien versucht haben, sich auf Definitionen zu einigen, die seit einiger Zeit nützlich und endgültig sind. Die wichtigsten Körperschaften, die in diesem Bereich Input gehabt haben, waren das IAB (Interactive Advertising Bureau). Jicwebs (Das gemeinsame Industriekomitee für Webstandards in Großbritannien und Irland) und die DAA (Digital Analytics Association), formell als WAA (Web Analytics Association, USA) bekannt. Viele Begriffe werden jedoch auf konsistente Weise von einem Hauptanalyse -Tool zum anderen verwendet. Die folgende Liste, die auf diesen Konventionen basiert, kann ein nützlicher Ausgangspunkt sein:
- Absprungrate - Der Prozentsatz der Besuche, die einseitige Besuche und ohne andere Interaktionen (Klicks) auf dieser Seite sind. Mit anderen Worten, ein einzelner Klick in einer bestimmten Sitzung wird als Sprunggelände bezeichnet.
- Klicken Sie auf Pfad - Die chronologische Abfolge von Seitenansichten innerhalb eines Besuchs oder einer Sitzung.
- Schlag - Eine Anfrage für eine Datei vom Webserver. Nur in der Protokollanalyse verfügbar. Die Anzahl der von einer Website erhaltenen Treffer wird häufig angeführt, um ihre Popularität zu behaupten, aber diese Zahl ist äußerst irreführend und überschätzt dramatisch die Popularität. Eine einzelne Webseite besteht in der Regel aus mehreren (häufig Dutzenden) diskreter Dateien, von denen jeder als Hit beim Herunterladen von Treffern gezählt wird. Daher ist die Anzahl der Hits wirklich eine willkürliche Zahl Die Website als die tatsächliche Beliebtheit der Website. Die Gesamtzahl der Besuche oder Seitenansichten bietet eine realistischere und genauere Bewertung der Beliebtheit.
- Seitenansicht - Eine Anfrage für eine Datei oder manchmal ein Ereignis wie ein Mausklick, das als Seite im Setup des Webanalyse -Tools definiert ist. Ein Auftreten des Skripts, das im Seiten -Tagging ausgeführt wird. In der Protokollanalyse kann eine einzelne Seitenansicht mehrere Treffer generieren, da alle Ressourcen, die für die Anzeige der Seite (Bilder, .js und .css -Dateien) erforderlich sind, auch vom Webserver angefordert.
- Besucher/eindeutiger Besucher/eindeutiger Benutzer - Der einzigartig identifizierte Client, der Seitenansichten oder Treffer innerhalb eines definierten Zeitraums generiert (z. B. Tag, Woche oder Monat). Ein einzigartig identifizierter Client ist normalerweise eine Kombination aus einer Maschine (z. Die Identifizierung erfolgt normalerweise über einen anhaltenden Cookie, der vom Site -Seitencode am Computer platziert wurde. Eine ältere Methode, die in der Protokolldateianalyse verwendet wird, ist die eindeutige Kombination der IP-Adresse des Computers und der vom Browser dem Webserver bereitgestellten Benutzer-Agent-Informationen (Browser). Es ist wichtig zu verstehen, dass der "Besucher" zum Zeitpunkt des Besuchs nicht dasselbe ist wie der Mensch, der am Computer sitzt, da ein einzelner Mensch verschiedene Computer verwenden kann oder auf demselben Computer verschiedene Browser verwenden kann und wird unter jedem Umstand als anderer Besucher angesehen. Zunehmend, aber immer noch, etwas selten, werden Besucher von Flash LSOs einzigartig identifiziert (von Flash LSO (Lokale gemeinsame Objekte), die weniger anfällig für Datenschutzbestimmungen sind.
- Besuch/Sitzung - Ein Besuch oder eine Sitzung ist als eine Reihe von Seitenanfragen oder im Fall von Tags Bildanfragen von demselben einzigartig identifizierten Client definiert. Ein eindeutiger Client wird üblicherweise durch eine IP -Adresse oder eine eindeutige ID identifiziert, die im Browser -Cookie platziert ist. Ein Besuch wird als beendet angesehen, wenn in einigen verstrichenen Minuten keine Anfragen aufgezeichnet wurden. Eine 30-minütige Grenze ("Auszeit") wird von vielen Analysetools verwendet, kann jedoch in einigen Tools (wie Google Analytics) in eine weitere Anzahl von Minuten geändert werden. Analytics -Datensammler und Analysetools haben keine zuverlässige Art zu wissen, ob ein Besucher andere Websites zwischen Seitenansichten untersucht hat. Ein Besuch wird als ein Besuch angesehen, solange die Ereignisse (Seitenansichten, Klicks, was auch immer aufgezeichnet wird) 30 Minuten oder weniger nahe beieinander liegen. Beachten Sie, dass ein Besuch aus einer einseitigen Ansicht oder Tausenden bestehen kann. Eine einzigartige Besuchssitzung kann auch erweitert werden, wenn die Zeit zwischen Seitenladungen angibt, dass ein Besucher die Seiten kontinuierlich anzeigt.
- Aktive Zeit/Engagementzeit - Durchschnittliche Zeit, die Besucher tatsächlich mit Inhalten auf einer Webseite interagieren, basierend auf Mausbewegungen, Klicks, Haufen und Schriftrollen. Im Gegensatz zu Sitzungsdauer und Seitenansichtsdauer/Zeit auf der Seite ist diese Metrik kann Messen Sie genau die Länge des Engagements in der endgültigen Seitenansicht, ist jedoch in vielen Analysetools oder Datenerfassungsmethoden nicht verfügbar.
- Durchschnittliche Seitentiefe/Seitenansichten pro durchschnittlicher Sitzung - Seitentiefe ist die ungefähre "Größe" eines durchschnittlichen Besuchs, berechnet durch die Teile der Gesamtzahl der Seitenansichten durch die Gesamtzahl der Besuche.
- Durchschnittliche Seitenansichtsdauer - Durchschnittliche Zeit, die Besucher auf einer durchschnittlichen Seite der Website ausgeben.
- Klicken - "Bezieht sich auf eine einzelne Instanz eines Benutzers, die einem Hyperlink von einer Seite in einer Website zu einer anderen folgt".
- Vorfall - Eine diskrete Aktion oder Klasse von Aktionen, die auf einer Website stattfinden. Eine Seitenansicht ist eine Art Ereignis. Ereignisse verkörpern auch Klicks, Formularunterlagen, TastePress-Ereignisse und andere clientseitige Benutzeraktionen.
- Ausgangsrate/% Ausgang - Eine Statistik, die auf eine einzelne Seite angewendet wird, nicht auf eine Website. Der Prozentsatz der Besuche, die eine Seite sehen, auf der diese Seite die letzte Seite ist, die im Besuch angezeigt wird.
- Erster Besuch/erste Sitzung - (in einigen Tools auch als "absoluter einzigartiger Besucher" bezeichnet) ein Besuch eines einzigartig identifizierten Kunden, der theoretisch keine früheren Besuche gemacht hat. Da die einzige Möglichkeit zu wissen, ob der einzigartig identifizierte Kunde zuvor auf der Website war, ist das Vorhandensein von a anhaltender Keks oder über Digital Fingerprinting das war bei einem früheren Besuch eingegangen, die Erster Besuch Das Etikett ist nicht zuverlässig, wenn die Cookies der Website seit ihrem vorherigen Besuch gelöscht wurden.
- Frequenz/Sitzung pro einzigartig - Frequenz misst, wie oft Besucher in einem bestimmten Zeitraum auf eine Website kommen. Es wird berechnet, indem die Gesamtzahl der Sitzungen (oder Besuche) durch die Gesamtzahl der eindeutigen Besucher während eines bestimmten Zeitraums wie einem Monat oder Jahr geteilt wird. Manchmal wird es mit dem Begriff "Loyalität" austauschbar verwendet.
- Eindruck - Die häufigste Definition von Eindruck ist eine Instanz einer Anzeige, die auf einer angezeigten Seite angezeigt wird. Beachten Sie, dass eine Anzeige auf einer angezeigten Seite unterhalb des auf dem Bildschirm angezeigten Bereichs angezeigt werden kann, sodass die meisten Eindrücke nicht unbedingt bedeuten, dass eine Anzeige zu sehen war.
- Neuer Besucher - Ein Besucher, der keine früheren Besuche gemacht hat. Diese Definition erzeugt ein gewisses Maß an Verwirrung (siehe gemeinsame Verwirrungen unten) und wird manchmal durch Analyse der ersten Besuche ersetzt.
- Seitenzeit anzeigen/Seite Sichtbarkeitszeit/Seitenansicht Dauer anzeigen - Die Zeit, in der eine einzelne Seite (oder ein Blog, Anzeigenbanner) auf dem Bildschirm ist und als berechnete Differenz zwischen der Zeit der Anfrage für diese Seite und der Zeit der nächsten aufgezeichneten Anfrage gemessen wird. Wenn es keine nächste aufgezeichnete Anfrage gibt, ist die Anzeigenzeit dieser Instanz dieser Seite nicht in Berichten enthalten.
- Besucher wiederholen - Ein Besucher, der mindestens einen vorherigen Besuch gemacht hat. Der Zeitraum zwischen dem letzten und dem aktuellen Besuch wird als Besuchervertreter bezeichnet und wird an Tagen gemessen.
- Besucher zurückgeben - Ein einzigartiger Besucher mit Aktivität, der aus einem Besuch in einem Standort während eines Berichtszeitraums bestand und wo der eindeutige Besucher die Website vor dem Berichtszeitraum besuchte. Die Person wird während des Berichtszeitraums nur einmal gezählt.
- Sitzungsdauer/Besuchsdauer - Durchschnittliche Zeit, die Besucher jedes Mal auf der Website verbringen, wenn sie besuchen. Es wird als Summe der Dauer aller Sitzungen geteilt durch die Gesamtzahl der Sitzungen berechnet. Diese Metrik kann durch die Tatsache kompliziert werden, dass Analyseprogramme die Länge der endgültigen Seitenansicht nicht messen können.
- Single -Page -Besuch/Singleton - Ein Besuch, bei dem nur eine einzelne Seite angezeigt wird (dies ist kein 'Bounce').
- Site Overlay ist eine Berichtstechnik, bei der Statistiken (Klicks) oder Hotspots an einem visuellen Schnappschuss der Webseite über den physischen Standort überlagert werden.
- Klickrate ist ein Verhältnis von Benutzern, die auf einen bestimmten Link zu der Anzahl der gesamten Benutzer klicken, die eine Seite, eine E -Mail oder eine Anzeige anzeigen. Es wird häufig verwendet, um den Erfolg einer Online -Werbekampagne für eine bestimmte Website sowie die Effektivität von E -Mail -Kampagnen zu messen.
Webanalysen außerhalb des Standorts
Die Webanalyse außerhalb des Standorts basiert auf offener Datenanalyse. sozialen Medien Erkundung, Anteil der Sprache in Webeigenschaften. Es wird normalerweise verwendet, um zu verstehen, wie eine Website vermarktet wird, indem die auf dieser Website markierten Schlüsselwörter entweder aus sozialen Medien oder von anderen Websites identifiziert werden.
Häufige Quellen der Verwirrung in der Webanalytik
Das Hotelproblem
Das Hotelproblem ist im Allgemeinen das erste Problem, das von einem Benutzer von Webanalysen auftritt. Das Problem ist, dass die eindeutigen Besucher für jeden Tag in einem Monat nicht zu der gleichen Gesamtsumme wie die eindeutigen Besucher für diesen Monat führen. Dies scheint einem unerfahrenen Benutzer ein Problem in jeder analytischen Software zu sein, die er verwendet. Tatsächlich ist es eine einfache Eigenschaft der metrischen Definitionen.
Der Weg, um sich die Situation vorzustellen, besteht darin, sich ein Hotel vorzustellen. Das Hotel verfügt über zwei Zimmer (Zimmer A und Zimmer B).
Tag 01 | Tag 02 | Tag 03 | Gesamt | |
---|---|---|---|---|
Raum a | John | John | Markieren | 2 einzigartige Benutzer |
Zimmer b | Markieren | Anne | Anne | 2 einzigartige Benutzer |
Gesamt | 2 | 2 | 2 | ? |
Wie die Tabelle zeigt, verfügt das Hotel über drei Tage jeden Tag zwei einzigartige Benutzer. Die Summe der Summen in Bezug auf die Tage beträgt daher sechs.
Während des Zeitraums hatte in jedem Raum zwei einzigartige Benutzer. Die Summe der Summen in Bezug auf die Räume beträgt daher vier.
Eigentlich waren in dieser Zeit nur drei Besucher im Hotel. Das Problem ist, dass eine Person, die zwei Nächte in einem Raum bleibt, zweimal gezählt wird, wenn sie jeden Tag einmal gezählt wird, aber nur einmal gezählt wird, wenn die Gesamtzahl der Zeit für den Zeitraum betrachtet wird. Jede Software für Webanalysen fasst diese für den ausgewählten Zeitraum korrekt zusammen, was zu dem Problem führt, wenn ein Benutzer versucht, die Summen zu vergleichen.
Analysevergiftung
Im Laufe des Internets ist die Verbreitung des automatisierten Bot -Verkehrs zu einem zunehmenden Problem für die Zuverlässigkeit der Webanalyse geworden. Während Bots das Internet durchquert, machen sie Webdokumente auf ähnliche Weise wie organische Benutzer. Gemeinsam wirkt sich diese zufällige Auslösung von Webanalyseereignissen die Interpretierbarkeit von Daten und Schlussfolgerungen auf diese Daten aus. IPM lieferte einen Beweis für das Konzept, wie Google Analytics sowie ihre Konkurrenten können leicht durch gemeinsame Bot -Bereitstellungsstrategien ausgelöst werden.[11]
Webanalysemethoden
Probleme mit Keksen
Historisch gesehen haben Anbieter von Seiten-markierenden Analyselösungen verwendet Kekse von Drittanbietern gesendet aus der Domain des Anbieters anstelle der Domäne der durchgeborenen Website. Cookies von Drittanbietern können Besucher bewältigen, die mehrere nicht verwandte Domänen innerhalb der Firma-Website überqueren, da der Cookie immer von den Servern des Anbieters behandelt wird.
Cookies von Drittanbietern ermöglichen es im Prinzip jedoch, einen einzelnen Benutzer über die Websites verschiedener Unternehmen zu verfolgen, sodass der Analytics-Anbieter die Aktivitäten des Benutzers auf Websites zusammenfasst, an denen er seine Aktivitäten auf anderen Websites zur Verfügung stellte, auf denen er glaubte, er sei anonym. Obwohl Webanalyseunternehmen dies bestreiten, liefern andere Unternehmen wie Unternehmen Werbebanner habe es getan. Datenschutzbedenken hinsichtlich Cookies haben daher eine spürbare Minderheit von Benutzern dazu geführt, Cookies von Drittanbietern zu blockieren oder zu löschen. Im Jahr 2005 zeigten einige Berichte, dass etwa 28% der Internetnutzer Cookies von Drittanbietern blockierten und 22% mindestens einmal im Monat gelöscht haben.[12] Die meisten Anbieter von Seiten -Tagging -Lösungen haben sich nun bewegt, um zumindest die Option der Verwendung zu liefern Erstkekse (Aus der Client -Subdomain zugewiesenen Cookies).
Ein weiteres Problem ist die Löschung von Cookie. Wenn Webanalysen von Cookies abhängen, um eindeutige Besucher zu identifizieren, hängen die Statistiken von einem anhaltenden Cookie ab, um eine eindeutige Besucher -ID zu halten. Wenn Benutzer Cookies löschen, löschen sie normalerweise sowohl Cookies als auch Drittanbieter. Wenn dies zwischen den Interaktionen mit der Site erfolgt, wird der Benutzer an seinem nächsten Interaktionspunkt als erstmaliger Besucher angezeigt. Ohne eine anhaltende und eindeutige Besucher-ID, Conversions, Click-Stream-Analysen und andere Metriken, die von den Aktivitäten eines einzigartigen Besucheres im Laufe der Zeit abhängen, können nicht genau sein.
Kekse werden verwendet, weil IP -Adressen sind nicht immer einzigartig für Benutzer und können von großen Gruppen oder Stellvertretern geteilt werden. In einigen Fällen wird die IP -Adresse mit dem Benutzeragenten kombiniert, um einen Besucher genauer zu identifizieren, wenn keine Cookies verfügbar sind. Dies löst das Problem jedoch nur teilweise, da Benutzer hinter einem Proxy -Server häufig denselben Benutzeragenten haben. Andere Methoden, um einen Benutzer eindeutig zu identifizieren, sind technisch herausfordernd und würden das verfolgbare Publikum einschränken oder als misstrauisch angesehen werden. Cookies erreichen den niedrigsten gemeinsamen Nenner, ohne Technologien zu verwenden Spyware.[13]
Messmethoden (Secure Analytics)
Es kann gut sein zu wissen, dass das Sammeln von Informationen von Drittanbietern den angewandten Netzwerkbeschränkungen und Sicherheit unterliegt. Länder, Dienstleister und private Netzwerke können verhindern, dass Site -Besuchsdaten an Dritte gehen. Alle oben beschriebenen Methoden (und einige andere hier nicht genannte Methoden wie Stichproben) haben das zentrale Problem, anfällig für Manipulationen (sowohl Inflation als auch Deflation) zu sein. Dies bedeutet, dass diese Methoden ungenau und unsicher sind (in einem angemessenen Sicherheitsmodell). Dieses Problem wurde in mehreren Papieren behandelt.[14][15][16][17] Bisher bleiben die in diesen Zeitungen vorgeschlagenen Lösungen theoretisch, möglicherweise aufgrund eines mangelnden Interesses der Ingenieurgemeinschaft oder aufgrund des finanziellen Gewinns der aktuellen Situation den Eigentümern großer Websites. Weitere Informationen finden Sie in den oben genannten Zeitungen.
Siehe auch
- List of web analytics software
- Mobile Webanalyse
- Online -Videoanalyse
- Post-Click-Marketing
- Webprotokollanalyse -Software
- Webabbau
- Webverkehr
Verweise
- ^ WAA Standards Committee. "Webanalytikdefinitionen." Washington DC: Web Analytics Association (2008).
- ^ Nielsen, Janne (2021-04-27). "Mit gemischten Methoden zur Untersuchung der historischen Verwendung von Weblaken in der Webverfolgung". Internationales Journal of Digital Humanities. 2 (1–3): 65–88. doi:10.1007/s42803-021-00033-4. ISSN 2524-7832. S2CID 233416836.
- ^ Jansen, B. J. (2009). Verständnis von Benutzer-Web-Interaktionen über Webanalysen. Synthesevorlesungen zu Informationskonzepten, Abrufen und Diensten, 1 (1), 1-102.
- ^ Zheng, G. & Peltsverger S. (2015) Webanalytikübersicht, In Buch: Encyclopedia of Information Science and Technology, dritte Ausgabe, Verlag: IGI Global, Herausgeber: Mehdi Khosrow-Pour
- ^ Webverkehrsdatenquellen und Anbietervergleich Von Brian Clifton und Omega Digital Media Ltd.
- ^ Marketingmanagement: Ein Wertschöpfungsprozess (2. Ausgabe) von Alain Jolibert, Pierre-Louis Dubois, Hans Mühlbacher, Laurent Flores, Pierre-Louis Jolibert Dubois, 2012, p. 359.
- ^ Steigerung der Genauigkeit für das Online -Geschäftswachstum - eine Webanalysegenauigkeit Whitepaper
- ^ "Überprüfung der Protokolldateianalyse versus Seite Tagging": McGill University Web Analytics Blog Artikel (CMIS 530) Archiviert 6. Juli 2011 bei der Wayback -Maschine
- ^ Ipinfodb (2009-07-10). "IP -Geolocation -Datenbank". Ipinfodb. Abgerufen 2009-07-19.
- ^ Hu, Xiaohua; Cercone, Nick (1. Juli 2004). "Ein Data Warehouse/Online -Analyse -Verarbeitungsframework für die Berichterstattung über die Berichterstattung über das Webnutzung und Business Intelligence". Internationales Journal of Intelligent Systems. 19 (7): 585–606. doi:10.1002/int.v19: 7.
- ^ "Analytics -Vergiftung: Eine kurze Bewertung - IPM Corporation". 5. Dezember 2020. Abgerufen 29. Juli, 2022.
- ^ McGann, Rob (14. März 2005). "Studie: Verbraucher löschen Kekse mit überraschender Geschwindigkeit". Abgerufen 3. April 2014.
- ^ "Home News Access auf die Leitfaden-Tools Ausbildung Einkaufen im Internet Cookies- Spyware oder neutrale Technologie?". CNET. 2. Februar 2005. Abgerufen 24. April 2017.
- ^ Naor, M.; Pinkas, B. (1998). "Sichere und effiziente Messung". Fortschritte in der Kryptologie - Eurocrypt'98. Vorlesungsnotizen in Informatik. Vol. 1403. p. 576. doi:10.1007/bfb0054155. ISBN 978-3-540-64518-4.
- ^ Naor, M.; Pinkas, B. (1998). "Sichere Buchhaltung und Prüfung im Web". Computernetzwerke und ISDN -Systeme. 30 (1–7): 541–550. doi:10.1016/s0169-7552 (98) 00116-0.
- ^ Franklin, M. K.; Malkhi, D. (1997). "Überprüfbare Messung mit leichtem Sicherheit". Finanzkryptographie. Vorlesungsnotizen in Informatik. Vol. 1318. pp.151. Citeseerx 10.1.1.46.7786. doi:10.1007/3-540-63594-7_75. ISBN 978-3-540-63594-9.
- ^ Johnson, R.; Staddon, J. (2007). "Deflation-Secure Web Messung". Internationales Journal of Information and Computer Security. 1: 39. Citeseerx 10.1.1.116.3451. doi:10.1504/ijics.2007.012244.
Literaturverzeichnis
- Clifton, Brian (2010) Fortgeschrittene Web -Metriken mit Google Analytics, 2. Auflage, Sybex (Taschenbuch.)
- Kaushik, Avinash (2009) Web Analytics 2.0 - Die Kunst der Online -Rechenschaftspflicht und Wissenschaft der kundenorientierten Zentralität. Sybex, Wiley.
- Mortensen, Dennis R. (2009) Yahoo! Netz Analyse. Sybex.
- Farris, P., Bendle, N. T., Pfeifer, P.E. Reibstein, D.J. (2009) wichtige Marketingmetriken Die über 50 Metriken, die jeder Manager wissen muss, muss Prentice Hall, London.
- Plaza, B (2009) Überwachung der Wirksamkeit der Webverkehrsquelle mit Google Analytics: Ein Experiment mit Zeitreihen. Aslib -Verfahren, 61 (5): 474–482.
- Arikan, Akin (2008) Multichannel -Marketing. Metriken und Methoden für und Offline -Erfolg. Sybex.
- Tullis, Tom & Albert, Bill (2008) Messung der Benutzererfahrung. Sammeln, Analysieren und Präsentieren von Usability -Metriken. Morgan Kaufmann, Elsevier, Burlington MA.
- Kaushik, Avinash (2007) Webanalyse: Eine Stunde am Tag, Sybex, Wiley.
- Bradley N (2007) Marketingforschung. Werkzeuge und Techniken. Oxford University Press, Oxford.
- Sostro, Pedro und Leclaire, Jennifer (2007) Webanalytics für Dummies. Wiley.
- Burby, Jason und Atchison, Shane (2007) Aktionierbare Webanalyse: Verwenden von Daten, um intelligente Geschäftsentscheidungen zu treffen.
- Davis, J. (2006) „Marketing -Metriken: So erstellen Sie rechenschaftspflichtige Marketingpläne, die wirklich funktionieren“ John Wiley & Sons (Asien).
- Peterson Eric T (2005) Messung von Website -Messungen. O'Reilly eBook.
- Peterson Eric T (2004) Webanalytics entmystifiziert: Ein Anleitung eines Vermarkters, um zu verstehen, wie sich Ihre Website auf Ihr Unternehmen auswirkt. Celilo Group Media
- Lenskold, J. (2003) „Marketing -ROI: Wie man Strategien für Gewinn planen, messen und optimieren“ London: McGraw Hill Zeitgenössisch
- Sterne, J. (2002) Web -Metriken, bewährte Methoden zur Messung der Website des Website, London: John Wiley & Sons.
- Srinivasan, J. (2001) E -Handelsmetriken, Modelle und Beispiele, London: Prentice Hall.
- Zheng, J. G. und Peltsverger, S. (2015) Webanalytikübersicht, In Buch: Encyclopedia of Information Science and Technology, dritte Ausgabe, Verlag: IGI Global, Herausgeber: Mehdi Khosrow-Pour