Datenjournalismus
Datenjournalismus oder datengesteuerter Journalismus (DDJ) ist ein journalistischer Prozess, der auf der Analyse und Filtern großer Datensätze basiert, um eine Nachricht zu erstellen oder zu erhöhen.
Datenjournalismus ist eine Art von Art von Journalismus Reflexion der erhöhten Rolle, die numerische Daten zur Produktion und Verteilung von Informationen in der verwendet werden Digitale Ära. Es spiegelt die erhöhte Wechselwirkung zwischen Inhaltsproduzenten wider (Journalist) und mehrere andere Felder wie z. Entwurf, Informatik und Statistiken. Aus Sicht der Journalisten stellt es "eine überlappende Reihe von Kompetenzen dar, die aus unterschiedlichen Feldern stammen".[1]
Der Datenjournalismus wurde häufig verwendet, um mehrere Konzepte zu vereinen und mit dem Journalismus zu verknüpfen. Einige sehen diese als Ebenen oder Stadien, die von der einfacheren zu komplexeren Verwendungen neuer Technologien im journalistischen Prozess führen.[2]
Viele datengesteuerte Geschichten beginnen mit neu verfügbaren Ressourcen wie z. B. Quelloffene Software, uneingeschränkter Zugang Veröffentlichung und Daten öffnen, während andere Produkte von sind Öffentliche Aufzeichnungen Anfragen oder durchgesickerte Materialien. Dieser Ansatz zum Journalismus baut auf älteren Praktiken auf, insbesondere auf Computergestützte Berichterstattung (Car) Ein Etikett, das hauptsächlich in den USA seit Jahrzehnten verwendet wird. Andere Labels für teilweise ähnliche Ansätze sind "Präzisionsjournalismus", basierend auf einem Buch von Philipp Meyer.[3] veröffentlicht 1972, wo er den Einsatz von Techniken aus Sozialwissenschaften bei der Erforschung von Geschichten befürwortete. Der datengesteuerte Journalismus hat einen breiteren Ansatz. Im Kern baut der Prozess auf der wachsenden Verfügbarkeit offener Daten auf, die online frei verfügbar und analysiert werden. Open Source Werkzeug.[4] Der datengesteuerte Journalismus ist bestrebt, die Öffentlichkeit ein neues Dienstleistungsniveau zu erreichen und der breiten öffentlichen oder bestimmten Gruppen oder Einzelpersonen zu helfen, Muster zu verstehen und Entscheidungen auf der Grundlage der Ergebnisse zu treffen. Daher könnte der datengesteuerte Journalismus dazu beitragen, Journalisten in eine neue Rolle in eine neue Art zu bringen, die auf neue Weise relevant ist.
Geschichten zu erzählen, die auf den Daten basieren, ist das Hauptziel. Die Ergebnisse von Daten können in jede Form von umgewandelt werden journalistisches Schreiben. Visualisierungen können verwendet werden, um ein klares Verständnis einer komplexen Situation zu schaffen. Darüber hinaus können Elemente des Geschichtenerzählens verwendet werden, um zu veranschaulichen, was die Ergebnisse tatsächlich bedeuten, aus der Perspektive von jemandem, der von einer Entwicklung betroffen ist. Diese Verbindung zwischen Daten und Geschichte kann als "neuer Bogen" angesehen werden, der versucht, die Lücke zwischen Entwicklungen zu überspannen, die relevant, aber schlecht verstanden werden, zu einer Geschichte, die überprüfbar, vertrauenswürdig, relevant und leicht zu erinnern ist.
Definitionen
Antonopoulos und Karyotakis definieren die Praxis als "eine Möglichkeit, Berichterstattung und Nachrichten mit der Verwendung und Untersuchung von Statistiken zu verbessern, um einen tieferen Einblick in eine Nachrichtengeschichte zu gewähren und relevante Daten hervorzuheben. Ein Trend im digitalen Zeitalter des Journalismus war Um Informationen über interaktive Online-Inhalte über Datenvisualisierungstools wie Tabellen, Diagramme, Karten, Infografiken, Mikrosites und visuelle Welten zu übergeben. Die eingehende Untersuchung solcher Datensätze kann zu konkreten Ergebnissen und Beobachtungen in Bezug auf zeitnahe Themen führen von Interesse. Darüber hinaus kann der Datenjournalismus verborgene Probleme aufdecken, die anscheinend keine Priorität in der Berichterstattung hatten. "[5]
Nach Angaben von Architekten und Multimedia-Journalist Mirko Lorenz ist der datengesteuerte Journalismus in erster Linie ein Arbeitsablauf Das besteht aus den folgenden Elementen: tief graben in Daten durch Kratzen, Reinigen und Strukturieren, sie, Filterung durch Bergbau für bestimmte, Visualisierung und macht eine Geschichte.[6] Dieser Prozess kann erweitert werden, um Ergebnisse zu erzielen, die den individuellen Interessen und der breiteren Öffentlichkeit gerecht werden.
Datenjournalismus Trainer und Schriftsteller Paul Bradshaw beschreibt den Prozess des datengesteuerten Journalismus in ähnlicher Weise: Daten müssen sein gefunden, was möglicherweise spezielle Fähigkeiten erfordern kann wie Mysql oder Python, dann verhört, für welches Verständnis von Jargon und Statistik erforderlich ist und schließlich visualisiert und püriert mit Hilfe von Open-Source-Tools.[7]
Eine mehr ergebnisorientierte Definition stammt aus dem Datenreporter und dem Webstratege Henk Van Ess (2012).[8] "Der datengesteuerte Journalismus ermöglicht es Reportern, unzählige Geschichten zu erzählen, neue Winkel oder vollständige Geschichten über einen Workflow zum Finden, Verarbeiten und Präsentieren erheblicher Datenmengen (in einem bestimmten Formular) mit oder ohne offene Tools zu finden." Van Ess behauptet, dass ein Teil des datengesteuerten Workflows zu Produkten führt, die "nicht mit den Gesetzen des guten Geschichtenerzählens im Orbit stehen", da das Ergebnis im Hinblick auf das Problem liegt und das Problem nicht erklärt. "Eine gute, datengetriebene Produktion hat unterschiedliche Schichten. Sie können personalisiert finden, die nur für Sie wichtig sind, indem Sie auf relevante Bohrungen bohren, aber auch Sie herausholen können, um das Gesamtbild zu erhalten."
Im Jahr 2013 kam Van Ess mit einer kürzeren Definition in[9] Dies beinhaltet keine Visualisierung per se: "Der Datenjournalismus kann auf Daten basieren, die zuerst mit Tools verarbeitet werden müssen, bevor eine relevante Geschichte möglich ist. Es beinhaltet keine Visualisierung per se."
Eines der Probleme bei der Definition von Datenjournalismus ist jedoch, dass viele Definitionen nicht klar genug sind und sich auf die Beschreibung der Rechenmethoden der Optimierung, Analyse und Visualisierung von Informationen konzentrieren.[10]
Entstehung als Konzept
Der Begriff "Datenjournalismus" wurde vom politischen Kommentator geprägt Ben Witttenberg durch seine Arbeit ab Mitte der 1960er Jahre, die Erzählung mit Statistiken überlagern goldenes Zeitalter.[11][12]
Eines der frühesten Beispiele für die Verwendung von Computern mit Journalismus stammt aus dem Jahr 1952 von CBS, um einen Mainframe -Computer zu verwenden, um das Ergebnis der Präsidentschaftswahlen vorherzusagen, aber erst 1967 begann die Verwendung von Computern für die Datenanalyse, angenommen.[13]
Arbeiten für die Detroit Free Press damals, Philip Meyer verwendete einen Mainframe, um die Berichterstattung über die in der Stadt verbreiteten Unruhen zu verbessern. Mit einem neuen Präzedenzfall für die Datenanalyse im Journalismus arbeitete Meyer zusammen mit Donald Barlett und James Steele Muster mit Überzeugung verurteilt in Philadelphia in den 1970er Jahren zu betrachten. Meyer schrieb später ein Buch mit dem Titel " Präzisionsjournalismus Dies befürwortete die Verwendung dieser Techniken zur Kombination von Datenanalysen in den Journalismus.
Gegen Ende der 1980er Jahre traten bedeutende Ereignisse auf, die dazu beitrugen, das Gebiet der computergestützten Berichterstattung formell zu organisieren. Investigativer Reporter Bill Dedman von Die Atlanta Journal-Constitution gewann ein Pulitzer-Preis 1989 für Die Farbe des Geldes, Seine 1988er Serie von Geschichten, die Autotechniken verwenden, um die Rassendiskriminierung durch Banken und andere Hypothekengeber in schwarzen Vierteln mit mittlerem Einkommen zu analysieren.[14] Das National Institute for Computer Assisted Reporting (Nicar)[15] wurde an der gebildet Missouri School of Journalism in Zusammenarbeit mit dem Investigative Reporter und Redakteure (IRE). Die erste Konferenz, die dem Auto gewidmet war, wurde von Nicar in Zusammenarbeit mit James Brown an der Indiana University organisiert und 1990 abgehalten. Seitdem werden die Nicar -Konferenzen jährlich abgehalten und sind heute die größte Einsammlung von Datenjournalisten.
Obwohl der Datenjournalismus seit Jahrzehnten von Praktikern computergestützter Berichterstattung informell verwendet wurde, ist die erste aufgezeichnete Verwendung durch eine wichtige Nachrichtenorganisation Der Wächter, der im März 2009 seinen Datablog gestartet hat.[16] Und obwohl die Vaterschaft des Begriffs umstritten ist, wird er weit verbreitet, da WikiLeaks ' Afghanische Kriegsdokumente lecken Im Juli 2010.[17]
Der Wächter's Die Berichterstattung über die Kriegsprotokolle nutzte kostenlose Tools zur Datenvisualisierung wie z. B. Google Fusionstabellenein weiterer häufiger Aspekt des Datenjournalismus. Fakten sind heilig durch Der Wächter's Databog -Editor Simon Rogers beschreibt den Datenjournalismus wie diesen:
"Kommentar ist kostenlos", schrieb Guardian Editor CP Scott Im Jahr 1921, "aber Fakten sind heilig". Neunzig Jahre später ist die Veröffentlichung dieser heiligen Fakten zu einer neuen Art von Journalismus an sich geworden: Datenjournalismus. Und es wird schnell Teil des Establishments.
Der Untersuchungsdatenjournalismus kombiniert das Gebiet des Datenjournalismus mit der Untersuchungsberichterstattung. Ein Beispiel für den Untersuchungsdatenjournalismus ist die Untersuchung großer Mengen an Text- oder Finanzdaten. Der Untersuchungsdatenjournalismus kann sich auch auf das Gebiet von beziehen Big Data Analytics Für die Verarbeitung großer Datensätze.[18]
Seit der Einführung des Konzepts haben eine Reihe von Medienunternehmen "Datenteams" erstellt, die Visualisierungen für Nachrichtenredaktionen entwickeln. Am bemerkenswertesten sind Teams, z. bei Reuters,[19] Pro Publica,[20] und La Nacion (Argentinien).[21] In Europa, Der Wächter[22] und Berliner Morgenpost[23] Haben Sie sehr produktive Teams sowie öffentlich -rechtliche Sender.
Als Projekte wie die MP -Kostenskandal (2009) und die Veröffentlichung der demonstrierten "Offshore-Lecks" aus dem Jahr 2013 kann der datengesteuerte Journalismus eine investigative Rolle übernehmen und sich gelegentlich mit "nicht so offen" aka geheimen Daten befassen.
Die jährlichen Datenjournalismuspreise[24] Erkennen Sie die herausragende Berichterstattung im Bereich des Datenjournalismus und zahlreich Pulitzer -Preise In den letzten Jahren wurden datengetriebener Geschichtenerzählen, einschließlich des Pulitzer-Preises 2018 für internationale Berichterstattung, vergeben[25] und der Pulitzer -Preis 2017 im öffentlichen Dienst[26]
Datenqualität
In vielen Untersuchungen können die Daten, die gefunden werden können, Unterlassungen aufweisen oder irreführend sind. Als eine Schicht datengesteuerter Journalismus ist eine kritische Untersuchung der Datenqualität wichtig. In anderen Fällen sind die Daten möglicherweise nicht öffentlich oder für weitere Analysen nicht im richtigen Format, z. ist nur in a erhältlich PDF. Hier kann der Prozess des datengesteuerten Journalismus zu Geschichten über Datenqualität oder Ablehnungen zur Bereitstellung der Daten durch Institutionen werden. Da sich die Praxis als Ganzes in frühen Entwicklungsschritten befindet, sind die Untersuchungen von Datenquellen, Datensätzen, Datenqualität und Datenformat daher ein ebenso wichtiger Bestandteil dieser Arbeit.
Datengesteuerter Journalismus und der Wert des Vertrauens
Basierend auf der Perspektive, tiefer in Fakten und Treiber von Ereignissen zu betrachten, gibt es eine vorgeschlagene Änderung der Medienstrategien: In dieser Sicht besteht die Idee darin, "von der Aufmerksamkeit zum Vertrauen" zu bewegen. Die Schaffung von Aufmerksamkeit, die eine Säule von Medien -Geschäftsmodellen war, hat ihre Relevanz verloren, da Berichte über neue Ereignisse häufig über neue Plattformen wie Twitter schneller verteilt werden als über traditionelle Medienkanäle. Auf der anderen Seite kann Vertrauen als knappe Ressource verstanden werden. Das Vertrieb von Informationen ist zwar über das Web viel einfacher und schneller, aber die Fülle von Angeboten schafft Kosten, um den Inhalt einer beliebigen Geschichte zu überprüfen und zu überprüfen. Die Ansicht, Medienunternehmen in vertrauenswürdige Datenzentren zu verwandeln, wurde in einem Artikel im Februar 2011 auf Owni.eu.eu beschrieben[27] und Nieman Lab.[28]
Prozess des datengesteuerten Journalismus
Der Prozess zur Umwandlung von Rohdaten in Geschichten entspricht einer Verfeinerung und Transformation. Das Hauptziel ist es, Informationen zu extrahieren, auf die Empfänger wirken können. Die Aufgabe eines Datenjournalisten besteht darin, das zu extrahieren, was versteckt ist. Dieser Ansatz kann auf nahezu jeden Kontext angewendet werden, z. B. Finanzen, Gesundheit, Umwelt oder andere Bereiche von öffentlichem Interesse.
Umgekehrte Pyramide des Datenjournalismus
Im Jahr 2011 stellte Paul Bradshaw ein Modell vor, rief er an "Die umgekehrte Pyramide des Datenjournalismus".
Schritte des Prozesses
Um dies zu erreichen, sollte der Prozess in mehrere Schritte aufgeteilt werden. Während sich die zu Ergebnisse führen können, können sich eine grundlegende Unterscheidung untersuchen, indem sechs Phasen betrachtet werden:
- Finden: Suche nach Daten im Web
- Reinigen: Verarbeiten zum Filtern und Transformieren von Daten, Vorbereitung auf die Visualisierung
- Visualisierung: Anzeigen des Musters, entweder als statisches oder animiertes Visual
- Veröffentlichen: Integrieren der Grafik, das Anbringen von Daten an Geschichten
- Verteilen: Aktivieren Sie den Zugriff auf verschiedene Geräte wie Web, Tablets und Mobile
- Maßnahme: Verfolgung der Verwendung von Datengeschichten im Laufe der Zeit und über das Spektrum der Verwendungen.
Beschreibung der Schritte
Daten finden
Daten können direkt aus staatlichen Datenbanken wie z. Data.gov, Data.gov.uk und Weltbankdaten -API[29] aber auch durch platzieren Informationsfreiheitsanfragen an Regierungsbehörden; Einige Anfragen werden auf Websites wie dem Großbritannien gestellt und zusammengefasst. Während es einen weltweiten Trend zum Öffnen von Daten gibt, gibt es nationale Unterschiede darüber, inwieweit Informationen in nutzbaren Formaten frei verfügbar sind. Wenn sich die Daten in einer Webseite befinden, werden Scaners verwendet, um eine Tabelle zu generieren. Beispiele für Schaber sind: Webcraper, Import.io, QuickCode, Hub überlisten und Needlebase (im Ruhestand 2012[30]). In anderen Fällen kann OCR -Software verwendet werden, um Daten von PDFs zu erhalten.
Daten können auch durch die Öffentlichkeit durch Crowd -Sourcing erstellt werden, wie im März 2012 auf der DataJournalism Conference in Hamburg von Henk van Ess gezeigt.[31]
Daten reinigen
Normalerweise sind Daten nicht in einem Format, das leicht zu visualisieren ist. Beispiele sind, dass es zu viele Datenpunkte gibt oder dass die Zeilen und Spalten unterschiedlich sortiert werden müssen. Ein weiteres Problem ist, dass nach der Untersuchung viele Datensätze gereinigt, strukturiert und transformiert werden müssen. Verschiedene Werkzeuge wie OpenRefine (Open Source), Daten Wrangler und Google -Tabellenkalkulationen[32] Ermöglichen, Daten hochzuladen, zu extrahieren oder zu formatieren.
Daten visualisieren
Daten in Form von Grafiken und Diagrammen visualisieren, wie beispielsweise Daten Viele Augen oder Tableau öffentlich stehen zur Verfügung. Yahoo! Rohre und offene Wärmekarte[33] sind Beispiele für Tools, die die Erstellung von Karten auf der Grundlage von Datenabteilungen ermöglichen. Die Anzahl der Optionen und Plattformen erweitert sich. Einige neue Angebote bieten Optionen zum Suchen, Anzeigen und Einbetten von Daten, ein Beispiel ist timetrisch.[34]
Um aussagekräftige und relevante Visualisierungen zu erstellen, verwenden Journalisten eine wachsende Anzahl von Tools. Inzwischen gibt es mehrere Beschreibungen, wonach und wie man es macht. Die bemerkenswertesten veröffentlichten Artikel sind:
- Joel Gunter: "#IJF11: Lektionen im Datenjournalismus aus der New York Times"[35]
- Steve Myers: "Verwenden der Datenvisualisierung als Berichtstool kann die Form der Geschichte aufzeigen", einschließlich eines Links zu einem Tutorial von Sarah Cohen[36]
Ab 2011 nutzte die Verwendung von HTML 5 -Bibliotheken die Leinwand Tag gewinnt immer an Popularität. Es gibt zahlreiche Bibliotheken, die es ermöglichen, Daten in einer wachsenden Vielfalt von Formen zu gratschen. Ein Beispiel ist RGRAPH.[37] Ab 2011 gibt es eine wachsende Liste von JavaScript -Bibliotheken, die die Visualisierung von Daten ermöglichen.[38]
Veröffentlichungsdatengeschichte
Es gibt verschiedene Optionen, um Daten und Visualisierungen zu veröffentlichen. Ein grundlegender Ansatz besteht darin, die Daten an einzelne Geschichten anzuhängen, ähnlich wie bei der Einbettung von Webvideos. Fortgeschrittene Konzepte ermöglichen es, einzelne Dossiers zu erstellen, z. Um eine Reihe von Visualisierungen, Artikeln und Links zu den Daten auf einer Seite anzuzeigen. Oft müssen solche Specials einzeln codiert werden, da viele Content -Management -Systeme einzelne Beiträge basierend auf dem Datum der Veröffentlichung angezeigt werden.
Daten verteilen
Die Bereitstellung von Zugriff auf vorhandene Daten ist eine weitere Phase, die an Bedeutung gewinnt. Stellen Sie sich die Websites als "Marktplätze" (kommerziell oder nicht) vor, auf denen Datensätze leicht von anderen gefunden werden können. Insbesondere die Erkenntnisse für einen Artikel, in dem aus offenen Daten gewonnen wurde, sollten Journalisten einen Link zu den Daten bereitstellen, die sie für andere untersuchen, um einen weiteren Zyklus der Befragung zu starten, was zu neuen Erkenntnissen führt).
Die Bereitstellung von Zugriff auf Daten und Ermöglichung von Gruppen, um zu diskutieren, welche Informationen extrahiert werden können, ist die Hauptidee hinter Buzzdata.[39] Eine Site, die die Konzepte sozialer Medien nutzt, z. B. das Teilen und eine Befolgung einer Community für Datenuntersuchungen.
Andere Plattformen (die sowohl zum Sammeln als auch zum Verteilenden von Daten verwendet werden können):
Messung der Auswirkungen von Datengeschichten
Ein letzter Schritt des Prozesses besteht darin, zu messen, wie oft ein Datensatz oder eine Visualisierung angezeigt wird.
Im Zusammenhang mit dem datengesteuerten Journalismus sollten das Ausmaß einer solchen Verfolgung, wie das Sammeln von Benutzerdaten oder andere Informationen, die aus Marketinggründen oder anderen Verwendungen verwendet werden können, die über die Kontrolle des Benutzers hinausgehen, als problematisch angesehen werden.[Nach wem?] Eine neuere, nicht störende Option zur Messung der Nutzung ist ein leichter Tracker namens Pixelping. Der Tracker ist das Ergebnis eines Projekts von ProPublica und DocumentCloud.[43] Es gibt einen entsprechenden Dienst, um die Daten zu sammeln. Die Software ist Open Source und kann über GitHub heruntergeladen werden.[44]
Beispiele
Es gibt eine wachsende Liste von Beispielen, wie datengesteuerter Journalismus angewendet werden kann. Der Wächter, eines der wegweisenden Medienunternehmen in diesem Bereich (siehe "Datenjournalismus bei The Guardian: Was ist das und wie machen wir das?"[45]), hat eine umfangreiche Liste von Datengeschichten zusammengestellt: "Alle unsere Datenjournalismus in einer Tabelle".[46]
Andere herausragende Verwendungen des datengesteuerten Journalismus beziehen sich auf die Veröffentlichung durch Whistle-Blower-Organisation Wikileaks des Afghanischer Kriegstagebuch, ein Kompendium von 91.000 geheimen Militärberichten über den Krieg in Afghanistan von 2004 bis 2010.[47] Drei globale Broadsheets, nämlich Der Wächter, Die New York Times und Der Spiegel, engagierte umfangreiche Abschnitte[48][49][50] zu den Dokumenten; Der WächterDie Berichterstattung enthielt eine interaktive Karte, die auf den Typ, den Standort und die Verluste von 16.000 hinweist Ied Anschläge,[51] Die New York Times veröffentlichte eine Auswahl von Berichten, die es ermöglichen, unterstrichenen Text zu unterstrichen, um Erklärungen von militärischen Begriffen zu enthüllen,[52] während Der Spiegel Bereitstellung von Hybridvisualisierungen (mit sowohl Grafiken als auch Karten) zu Themen wie den Zahl der Todesfälle im Zusammenhang mit aufständischen Bombenangriffen.[53] Für die Irak -Kriegsprotokolle Freigabe, Der Wächter Gebraucht Google Fusionstabellen Um eine interaktive Karte jedes Vorfalls zu erstellen, bei dem jemand gestorben ist,[54] eine Technik, die sie wieder verwendet hat England Unruhen von 2011.[55]
Siehe auch
- Automatischer Journalismus
- Datenbankjournalismus
- Computerjournalismus
- Offene Wissenschaftsdaten
- Open Source
- Offenes Wissen
- Gesetzgebung zur Informationsfreiheit
- Informationsvisualisierung
Verweise
- ^ Thibodeaux, Troy (6. Oktober 2011), 5 Tipps zum Einstieg in den Datenjournalismus, archiviert von das Original am 9. Oktober 2011, abgerufen 11. Oktober 2011
- ^ Michelle Minkoff (24. März 2010). "Datenjournalismus in Lehrpläne bringen".
- ^ "Philipp Meyer". FestivalDelgiornalismo.com. Archiviert von das Original am 4. März 2016. Abgerufen 31. Januar 2019.
- ^ Lorenz, Mirko (2010) Datengetriebener Journalismus: Was gibt es zu lernen? Bearbeitete Konferenzdokumentation, basierend auf Präsentationen der Teilnehmer, 24. August 2010, Amsterdam, Niederlande
- ^ Antonopoulos, Nikos; Karyotakis, Minos-Athanasios (2020). Die Sage International Encyclopedia von Massenmedien und Gesellschaft. Tausende Oaks, CA: Sage Publications, Inc. p. 440. ISBN 9781483375533.
- ^ Lorenz, Mirko. (2010). Datengetriebener Journalismus: Was gibt es zu lernen? Präsentiert auf der IJ-7 Innovation Journalism Conference, 7. bis 9. Juni 2010, Stanford, CA
- ^ Bradshaw, Paul (1. Oktober 2010). "Wie man ein Datenjournalist ist". Der Wächter
- ^ Van Ess, Henk. (2012). Datengesteuerter Journalismus blutig
- ^ Van Ess, Henk und Van der Kaa, Hille (2012). Handboek DataJournalistiek Archiviert 21. Oktober 2013 bei der Wayback -Maschine
- ^ Houston, Brant (2019). Datenjournalismus. In der internationalen Enzyklopädie der Journalismusstudien. Wiley-Blackwell. S. 1–9. doi:10.1002/9781118841570.iejs0119. ISBN 9781118841570. S2CID 243233501.
- ^ "Prophet der Hoffnung". www.nationalaffairs.com. Abgerufen 10. September 2021.
- ^ Langer, Emily (29. Juni 2015). "Ben J. Witttenberg, Schriftsteller und Fernsehkommentator, stirbt bei 81". Washington Post. ISSN 0190-8286. Abgerufen 10. September 2021.
- ^ Houston, Brant (2015). Computergestützte Berichterstattung: Ein praktischer Leitfaden, vierte Ausgabe. New York City: Routledge. p. 9. ISBN 978-0-7656-4219-6.
- ^ "Die Farbe des Geldes".
- ^ "Über Nicar". Nationales Institut für computergestützte Berichterstattung. Investigative Reporter und Redakteure. Abgerufen 9. Februar 2016.
- ^ Rogers, Simon (28. Juli 2011), "Datenjournalismus bei The Guardian: Was ist das und wie machen wir das?", Der Wächter, London, abgerufen 25. Oktober 2012
- ^ Kayser-Bril, Nicolas (19. Juli 2011), Les données pour comprendre le monde (auf Französisch), abgerufen 6. Oktober 2011
- ^ "Untersuchungsdatenjournalismus in einer globalisierten Welt". Journalismusforschung. Abgerufen 18. Januar 2021.
- ^ "Sonderberichte von Reuters -Journalisten auf der ganzen Welt". Reuters. Abgerufen 31. Januar 2019.[Dead Link]
- ^ "Nachrichten Apps". ProPublica. Abgerufen 31. Januar 2019.
- ^ "Wie die argentinische Tageszeitung La Nación zu einem Datenjournalismus -Kraftpaket in Lateinamerika wurde". Niemanlab.org. Abgerufen 31. Januar 2019.
- ^ "Daten". Der Wächter. Abgerufen 31. Januar 2019.
- ^ Berlin, Berliner Morgenpost-. "Portfolio Interaktiv-Team". Morgenpost. Abgerufen 31. Januar 2019.
- ^ "Data Journalism Awards". DataJournalismaWards.org. Archiviert von das Original am 21. Juli 2018. Abgerufen 31. Januar 2019.
- ^ "Die Pulitzerpreise". Pulitzer.org. Abgerufen 31. Januar 2019.
- ^ "Die Pulitzerpreise". Pulitzer.org. Abgerufen 31. Januar 2019.
- ^ Medienunternehmen müssen vertrauenswürdige Daten Hubs »Owni.eu, News, Augmented werden Archiviert 2011-08-24 bei der Wayback -Maschine. Owni.eu (28. Februar 2011). Abgerufen am 2013-08-16.
- ^ Stimmen: Nachrichtenorganisationen müssen Hubs vertrauen. Niemanlab.org (9. August 2013). Abgerufen am 2013-08-16.
- ^ "Entwicklerinformationen - Weltbankdatenhelpdesk" ". datahelpdesk.worldbank.org. Abgerufen 31. Januar 2019.
- ^ "Alte Vorsätze für das neue Jahr erneuern". GoogleBlog.blogspot.com. Abgerufen 31. Januar 2019.
- ^ Crowdsourcing: Wie man eine Menge findet (präsentiert an der ARD/ZDF Academy IN. Slideshare.net (17. September 2010). Abgerufen am 2013-08-16.
- ^ Hirst, Autor Tony (14. Oktober 2008). "Daten kratzen Wikipedia mit Google -Tabellenkalkulationen". ouseful.info. Abgerufen 31. Januar 2019.
{{}}
:|first=
hat generischen Namen (Hilfe) - ^ "OpenHeatmap". openheatmap.com. Abgerufen 31. Januar 2019.
- ^ "Home - Timetric". timetric.com. Archiviert von das Original am 31. Januar 2019. Abgerufen 31. Januar 2019.
- ^ Gunter, Joel (16. April 2011). "#IJF11: Lehren im Datenjournalismus aus der New York Times". Journalism.co.uk. Abgerufen 31. Januar 2019.
- ^ "Die Verwendung der Datenvisualisierung als Berichtstool kann die Form der Story aufzeigen". Poynter.org. Abgerufen 31. Januar 2019.
- ^ "RGRAPH ist eine kostenlose und Open -Source -JavaScript -Diagrammbibliothek für das Web". RGRAPH.NET. Abgerufen 31. Januar 2019.
- ^ JavaScript -Bibliotheken
- ^ "Buzzdata. Buzzdata. Abgerufen am 2013-08-16". Archiviert von das Original am 12. August 2011. Abgerufen 17. August 2011.
- ^ "Hilf mir zu untersuchen - ein Netzwerk, das Menschen hilft, Fragen im öffentlichen Interesse zu untersuchen". helpmeinvestigate.com. Abgerufen 31. Januar 2019.
- ^ "Home - Timetric". timetric.com. Archiviert von das Original am 31. Januar 2019. Abgerufen 31. Januar 2019.
- ^ "Scraperwiki". Abgerufen 31. Januar 2019.
- ^ Larson, Jeff. (8. September 2010) Pixel Ping: a node.js Statistik -Tracker. ProPublica. Abgerufen am 2013-08-16.
- ^ documentCloud/pixel-ping ˇ ˇ ˇ ˇ Github. Abgerufen am 2013-08-16.
- ^ Rogers, Simon (28. Juli 2011). "Datenjournalismus bei The Guardian: Was ist das und wie machen wir das?". Abgerufen 31. Januar 2019 - über theguardian.com.
- ^ Evans, Lisa (27. Januar 2011). "Alle unsere Datenjournalismus in einer Tabelle". Der Wächter. Abgerufen 31. Januar 2019.
- ^ Kabulkriegstagebuch, 26. Juli 2010, Wikileaks
- ^ Afghanistan die Kriegsprotokolle, 26. Juli 2010, Der Wächter
- ^ Die Kriegsprotokolle, 26. Juli 2010 Die New York Times
- ^ Das Afghanistan -Protokoll: Explosive Lecks liefern das Kriegsbild aus denen, die gegen es kämpfen, 26. Juli 2010, Der Spiegel
- ^ Afghanistaner Kriegsprotokolle: IED -Angriffe auf Zivilisten, Koalition und afghanische Truppen, 26. Juli 2010, Der Wächter
- ^ Text aus einer Auswahl der geheimen Versand, 26. Juli 2010, Die New York Times
- ^ Todesopfer: Tod infolge aufständischer Bombenangriffe, 26. Juli 2010, Der Spiegel
- ^ Wikileaks Irak Kriegsprotokolle: Jeder Tod kartiert, 22. Oktober 2010, Guardian Datablog
- ^ UK -Unruhen: Jeder verifizierte Vorfall - Interaktive Karte, 11. August 2011, Guardian Datablog
Externe Links
- Nationales Institut für computergestützte Berichtswebsite
- Datajournalism.com, lernen Sie den Datenjournalismus durch Lesen, Beobachten und Diskussionen
- Liste der Kurse und Programme der Datenjournalismus -Universität aus der ganzen Welt
- Das Datenjournalismushandbuch: Auf dem Weg zu einer kritischen Datenpraxis - Handbuch zum Öffnen des Zugangs über den Datenjournalismus auf der ganzen Welt