Datenqualität
Datenqualität bezieht sich auf den Zustand von qualitative oder quantitative Teilinformationen. Es gibt viele Definitionen von Datenqualität, aber Daten werden im Allgemeinen als qualitativ hochwertig angesehen, wenn sie für [seine] beabsichtigten Verwendungen in in der Lage sind Operationen, Entscheidung fällen und Planung".[1][2][3] Darüber hinaus gilt Daten von hoher Qualität, wenn sie das reale Konstrukt korrekt darstellt, auf das es sich bezieht. Darüber hinaus, abgesehen von diesen Definitionen, wenn die Anzahl der Datenquellen zunimmt, ist die Frage der internen Datenkonsistenz wird signifikant, unabhängig von der Fitness für einen bestimmten externen Zweck. Die Ansichten der Menschen zur Datenqualität können häufig nicht einverstanden sein, selbst wenn dieselben Datenmengen für denselben Zweck diskutiert werden. Wenn dies der Fall ist, Datenamt wird verwendet, um Definitionen und Standards für die Datenqualität vereinbart zu werden. In solchen Fällen, Datenbereinigung, einschließlich Standardisierung, kann erforderlich sein, um die Datenqualität sicherzustellen.[4]
Definitionen
Das Definieren der Datenqualität ist aufgrund der vielen Kontexte schwierig, die Daten verwendet werden, sowie die unterschiedlichen Perspektiven zwischen Endbenutzern, Herstellern und Verwalter von Daten.[5]
Aus der Sicht der Verbraucher ist die Datenqualität:[5]
- "Daten, die für Datenverbraucher geeignet sind"
- Daten "Erfüllung oder Übertreffen der Verbrauchererwartungen"
- Daten, die "die Anforderungen seiner beabsichtigten Verwendung erfüllen" "
Aus geschäftlicher Sicht lautet die Datenqualität:
- Daten, die "für die Verwendung" in ihren beabsichtigten Betrieb, Entscheidungsfindung und anderen Rollen "oder" Ausstellungen "" Konformität zu Standards "sind, die festgelegt wurden, so dass die Nutzung der Nutzung erreicht ist", wird erreicht. "[6]
- Daten, die "für ihre beabsichtigten Verwendungen in Operationen, Entscheidungsfindung und Planung geeignet sind", "[7]
- "Die Fähigkeit von Daten, das angegebene Geschäft, das System und die technischen Anforderungen eines Unternehmens zu erfüllen"[8]
Aus standardbasierter Perspektive lautet die Datenqualität:
- Der "Grad, in dem eine Reihe von inhärenten Eigenschaften (Qualitätsdimensionen) eines Objekts (Daten) die Anforderungen erfüllt"[9][5]
- "Die Nützlichkeit, Genauigkeit und Korrektheit von Daten für ihre Anwendung"[10]
In all diesen Fällen ist "Datenqualität" wohl ein Vergleich des tatsächlichen Zustands eines bestimmten Datensatzes mit einem gewünschten Zustand, wobei der gewünschte Zustand typischerweise als "geeignet für die Verwendung", "zur Spezifikation" bezeichnet wird, "" "" Erfüllung der Verbrauchererwartungen, "frei von Defekt" oder "Besprechungsanforderungen". Diese Erwartungen, Spezifikationen und Anforderungen werden normalerweise durch eine oder mehrere Personen oder Gruppen, Standards, Gesetze und Vorschriften, Geschäftsrichtlinien oder Softwareentwicklungsrichtlinien definiert.[5]
Dimensionen der Datenqualität
Wenn Sie weiter unterbrochen werden, werden diese Erwartungen, Spezifikationen und Anforderungen hinsichtlich Merkmale oder Dimensionen der Daten angegeben, wie z. B.:[5][6][7][8][11]
- Zugänglichkeit oder Verfügbarkeit
- Genauigkeit oder Korrektheit
- Vergleichbarkeit
- Vollständigkeit oder Vollständigkeit
- Konsistenz, Kohärenz oder Klarheit
- Glaubwürdigkeit, Zuverlässigkeit oder Ruf
- Flexibilität
- Plausibilität
- Relevanz, Reflexion oder Nützlichkeit
- Aktualität oder Latenz
- Einzigartigkeit
- Gültigkeit oder Angemessenheit
Eine systematische Scoping -Überprüfung der Literatur legt nahe, dass Datenqualitätsdimensionen und -methoden mit realen Daten in der Literatur nicht konsistent sind und infolgedessen aufgrund des komplexen und heterogenen Charakters dieser Daten die Qualitätsbewertungen schwierig sind.[11]
Geschichte
Vor dem Aufstieg der kostengünstigen Computerdatenspeicher, fest Mainframe Computer wurden verwendet, um Namen und Adressdaten für Lieferdienste zu erhalten. Dies war so, dass Mail ordnungsgemäß an sein Ziel weitergeleitet werden konnte. Die Mainframes verwendeten Geschäftsregeln, um gemeinsame Rechtschreibfehler und typografische Fehler in Namen und Adressdaten zu korrigieren sowie Kunden zu verfolgen, die umgezogen, gestorben, ins Gefängnis gegangen, verheiratet, geschieden oder erlebt wurden, andere lebensverändernde Ereignisse. Regierungsbehörden begannen, einige Dienstleistungsunternehmen Postdaten zur Verfügung zu stellen, um Kundendaten mit dem nationalen Adressregistrieren zu referenzieren (NCOA). Diese Technologie sparte große Unternehmen im Vergleich zur manuellen Korrektur der Kundendaten Millionen von Dollar. Große Unternehmen sparen auf Porto, da Rechnungen und Direktmarketingmaterialien den beabsichtigten Kunden genauer auf den Weg machten. Die Datenqualität wurde zunächst als Service verkauft und bewegte sich in den Unternehmenswänden, da kostengünstige und leistungsstarke Servertechnologie verfügbar wurden.
Unternehmen, die sich auf das Marketing konzentrieren[von wem?] als wichtige Eigenschaft aller Arten von Daten. Die Datenqualitätsprinzipien können auf Lieferkettendaten, Transaktionsdaten und nahezu alle anderen Datenkategorien angewendet werden. Wenn die Lieferkettendaten beispielsweise einem bestimmten Standard entsprechen, hat dies einen Wert für eine Organisation durch: 1) Vermeidung von Überstößen ähnlicher, aber leicht unterschiedlicher Bestände; 2) falsches Lagerbestand zu vermeiden; 3) Verbesserung des Verständnisses von Anbieterkäufen, um Volumenrabatte zu verhandeln; und 4) Vermeiden von Logistikkosten bei Strumpf- und Versandteilen in einer großen Organisation.
Für Unternehmen mit erheblichen Forschungsbemühungen kann die Datenqualität die Entwicklung umfassen Protokolle für Forschungsmethoden, Reduzierung Messfehler, Grenzenprüfung von Dateien, Cross -Tabellierung, Modellierung und Ausreißer Erkennung, Überprüfung Datenintegrität, etc.
Überblick
Es gibt eine Reihe theoretischer Rahmenbedingungen zum Verständnis der Datenqualität. Ein systemtheoretischer Ansatz, der vom amerikanischen Pragmatismus beeinflusst wird, erweitert die Definition der Datenqualität um Informationsqualität und betont die Inklusivität der grundlegenden Dimensionen der Genauigkeit und Präzision auf der Grundlage der Theorie der Wissenschaft (Ivanov, 1972). Ein Framework mit dem Namen "Zero Defect Data" (Hansen, 1991) passt die Prinzipien der statistischen Prozesskontrolle an die Datenqualität an. Ein weiterer Rahmen versucht, die Produktperspektive (Konformität mit den Spezifikationen) und die zu integrieren Service Perspektive (Erwartungen der Verbraucher) (Kahn et al. 2002). Ein weiterer Rahmen basiert auf Semiotik Bewertung der Qualität, Bedeutung und Verwendung der Daten (Price and Shanks, 2004). Ein hoch theoretischer Ansatz analysiert die ontologisch die Natur von Informationssysteme Datenqualität streng definieren (Wand und Wang, 1996).
Eine beträchtliche Menge an Datenqualitätsforschung umfasst die Untersuchung und Beschreibung verschiedener Kategorien wünschenswerter Attribute (oder Dimensionen) von Daten. Fast 200 solche Begriffe wurden identifiziert und es gibt wenig Einigung in ihrer Natur (sind diese Konzepte, Ziele oder Kriterien?), Den Definitionen oder Maßnahmen (Wang et al., 1993). Software -Ingenieure können dies als ein ähnliches Problem erkennen "INITY".
MIT hat ein Programm zur Informationsqualität (MITIQ) unter der Leitung von Professor Richard Wang, das eine große Anzahl von Veröffentlichungen herstellt und eine bedeutende internationale Konferenz in diesem Bereich veranstaltet (International Conference on Information Quality, ICIQ). Dieses Programm entstand aus der Arbeit von Hansen im Rahmen "Zero Defect Data" (Hansen, 1991).
In der Praxis ist die Datenqualität ein Anliegen für Fachleute, die mit einer Vielzahl von Informationssystemen beteiligt sind, von der Abreichung Data Warehousing und Business Intelligence zu Kundenbeziehungsmanagement und Leitung der Lieferkette. Eine Branchenstudie schätzte die Gesamtkosten für die US -Wirtschaft von Datenqualitätsproblemen in über 600 Milliarden US -Dollar pro Jahr (Eckerson, 2002). Falsche Daten, die ungültige und veraltete Informationen enthält - können durch Dateneingabe aus verschiedenen Datenquellen stammen, oder Datenmigration und Konversionsprojekte.[12]
Im Jahr 2002 veröffentlichten die USPS und PricewaterhouseCoopers einen Bericht, in dem angegeben ist, dass 23,6 Prozent aller gesendeten US -Mails falsch behandelt werden.[13]
Ein Grund, warum Kontaktdaten in der durchschnittlichen Datenbank sehr schnell abgestanden sind - mehr als 45 Millionen Amerikaner ändern jedes Jahr ihre Adresse.[14]
In der Tat ist das Problem ein so Datenamt Team, dessen alleinige Rolle im Unternehmen für die Datenqualität verantwortlich sein soll. In einigen[wer?] Organisationen, dies Datenamt Die Funktion wurde im Rahmen einer größeren Funktion für die Einhaltung von Vorschriften festgelegt - eine Erkennung der Bedeutung von Daten/Informationsqualität für Unternehmen.
Probleme mit der Datenqualität ergeben sich nicht nur aus falsch Daten; inkonsistent Daten sind auch ein Problem. Eliminieren Datenschattensysteme Die Zentralisierung von Daten in einem Lagerhaus ist eine der Initiativen, die ein Unternehmen ergreifen kann, um die Datenkonsistenz zu gewährleisten.
Unternehmen, Wissenschaftler und Forscher beginnen, an Datenkurationsgemeinschaften teilzunehmen, um die Qualität ihrer gemeinsamen Daten zu verbessern.[15]
Der Markt bietet eine Möglichkeit, die Datenqualitätssicherung bereitzustellen. Eine Reihe von Anbietern erstellen Tools zur Analyse und Reparatur von Daten in schlechter Qualität vor OrtDienstanbieter können die Daten auf Vertragsbasis reinigen, und Berater können in erster Linie über die Behebung von Prozessen oder Systemen beraten, um Datenqualitätsprobleme zu vermeiden. Die meisten Tools zur Datenqualität bieten eine Reihe von Tools zur Verbesserung der Daten, die einige oder alle folgenden Informationen umfassen können:
- Datenprofilerstellung - Beurteilung der Daten zunächst, um den aktuellen Zustand zu verstehen, häufig einschließlich Wertverteilungen einschließlich der Wertverteilung
- Datenstandardisierung - a Business Rules Engine Dies stellt sicher, dass die Daten den Standards entsprechen
- Geokodierung - für Name und Adressdaten. Korrigiert Daten in den USA und weltweit geografischen Standards
- Matching oder Verknüpfung - Eine Möglichkeit, Daten so zu vergleichen, dass ähnliche, aber leicht unterschiedliche Datensätze ausgerichtet werden können. Durch die Übereinstimmung kann "Fuzzy Logic" verwendet werden, um Duplikate in den Daten zu finden. Es erkennt oft, dass "Bob" und "Bbo" dieselbe Person sein können. Es kann möglicherweise in der Lage sein, "Haushalt" zu verwalten oder Verbindungen zwischen Ehepartnern an derselben Adresse zu finden. Schließlich kann es oft einen "Best of Breed" -Pkenntnis erstellen, die besten Komponenten aus mehreren Datenquellen entnehmen und einen einzigen Super-Rekord aufbauen.
- Überwachung - Überwachung der Datenqualität im Laufe der Zeit und Berichterstattung zwischen den Datenqualität. Software kann auch die Variationen, die auf vordefinierten Geschäftsregeln basieren, automatisch korrigieren.
- Batch und Echtzeit - Sobald die Daten ursprünglich gereinigt sind (Charge), möchten Unternehmen häufig die Prozesse in Unternehmensanwendungen aufbauen, um sie sauber zu halten.
Es gibt mehrere bekannte Autoren und selbsternannte Experten, wobei Larry Englisch vielleicht am beliebtesten ist Guru. Zusätzlich, IQ International - Die Internationale Vereinigung für Information und Datenqualität wurde 2004 gegründet, um Fachleuten und Forschern in diesem Bereich einen Schwerpunkt zu bieten.
ISO 8000 ist ein internationaler Standard für die Datenqualität.[16]
Datenqualitätssicherung
Datenqualitätssicherung ist der Prozess von Datenprofilerstellung Entdeckung von Inkonsistenzen und anderen Anomalien in den Daten sowie Leistung Datenbereinigung[17][18] Aktivitäten (z. B. Entfernen Ausreißer, fehlende Daten Interpolation) die Datenqualität zu verbessern.
Diese Aktivitäten können als Teil von durchgeführt werden Data Warehousing oder als Teil der Datenbankverwaltung von einem vorhandenen Stück Anwendungssoftware.[19]
Datenqualitätskontrolle
Datenqualitätskontrolle ist der Prozess der Steuerung der Verwendung von Daten für eine Anwendung oder einen Prozess. Dieser Prozess wird sowohl vor als auch nach einer Daten durchgeführt Qualitätssicherung (QA) -Prozess, der aus der Entdeckung von Daten inkonsistenz und Korrektur besteht.
Vor:
- Schränkt die Eingänge ein
Nach dem QA -Prozess werden die folgenden Statistiken gesammelt, um die zu leiten Qualitätskontrolle (QC) Prozess:
- Schwere der Inkonsistenz
- Unvollständigkeit
- Genauigkeit
- Präzision
- Fehlen / unbekannt
Der Daten -QC -Prozess verwendet die Informationen aus dem QA -Prozess, um die Daten für die Analyse oder einen Anwendung oder einen Geschäftsprozess zu verwenden. Allgemeines Beispiel: Wenn ein Daten -QC -Prozess feststellt, dass die Daten zu viele Fehler oder Inkonsistenzen enthalten, verhindert er, dass Daten für den beabsichtigten Prozess verwendet werden, der zu Störungen führen kann. Spezifisches Beispiel: Die Bereitstellung von ungültigen Messungen von mehreren Sensoren zum automatischen Pilotfunktion in einem Flugzeug kann dazu führen, dass es zum Absturz ist. Die Festlegung eines QC -Prozesss bietet daher den Datenverbrauchsschutz.
Optimale Verwendung der Datenqualität
Die Datenqualität (DQ) ist ein Nischenbereich, der für die Integrität des Datenmanagements erforderlich ist, indem Datenprobleme abdeckt. Dies ist eine der wichtigsten Funktionen, die die Datenverwaltung unterstützen, indem sie Daten überwachen, um Ausnahmen zu finden, die durch aktuelle Datenverwaltungsvorgänge unentdeckt entdeckt werden. Datenqualitätsprüfungen können auf Attributebene definiert werden, um die vollständige Kontrolle über seine Sanierungsschritte zu erhalten.
DQ -Checks und Geschäftsregeln können sich leicht überschneiden, wenn eine Organisation nicht auf ihren DQ -Bereich aufmerksam ist. Geschäftsteams sollten den DQ -Bereich gründlich verstehen, um Überlappungen zu vermeiden. Datenqualitätsprüfungen sind überflüssig, wenn Geschäftslogik deckt die gleiche Funktionalität ab und erfüllt den gleichen Zweck wie DQ. Der DQ -Umfang einer Organisation sollte in der DQ -Strategie definiert und gut implementiert werden. Einige Datenqualitätsprüfungen können nach wiederholten Ausnahmen in der Vergangenheit in Geschäftsregeln übersetzt werden.
Im Folgenden finden Sie einige Bereiche von Datenströmen, die möglicherweise mehrjährige DQ -Überprüfungen benötigen:
Vollständigkeit und Präzision DQ -Überprüfungen aller Daten können für jedes obligatorische Attribut jedes Quellsystems am Eingangspunkt für jedes obligatorische Attribut durchgeführt werden. Nach der anfänglichen Erstellung der Transaktion werden nur wenige Attributwerte erstellt. In solchen Fällen wird die Verwaltung dieser Überprüfungen schwierig und sollte unmittelbar nach dem definierten Ereignis der Quelle dieses Attributs und der anderen Kernattributbedingungen der Transaktion erfüllt werden.
Alle Daten mit Attributen, auf die sich beziehen Vergleichsdaten in der Organisation kann gegen den Satz gut definierter gültiger Werte von Referenzdaten validiert werden, um neue oder diskrepante Werte durch die zu ermitteln Gültigkeit DQ -Überprüfung. Die Ergebnisse können zum Aktualisieren verwendet werden Vergleichsdaten verabreicht unter Stammdatenmanagement (MDM).
Alle Daten, die von a bezogen werden dritte Seite Zu den internen Teams der Organisation können sich möglicherweise unterziehen Richtigkeit (DQ) Überprüfen Sie die Daten Dritter. Diese DQ -Prüfungsergebnisse sind wertvoll, wenn sie an Daten verabreicht werden, die nach dem Eintrittspunkt dieser Daten mehrere Hopfen erstellt haben, bevor diese Daten jedoch für Enterprise Intelligence autorisiert oder gespeichert werden.
Alle Datenspalten, die sich beziehen, auf die sich beziehen Stammdaten kann für seine validiert werden Konsistenz überprüfen. Eine DQ -Prüfung, die an den Daten am Eintragspunkt verabreicht wurde, entdeckt neue Daten für den MDM -Prozess. Ein nach dem Eintragspunkt verabreichtes DQ -Check entdeckt jedoch den Fehler (nicht die Ausnahmen) der Konsistenz.
Wenn sich Daten verwandeln, werden mehrere Zeitstempel und die Positionen dieser Zeitstempel erfasst und können miteinander und ihren Spielraum verglichen werden, um seinen Wert, den Zerfall und die betriebliche Bedeutung gegen eine definierte SLA (Service Level -Vereinbarung) zu validieren. Dies Aktualität Die DQ -Überprüfung kann verwendet werden, um die Abklingrate des Datenwerts zu verringern und die Richtlinien der Datenbewegungszeitleiste zu optimieren.
In einer Organisation wird die komplexe Logik normalerweise in mehreren Prozessen in eine einfachere Logik unterteilt. Angemessenheit DQ überprüft solche komplexen Logik, die einem logischen Ergebnis innerhalb eines bestimmten Wertebereichs oder statischen Wechselbeziehungen (aggregierte Geschäftsregeln) nachgeben, um komplizierte, aber entscheidende Geschäftsprozesse und Ausreißer der Daten zu entdecken, deren Drift von BAU (Business wie gewohnt) Erwartungen und können mögliche Ausnahmen liefern, die letztendlich zu Datenproblemen führen. Diese Überprüfung kann eine einfache allgemeine Aggregationsregel sein, die von einem großen Datenback mit einem großen Teil der Daten eingehoben wird, oder es kann eine komplizierte Logik für eine Gruppe von Attributen einer Transaktion im Zusammenhang mit dem Kerngeschäft der Organisation sein. Diese DQ -Prüfung erfordert ein hohes Maß an Geschäftswissen und Scharfsinn. Die Entdeckung von Angemessenheitsproblemen kann für Politik- und Strategieänderungen durch Unternehmens- oder Datenregierungsführung oder beides helfen.
Konformität Überprüfungen und Integritätsprüfungen Nicht in allen Geschäftsbedürfnissen behandelt werden, steht es streng unter dem Ermessen der Datenbankarchitektur.
Es gibt viele Orte in der Datenbewegung, an denen DQ -Überprüfungen möglicherweise nicht erforderlich sind. Beispielsweise ist die DQ -Überprüfung auf Vollständigkeit und Präzision in nicht -Null -Spalten überflüssig für die aus der Datenbank bezogenen Daten. In ähnlicher Weise sollten Daten für ihre Genauigkeit in Bezug auf die Zeit validiert werden, wenn die Daten über unterschiedliche Quellen hinweg geneigt werden. Dies ist jedoch eine Geschäftsregel und sollte nicht im DQ -Bereich sein.
Leider wird DQ aus Sicht der Softwareentwicklung häufig als nicht funktionierende Anforderung angesehen. Daher werden wichtige Datenqualitätsprüfungen/-prozesse nicht in die endgültige Softwarelösung berücksichtigt. Im Gesundheitswesen, tragbare Technologien oder Body Area -NetzwerkeErzeugen Sie große Datenmengen.[20] Das Detailniveau, das erforderlich ist, um die Datenqualität zu gewährleisten, ist extrem hoch und wird häufig unterschätzt. Dies gilt auch für die überwiegende Mehrheit von mHealth Apps, EHRS und andere gesundheitsbezogene Softwarelösungen. Es gibt jedoch einige Open -Source -Tools, die die Datenqualität untersuchen.[21] Der Hauptgrund dafür ist, dass die zusätzlichen Kosten in der Softwarearchitektur ein höheres Maß an Strenge hinzugefügt haben.
Sicherheit und Datenschutz für Gesundheitsdaten
Die Verwendung von mobilen Geräten im Gesundheitswesen oder im M -Health stellt neue Herausforderungen an Gesundheitsdaten Sicherheit und Privatsphäre auf eine Weise, die die Datenqualität direkt beeinflusst.[2] MHealth ist eine zunehmend wichtige Strategie für die Bereitstellung von Gesundheitsdiensten in Ländern mit niedrigem und mittlerem Einkommen.[22] Mobiltelefone und -Tablets werden in nahezu Echtzeit zur Sammlung, Berichterstattung und Analyse von Daten verwendet. Diese mobilen Geräte werden jedoch häufig für persönliche Aktivitäten verwendet, so dass sie anfälliger für Sicherheitsrisiken, die zu Datenverletzungen führen könnten. Ohne ordnungsgemäße Sicherheitssicherung könnte dieser persönliche Gebrauch die Qualität, Sicherheit und Vertraulichkeit von gefährden Gesundheitsdaten.[23]
Datenqualität in der öffentlichen Gesundheit
Die Datenqualität ist in den letzten Jahren zu einem Hauptaugenmerk von Programmen für öffentliche Gesundheit geworden, insbesondere mit zunehmender Nachfrage nach Rechenschaftspflicht.[24] Arbeiten auf ehrgeizige Ziele im Zusammenhang mit dem Kampf gegen Krankheiten wie AIDS, Tuberkulose und Malaria müssen auf starken Überwachungs- und Bewertungssystemen beruhen, die Qualitätsdaten im Zusammenhang mit der Programmumsetzung erstellen.[25] Diese Programme und Programmprüfer suchen zunehmend Tools, um den Prozess der Ermittlung der Datenqualität zu standardisieren und zu optimieren.[26] Überprüfen Sie die Qualität der gemeldeten Daten und bewerten Sie die zugrunde liegenden Datenmanagement- und Berichtssysteme für Indikatoren.[27] Ein Beispiel ist die Datenqualitätsprüfung von WHO und Messung der Bewertung[28] WHO, der Global Fund, Gavi und Mess Evaluation haben zusammengearbeitet, um einen harmonisierten Ansatz zur Datenqualitätssicherung für verschiedene Krankheiten und Programme zu erzeugen.[29]
Datenqualität offen
Es gibt eine Reihe von wissenschaftlichen Arbeiten, die der Analyse der Datenqualität in gewidmet sind Daten öffnen Quellen wie z. Wikipedia, Wikidata, Dbpedia und andere. Im Fall von Wikipedia kann die Qualitätsanalyse auf den gesamten Artikel beziehen[30] Die Modellierung der Qualität wird durch verschiedene Methoden durchgeführt. Einige von ihnen verwenden maschinelles Lernen Algorithmen, einschließlich Zufallswald,[31] Vektormaschine unterstützen,[32] und andere. Methoden zur Bewertung der Datenqualität in Wikidata, Dbpedia und anderen Lod Quellen unterscheiden sich.[33]
Berufsverbände
- IQ International - Die Internationale Vereinigung für Information und Datenqualität[34]
- IQ International ist eine gemeinnützige, neutrale, professionelle Vereinigung, die 2004 gegründet wurde und sich dem Aufbau der Informations- und Datenqualitätsberufe widmet.
ECCMA (Electronic Commerce Code Management Association)
Die Electronic Commerce Code Management Association (ECCMA) ist eine von Mitgliedern basierende, gemeinnützige Vereinigung, die sich zur Verbesserung der Datenqualität durch die Implementierung internationaler Standards verpflichtet hat. ECCMA ist der aktuelle Projektleiter für die Entwicklung von ISO 8000 und ISO 22745, die die internationalen Standards für die Datenqualität bzw. den Austausch von Material- und Dienstmeisterdaten sind. ECCMA bietet eine Plattform für die Zusammenarbeit zwischen Subjektexperten für Datenqualität und Datenverwaltung auf der ganzen Welt, um globale, offene Standardwörterbücher aufzubauen und aufrechtzuerhalten, die verwendet werden, um Informationen eindeutig zu kennzeichnen. Die Existenz dieser Wörterbücher von Etiketten ermöglicht es, Informationen von einem Computersystem an einen anderen zu übergeben, ohne Bedeutung zu verlieren.[35]
Siehe auch
- Datenqualität Firewall
- Datenvalidierung
- Aufzeichnungsverknüpfung
- Informationsqualität
- Stammdatenverwaltung
- Datenamt
- Datenbanknormalisierung
- Datenvisualisierung
- Datenanalyse
- Klinisches Datenmanagement
Verweise
- ^ Redman, Thomas C. (30. Dezember 2013). Daten gesteuert: Profitieren Sie von Ihrem wichtigsten Geschäftsinteressium. Harvard Business Press. ISBN 978-1-4221-6364-1.
- ^ a b Fadahunsi, Kayode Philip; Akinlua, James Tosin; O’Connor, Siobhan; Wark, Petra A; Gallagher, Joseph; Carroll, Christopher; Majeed, Azeem; O’Donoghue, John (März 2019). "Protokoll für eine systematische Überprüfung und qualitative Synthese von Informationsqualitätsrahmen in eHealth". BMJ offen. 9 (3): E024722. doi:10.1136/bmjopen-2018-024722. ISSN 2044-6055. PMC 6429947. PMID 30842114.
- ^ Fadahunsi, Kayode Philip; O'Connor, Siobhan; Akinlua, James Tosin; Wark, Petra A.; Gallagher, Joseph; Carroll, Christopher; Auto, Josip; Majeed, Azeem; O'Donoghue, John (2021-05-17). "Informationsqualitätsrahmen für digitale Gesundheitstechnologien: Systematische Überprüfung". Journal of Medical Internet Research. 23 (5): E23479. doi:10.2196/23479. PMC 8167621. PMID 33835034.
- ^ Smallwood, R.F. (2014). Information Governance: Konzepte, Strategien und Best Practices. John Wiley und Söhne. p. 110. ISBN 9781118218303. Archiviert vom Original am 2020-07-30. Abgerufen 2020-04-18.
Mit einem standardisierten Datengovernance-Programm im Vordergrund steht die Reinigung von beschädigten oder doppelten Daten und die Bereitstellung sauberer, genauer Daten als Grundlage für Softwareanwendungen für die Linie und für Entscheidungsunterstützungsanalysen in Business Intelligence (BI).
- ^ a b c d e Fürrber, C. (2015). "3. Datenqualität". Datenqualitätsmanagement mit semantischen Technologien. Springer. S. 20–55. ISBN 9783658122249. Archiviert vom Original am 31. Juli 2020. Abgerufen 18. April 2020.
- ^ a b Herzog, T.N.; Scheuren, F.J.; Winkler, W.E. (2007). "Kapitel 2: Was ist die Datenqualität und warum sollten wir uns darum kümmern?". Datenqualitäts- und Aufzeichnungsverknüpfungstechniken. Springer Science & Business Media. S. 7–15. ISBN 9780387695020. Archiviert vom Original am 31. Juli 2020. Abgerufen 18. April 2020.
{{}}
: Cs1 montiert: Mehrfachnamen: Autorenliste (Link) - ^ a b Flockenstein, M.; Fellows, L. (2018). "Kapitel 11: Datenqualität". Moderne Datenstrategie. Springer. S. 101–120. ISBN 9783319689920. Archiviert vom Original am 31. Juli 2020. Abgerufen 18. April 2020.
{{}}
: Cs1 montiert: Mehrfachnamen: Autorenliste (Link) - ^ a b Mahanti, R. (2019). "Kapitel 1: Daten, Datenqualität und Kosten für schlechte Datenqualität". Datenqualität: Dimensionen, Messung, Strategie, Management und Governance. Qualitätspresse. S. 5–6. ISBN 9780873899772. Archiviert vom Original am 23. November 2020. Abgerufen 18. April 2020.
- ^ Internationale Organisation für Standardisierung (September 2015). "ISO 9000: 2015 (EN) Qualitätsmanagementsysteme - Grundlagen und Wortschatz". Internationale Standardisierungsorganisation. Archiviert Aus dem Original am 19. Mai 2020. Abgerufen 18. April 2020.
- ^ NIST Big Data Public Working Group, Definitionen und Taxonomien Untergruppe (Oktober 2019). "NIST Big Data Interoperability Framework: Band 4, Sicherheit und Datenschutz" (PDF). NIST Special Publication 1500-4R2 (3. Aufl.). Nationales Institut für Standards und Technologie. doi:10.6028/nist.sp.1500-4r2. Archiviert (PDF) vom Original am 9. Mai 2020. Abgerufen 18. April 2020.
Die Gültigkeit bezieht sich auf die Nützlichkeit, Genauigkeit und Korrektheit von Daten für ihre Anwendung. Traditionell wurde dies als Datenqualität bezeichnet.
- ^ a b Bian, Jiang; Lyu, Tianchen; Loiacono, Alexander; Viramontes, Tonatiuh Mendoza; Lipori, Gloria; Guo, Yi; Wu, Yonghui; Prosperi, Mattia; George, Thomas J; Harle, Christopher A; Shenkman, Elizabeth A (2020-12-09). "Bewertung der Praxis der Datenqualitätsbewertung in einem nationalen klinischen Datenforschungsnetzwerk durch eine systematische Scoping-Überprüfung in der Zeit der realen Daten". Zeitschrift der American Medical Informatics Association. 27 (12): 1999–2010. doi:10.1093/jamia/ocaa245. ISSN 1527-974x. PMC 7727392. PMID 33166397.
- ^ "Haftung und Hebelwirkung - Ein Fall für die Datenqualität". Informationsmanagement. August 2006. Archiviert Aus dem Original am 01.01.12-27. Abgerufen 2010-06-25.
- ^ "Adressmanagement für Versandhandel und Einzelhandel". Richtungsmagazin. Archiviert von das Original am 2005-04-28. Abgerufen 2010-06-25.
- ^ "USPS | Postalpro" (PDF). Archiviert (PDF) vom Original am 2010-02-15. Abgerufen 2010-06-25.
- ^ E. Curry, A. Freitas und S. O'riáin, "Die Rolle der Community-betriebenen Datenkuration für Unternehmen", Archiviert 2012-01-23 bei der Wayback -Maschine in Verknüpfung von Unternehmensdaten, D. Wood, ed. Boston, Mass.: Springer US, 2010, S. 25-47.
- ^ "ISO/TS 8000-1: 2011 Datenqualität-Teil 1: Übersicht". Internationale Standardisierungsorganisation. Archiviert Aus dem Original am 21. Dezember 2016. Abgerufen 8. Dezember 2016.
- ^ "Können Sie der Qualität Ihrer Daten vertrauen?". motivlessData.com. Archiviert von das Original Am 2017-02-11.
- ^ "Was ist Datenreinigung? - Experian Data Quality". 13. Februar 2015. Archiviert Aus dem Original am 11. Februar 2017. Abgerufen 9. Februar 2017.
- ^ "Vorlesung 23 Datenqualitätskonzepte Tutorial - Data Warehousing". Schauen Sie sich kostenloses Video -Training online an. Archiviert von das Original Am 2016-12-21. Abgerufen 8. Dezember 2016.
- ^ O'Donoghue, John und John Herbert. "Datenmanagement in MHealth -Umgebungen: Patientensensoren, mobile Geräte und Datenbanken". Zeitschrift für Daten und Informationsqualität (JDIQ) 4.1 (2012): 5.
- ^ Huser, Vojtech; Defalco, Frank J; Schuemie, Martijn; Ryan, Patrick B; Shang, Ning; Velez, Mark; Park, Rae Woong; Boyce, Richard D; Herzog, Jon; Khare, Ritu; Utidjian, Levon; Bailey, Charles (30. November 2016). "Multisite-Bewertung eines Datenqualitätstools für klinische Datensätze auf Patientenebene". Egerems. 4 (1): 24. doi:10.13063/2327-9214.1239. PMC 5226382. PMID 28154833.
- ^ Bewertung messen. (2017) Verbesserung der Datenqualität in mobilen Community-basierten Gesundheitsinformationssystemen: Richtlinien für Design und Implementierung (TR-17-182). Chapel Hill, NC: Messung, Universität von North Carolina. Abgerufen von https://www.measureevaluation.org/resources/publications/tr-17-182 Archiviert 2017-08-08 bei der Wayback -Maschine
- ^ Wambugu, S. & Villella, C. (2016). MHealth für Gesundheitsinformationssysteme in Ländern mit niedrigem und mittlerem Einkommen: Herausforderungen und Chancen in Bezug auf Datenqualität, Privatsphäre und Sicherheit (TR-16-140). Chapel Hill, NC: Messung, Universität von North Carolina. Abgerufen von https://www.measureevaluation.org/resources/publications/tr-16-140 Archiviert 2017-08-08 bei der Wayback -Maschine
- ^ Bewertung messen. (2016) Datenqualität für Überwachungs- und Bewertungssysteme (FS-16-170). Chapel Hill, NC: Messung, Universität von North Carolina. Abgerufen von https://www.measureevaluation.org/resources/publications/fs-16-170-en Archiviert 2017-08-08 bei der Wayback -Maschine
- ^ Bewertung messen. (2016). Routine Gesundheitsinformationssysteme: Ein Lehrplan für grundlegende Konzepte und Praxis-Lehrplan (SR-16-135A). Chapel Hill, NC: Messung, Universität von North Carolina. Abgerufen von https://www.measureevaluation.org/resources/publications/sr-16-135a Archiviert 2017-08-08 bei der Wayback -Maschine
- ^ "Datenqualitätssicherungsinstrumente". Bewertung messen. Archiviert Aus dem Original am 8. August 2017. Abgerufen 8. August 2017.
- ^ "Modul 4: Rhis -Datenqualität". Bewertung messen. Archiviert Aus dem Original am 8. August 2017. Abgerufen 8. August 2017.
- ^ Bewertung messen. "Datenqualität". Bewertung messen. Archiviert Aus dem Original am 8. August 2017. Abgerufen 8. August 2017.
- ^ Die Weltgesundheitsorganisation (WHO). (2009). Überwachung und Bewertung der Stärkung der Gesundheitssysteme. Genf, Schweiz: Wer. Abgerufen von http://www.who.int/healtinfo/hss_mande_framework_nov_2009.pdf Archiviert 2017-08-28 bei der Wayback -Maschine
- ^ Mesgari, Mostafa; Chitu, Okoli; Mehdi, Mohamad; Finn Årup, Nielsen; Lanamäki, Arto (2015). ""Die Summe aller menschlichen Wissen": Eine systematische Überprüfung der wissenschaftlichen Forschung zum Inhalt von Wikipedia " (PDF). Journal of the Association for Information Science und Technologie. 66 (2): 219–245. doi:10.1002/asi.23172. S2CID 218071987. Archiviert (PDF) vom Original am 2020-05-10. Abgerufen 2020-01-21.
- ^ Warncke-Wang, Morten; Cosley, Dan; Riedl, John (2013). Erzählen Sie mir mehr: Ein umsetzbares Qualitätsmodell für Wikipedia. Wikisym '13 Proceedings des 9. Internationalen Symposiums über offene Zusammenarbeit. doi:10.1145/2491055.2491063. ISBN 9781450318525. S2CID 18523960.
- ^ Hasan Dalip, Daniel; André Gonçalves, Marcos; Cristo, Marco; Calado, Pável (2009). "Automatische Qualitätsbewertung von Inhalten, die gemeinsam von Webgemeinschaften erstellt wurden". Proceedings der gemeinsamen Internationalen Konferenz 2009 für digitale Bibliotheken - JCDL '09. p. 295. doi:10.1145/1555400.1555449. ISBN 9781605583228. S2CID 14421291.
- ^ Färber, Michael; Bartscherer, Frederic; Menne, Carsten; Retinger, Achim (2017-11-30). "Verbundene Datenqualität von DBpedia, Freebase, Opencyc, Wikidata und Yago". Semantisches Web. 9 (1): 77–129. doi:10.3233/sw-170275. Archiviert vom Original am 2018-01-22.
- ^ "IQ International - Die Internationale Vereinigung für Informations- und Datenqualität". IQ Internationaler Website. Archiviert vom Original am 2017-05-10. Abgerufen 2016-08-05.
- ^ "Heim". ECCMA. Archiviert vom Original am 2018-08-19. Abgerufen 2018-10-03.
Weitere Lektüre
- Baškarada, S; Koronios, A (2014). "Ein kritischer Erfolgsfaktoren -Rahmen für das Informationsqualitätsmanagement". Informationssystemmanagement. 31 (4): 1–20. doi:10.1080/10580530.2014.958023. S2CID 33018618.
- Baamann, Katharina, "Datenqualitätsaspekte der Einnahmenversicherung", Artikel
- Eckerson, W. (2002) "Data Warehousing Special Report: Datenqualität und das Endergebnis", Artikel
- Ivanov, K. (1972) "Qualitätskontrolle von Informationen: Über das Konzept der Genauigkeit von Informationen in Datenbanken und in Managementinformationssystemen". Die University of Stockholm und das Royal Institute of Technology. Doktorarbeit.
- Hansen, M. (1991) Null -Defekt -Daten, MIT. Masters Thesis [1]
- Kahn, B., Strong, D., Wang, R. (2002) "Information Quality Benchmarks: Produkt- und Serviceleistung", Kommunikation der ACM, April 2002. S. 184–192. Artikel
- Price, R. und Shanks, G. (2004) Ein semiotischer Informationsqualität, Proc. IFIP International Conference zu Entscheidungsunterstützungssystemen (DSS2004): Entscheidungsunterstützung in einer unsicheren und komplexen Welt, Prato. Artikel
- Redman, T. C. (2008) Daten gesteuert: Profitieren Sie von unserem wichtigsten Geschäftsabkommen
- Wand, Y. und Wang, R. (1996) "Verankerungen der Datenqualitätsdimensionen in ontologischen Grundlagen", Kommunikation der ACM, November 1996. S. 86–95. Artikel
- Wang, R., Kon, H. und Madnick, S. (1993), Analyse und Modellierung von Datenqualitätsanforderungen, Neunte Internationale Konferenz des Datentechnik, Wien, Österreich. Artikel
- Fournel Michel, Accroiter La Qualité et la Valeur des Données de Vos Kunden, Éditions Publibook, 2007. ISBN978-2-7483-3847-8.
- Daniel F., Casati F., Palpanas T., Chayka O., Cappiello C. (2008) "Ermöglichen Sie bessere Entscheidungen durch qualitativ hochwertige Berichte", Internationale Konferenz über Informationsqualität (ICIQ), MIT. Artikel
- Jack E. Olson (2003), "Datenqualität: Die Genauigkeitsdimension", Morgan Kaufmann Publishers
- Woodall P., Oberhofer M. und Borek A. (2014), "Eine Klassifizierung von Datenqualitätsbewertungs- und Verbesserungsmethoden". Internationales Journal of Information Quality 3 (4), 298–321. doi: 10.1504/ijiq.2014.068656.
- Woodall, P., Borek, A. und Parlikad, A. (2013), "Datenqualitätsbewertung: Der Hybridansatz." Informationsmanagement 50 (7), 369–382.
Externe Links
- Datenqualitätskurs, aus dem Global Health Learning Center