Differentielle Privatsphäre

Differentielle Privatsphäre (Dp) ist ein System, mit dem Informationen über einen Datensatz veröffentlicht werden können, indem die Muster von Gruppen innerhalb des Datensatzes beschrieben und Informationen über Einzelpersonen im Datensatz zurückgehalten werden. Die Idee hinter der unterschiedlichen Privatsphäre ist, dass das Abfrageergebnis, wenn die Auswirkung einer willkürlichen einzelnen Substitution in der Datenbank klein genug ist, nicht viel auf eine einzelne Person schließen kann und daher Privatsphäre liefert. Eine andere Möglichkeit, die unterschiedliche Privatsphäre zu beschreiben, besteht als Einschränkung der Algorithmen zur Veröffentlichung von Gesamtinformationen über eine statistische Datenbank, die die Offenlegung privater Informationen von Datensätzen einschränkt, deren Informationen in der Datenbank enthalten sind. Beispielsweise werden von einigen Regierungsbehörden unterschiedlich private Algorithmen verwendet, um demografische Informationen oder andere statistische Aggregate zu veröffentlichen und gleichzeitig die Vertraulichkeit der Umfragantworten sicherzustellen, und von Unternehmen, Informationen über das Benutzerverhalten zu sammeln und gleichzeitig das zu kontrollieren, was auch für interne Analysten sichtbar ist.

Ungefähr ein Algorithmus ist unterschiedlich privat, wenn ein Beobachter, der seine Ausgabe sieht, nicht erkennen kann, ob die Informationen einer bestimmten Person in der Berechnung verwendet wurden. Die unterschiedliche Privatsphäre wird häufig im Kontext der Identifizierung von Personen diskutiert, deren Informationen in einer Datenbank liegen können. Obwohl es sich nicht direkt auf Identifikations- und Neuidentifizierungsangriffe bezieht, widerstehen unterschiedliche private Algorithmen wahrscheinlich solchen Angriffen.[1]

Die differentielle Privatsphäre wurde von Kryptografen entwickelt und wird daher häufig mit der Kryptographie in Verbindung gebracht und zieht einen Großteil seiner Sprache aus der Kryptographie.

Geschichte

Offizielle Statistikorganisationen werden mit dem Sammeln von Informationen von Einzelpersonen oder Einrichtungen und der Veröffentlichung von Daten zur Veröffentlichung des öffentlichen Interesses beauftragt. Zum Beispiel die 1790 Volkszählung der Vereinigten Staaten sammelte Informationen über Personen, die in den USA lebten, und veröffentlichten Tabellen auf der Grundlage von Geschlecht, Alter, Rasse und Bedingung der Knechtschaft. Statistische Organisationen haben seit langem Informationen unter einem Versprechen von gesammelt Vertraulichkeit Dass die bereitgestellten Informationen für statistische Zwecke verwendet werden, aber dass die Veröffentlichungen keine Informationen erstellen, die auf eine bestimmte Person oder ein bestimmtes Einrichten zurückgeführt werden können. Um dieses Ziel zu erreichen, haben statistische Organisationen lange Informationen in ihren Veröffentlichungen unterdrückt. In einer Tabelle, in der die Verkäufe jedes Unternehmens in einer Stadt, die nach der Kategorie der Geschäftsträger gruppiert ist, präsentiert, könnte eine Zelle, die nur Informationen von nur einem Unternehmen enthält, unterdrückt werden, um die Vertraulichkeit des spezifischen Umsatzes dieses Unternehmens aufrechtzuerhalten.

Die Einführung elektronischer Informationsverarbeitungssysteme durch statistische Agenturen in den 1950er und 1960er Jahren erhöhte die Anzahl der Tabellen, die eine statistische Organisation erzeugen konnte, dramatisch und erhöhte dabei das Potenzial für eine unsachgemäße Offenlegung vertraulicher Informationen erheblich. Wenn beispielsweise ein Unternehmen, bei dem seine Verkaufszahlen unterdrückt wurden, auch diese Zahlen im Gesamtumsatz einer Region erscheinen lassen, kann es möglich sein, den unterdrückten Wert durch Abzug der anderen Verkäufe von dieser Gesamtsumme zu bestimmen. Es könnte aber auch Kombinationen von Ergänzungen und Unterabrechnungen geben, die dazu führen können, dass die privaten Informationen enthüllt werden. Die Anzahl der Kombinationen, die überprüft werden mussten, nimmt mit der Anzahl der Veröffentlichungen exponentiell zu, und es ist potenziell unbegrenzt, wenn Datenbenutzer in der Lage sind, Abfragen der statistischen Datenbank mithilfe eines interaktiven Query -Systems abzufragen.

1977 formalisierte Tore Dalenius die Mathematik der Zellunterdrückung.[2]

1979,, Dorothy Denning, Peter J. Denning und Mayer D. Schwartz formalisierte das Konzept eines Trackers, eines Gegners, der den vertraulichen Inhalt einer statistischen Datenbank erlernen könnte, indem er eine Reihe gezielter Abfragen erstellt und sich an die Ergebnisse erinnert.[3] Diese und zukünftige Untersuchungen zeigten, dass Datenschutzeigenschaften in einer Datenbank nur erhalten werden konnten, indem jede neue Abfrage angesichts (möglicherweise alle) früheren Abfragen berücksichtigt werden. Diese Arbeitslinie wird manchmal genannt Privatsphäre abfragen, Mit dem Endergebnis, dass die Verfolgung der Auswirkungen einer Abfrage auf die Privatsphäre von Einzelpersonen in der Datenbank NP-HART war.

In 2003, Kobbi Nissim und IRIT DINUR zeigte, dass es unmöglich ist, willkürliche Abfragen in einer privaten statistischen Datenbank zu veröffentlichen, ohne ein gewisses Maß an privaten Informationen anzuzeigen, und dass der gesamte Informationsinhalt der Datenbank durch Veröffentlichung der Ergebnisse einer überraschend geringen Anzahl zufälliger Abfragen - weniger als weniger als veröffentlicht werden kann als weniger als wurde durch frühere Arbeiten impliziert.[4] Das allgemeine Phänomen ist als das bekannt Grundgesetz der Informationswiederherstellungund seine wichtigsten Erkenntnisse, nämlich dass die Privatsphäre im allgemeinsten Fall nicht geschützt werden kann, ohne ein gewisses Maß an Rauschen zu injizieren, führte zur Entwicklung der unterschiedlichen Privatsphäre.

In 2006, Cynthia Dwork, Frank McSerry, Kobbi Nissim und Adam D. Smith veröffentlichte einen Artikel, der die Menge an Rauschen formalisierte, die hinzugefügt werden musste und dafür einen verallgemeinerten Mechanismus vorgeschlagen hatte.[1] Ihre Arbeit war ein Mitrevient des TCC-Test-of-Time-Preises 2016[5] und das 2017 Gödel -Preis.[6]

Seitdem hat nachfolgende Untersuchungen gezeigt, dass es viele Möglichkeiten gibt, sehr genaue Statistiken aus der Datenbank zu produzieren und gleichzeitig ein hohes Maß an Privatsphäre zu gewährleisten.[7][8]

ε-differentielle Privatsphäre

Der Artikel von Dwork, McSerry, Nissim und Smith von 2006 führte das Konzept der ε-Differential Privatsphäre vor, eine mathematische Definition für den Datenschutzverlust, der mit einer Datenveröffentlichung aus einer statistischen Datenbank verbunden ist. (Hier der Begriff Statistische Datenbank bedeutet eine Reihe von Daten, die nach dem Versprechen der Vertraulichkeit gesammelt werden, um Statistiken zu erstellen, die durch ihre Produktion die Privatsphäre derjenigen Personen, die die Daten zur Verfügung gestellt haben, nicht gefährden.)

Die Intuition für die Definition von ε-differenzieller Privatsphäre von 2006 besteht darin, dass die Privatsphäre einer Person durch eine statistische Veröffentlichung nicht beeinträchtigt werden kann, wenn sich ihre Daten nicht in der Datenbank befinden. Daher ist es mit unterschiedlicher Privatsphäre das Ziel, jedem Einzelnen ungefähr die gleiche Privatsphäre zu geben, die sich aus der Entfernung seiner Daten ergeben würde. Das heißt, die statistischen Funktionen, die in der Datenbank ausgeführt werden, sollten nicht übermäßig von den Daten einer Person abhängen.

Wie viel eine Person zum Ergebnis einer Datenbankabfrage beiträgt, hängt natürlich zum Teil davon ab, wie viele Daten an der Abfrage beteiligt sind. Wenn die Datenbank Daten von einer einzelnen Person enthält, tragen die Daten dieser Person zu 100%bei. Wenn die Datenbank Daten von hundert Personen enthält, tragen die Daten jeder Person nur 1%bei. Der wichtigste Einblick in die unterschiedliche Privatsphäre besteht darin, dass die Abfrageergebnis bei den Daten von immer weniger Personen mehr Rauschen hinzugefügt werden muss, um die gleiche Privatsphäre zu erzeugen. Daher der Name des Papiers von 2006, "Kalibrierung von Rauschen zur Empfindlichkeit in der privaten Datenanalyse".

Das Papier von 2006 präsentiert sowohl eine mathematische Definition der unterschiedlichen Privatsphäre als auch einen Mechanismus, der auf der Zugabe von Laplace -Rauschen basiert (d. H. Rauschen, die aus dem stammen Laplace -Verteilung) Das erfüllt die Definition.

Definition von ε-Differential Privatsphäre

Sei ε positiv reelle Zahl und sei a Randomisierter Algorithmus Dies dauert einen Datensatz als Eingabe (die die Aktionen der vertrauenswürdigen Partei darstellt, die die Daten hält). Lassen bezeichnen die Bild von . Der Algorithmus soll zur Verfügung stellen -Differenz Privatsphäre Wenn für alle Datensätze und Das unterscheidet sich in einem einzelnen Element (d. H. Die Daten einer Person) und aller Teilmengen von :

wo die Wahrscheinlichkeit über die übernommen wird Zufälligkeit verwendet vom Algorithmus.[9]

Die differentielle Privatsphäre bietet starke und robuste Garantien, die das modulare Design und die Analyse differentiell privater Mechanismen durch seine erleichtern Komposition, Robustheit zur Nachbearbeitung, und anmutiger Abbau in Gegenwart von Korrelierte Daten.

Komposition

(Selbst) Komposition bezieht sich auf die Tatsache, dass die gemeinsame Verteilung der Ausgaben von (möglicherweise adaptiv gewählten) unterschiedlich private Mechanismen unterschiedliche Privatsphäre erfüllt.

Sequentielle Komposition. Wenn wir einen ε-differentiellen Datenschutzmechanismus abfragen Zeiten, und die Randomisierung des Mechanismus ist für jede Abfrage unabhängig, dann wäre das Ergebnis -Differenz privat. Im allgemeineren Fall, wenn es gibt Unabhängige Mechanismen: , deren Datenschutzgarantien sind Differentielle Privatsphäre, dann jede Funktion von ihnen: ist -Differenz privat.[10]

Parallele Komposition. Wenn die vorherigen Mechanismen berechnet werden disjunkt Teilmengen der privaten Datenbank dann die Funktion wäre -differentiell privat.[10]

Robustheit zur Nachbearbeitung

Für jede deterministische oder randomisierte Funktion definiert über das Bild des Mechanismus , wenn erfüllt die Privatsphäre von ε-Differential, auch .

Zusammen, Komposition und Robustheit zur Nachbearbeitung Ermöglichen Sie die modulare Konstruktion und Analyse unterschiedlich privater Mechanismen und motivieren Sie das Konzept der Datenschutzverlustbudget. Wenn alle Elemente, die auf sensible Daten einer komplexen Mechanismen zugreifen, separat unterschiedlich privat sind, ist auch ihre Kombination, gefolgt von willkürlicher Nachbearbeitung.

Gruppen Privatsphäre

Im Allgemeinen soll ε-differentielle Privatsphäre die Privatsphäre zwischen benachbarten Datenbanken schützen, die sich nur in einer Zeile unterscheiden. Dies bedeutet, dass kein Gegner mit willkürlichen Hilfsinformationen wissen kann, ob eines Ein besonderer Teilnehmer reichte seine Informationen ein. Dies ist jedoch auch erweiterbar. Möglicherweise möchten wir Datenbanken, die sich in unterschiedlich machen Zeilen, die einem Gegner mit willkürlichen Hilfsinformationen entsprechen, die wissen, ob bestimmte Teilnehmer haben ihre Informationen eingereicht. Dies kann erreicht werden, weil wenn Elemente ändern sich, die Wahrscheinlichkeitsdilatation wird durch Anstatt von ,[11] d.h. für d1 und d2 unterschiedlich auf Artikel:

Somit ε stattdessen auf ε einstellen erzielt das gewünschte Ergebnis (Schutz von Artikel). Mit anderen Worten, anstatt jedes Element ε-differenziell privat geschützt zu haben, jetzt jede Gruppe von Elemente sind ε-differenziell privat geschützt (und jedes Element ist -Differenz privat geschützt).

ε-differenziell private Mechanismen

Da unterschiedliche Privatsphäre ein probabilistisches Konzept ist, ist jeder unterschiedlich private Mechanismus notwendigerweise randomisiert. Einige davon, wie der nachstehend beschriebene Laplace -Mechanismus, verlassen sich auf das Hinzufügen von kontrolliertem Rauschen zur Funktion, die wir berechnen möchten. Andere wie das Exponentialmechanismus[12] und hintere Probenahme[13] Probe aus einer problemabhängigen Verteilungsfamilie stattdessen.

Empfindlichkeit

Lassen eine positive Ganzzahl sein, eine Sammlung von Datensätzen sein und eine Funktion sein. Das Empfindlichkeit [1] einer Funktion, bezeichnet , wird definiert von

wobei das Maximum über alle Datasetspaare liegt und in unterscheidet sich höchstens ein Element und bezeichnet die Norm.

Im Beispiel der medizinischen Datenbank unten, wenn wir berücksichtigen die Funktion sein Dann ist die Empfindlichkeit der Funktion eins, da das Ändern eines der Einträge in der Datenbank dazu führt, dass sich die Ausgabe der Funktion entweder um Null oder eins ändert.

Es gibt Techniken (die unten beschrieben werden), die einen unterschiedlich privaten Algorithmus für Funktionen mit geringer Empfindlichkeit erstellen können.

Der Laplace -Mechanismus

Der Laplace -Mechanismus fügt Laplace -Rauschen hinzu (d. H. Rauschen aus dem Laplace -Verteilung, die durch Wahrscheinlichkeitsdichtefunktion ausgedrückt werden können , was mittlere Null- und Standardabweichung hat ). Jetzt definieren wir in unserem Fall die Ausgangsfunktion von als real geschätzte Funktion (als Transkription bezeichnet von ) wie wo und ist die ursprüngliche real geschätzte Abfrage/Funktion, die wir in der Datenbank ausführen wollten. Jetzt klar kann als kontinuierliche Zufallsvariable angesehen werden, wo



Welches ist höchstens . Wir können berücksichtigen Der Datenschutzfaktor sein . Daher folgt einem differentiell privaten Mechanismus (wie aus ersichtlich ist aus die obige Definition). Wenn wir versuchen, dieses Konzept in unserem Diabetes -Beispiel zu verwenden als die -Differenz privater Algorithmus, die wir haben müssen . Obwohl wir hier Laplace -Rauschen verwendet haben, können andere Formen des Rauschens, wie das Gaußsche Geräusch, angewendet werden. Möglicherweise erfordern sie möglicherweise eine leichte Entspannung der Definition der unterschiedlichen Privatsphäre.[11]

Nach dieser Definition ist die unterschiedliche Privatsphäre eine Bedingung zum Freigabemechanismus (d. H. Die vertrauenswürdige Partei gibt Informationen frei um der Datensatz) und nicht auf dem Datensatz selbst. Dies bedeutet intuitiv, dass sich für zwei ähnliche Datensätze ein gegebener differentiell privater Algorithmus in beiden Datensätzen ungefähr gleich verhalten. Die Definition gibt eine starke Garantie dafür, dass das Vorhandensein oder Fehlen eines Individuums die endgültige Ausgabe des Algorithmus nicht wesentlich beeinflusst.

Angenommen, wir haben eine Datenbank mit medizinischen Unterlagen wo jeder Datensatz ein Paar ist (Name, X), wo ist ein Boolesche Bezeichnet, ob eine Person Diabetes hat oder nicht. Zum Beispiel:

Name Hat Diabetes (x)
Ross 1
Monica 1
Joey 0
Phoebe 0
Chandler 1
Rachel 0

Nehmen wir nun ein böswilliger Benutzer an (oft als als als bezeichnet Gegner) möchte herausfinden, ob Chandler Diabetes hat oder nicht. Angenommen, er weiß auch, in welcher Zeile der Datenbank Chandler wohnt. Nehmen wir nun an, der Gegner darf nur eine bestimmte Form der Abfrage verwenden Das gibt die teilweise Summe des ersten zurück Säulenreihen in der Datenbank. Um den Diabetes -Status von Chandler zu finden, führt der Gegner aus und berechnet dann ihren Unterschied. In diesem Beispiel, und Ihr Unterschied ist also 1. Dies zeigt an, dass das Feld "Has Diabetes" in Chandlers Zeile 1 sein muss. In diesem Beispiel wird hervorgehoben, wie individuelle Informationen beeinträchtigt werden können, auch ohne explizit nach Informationen einer bestimmten Person.

Fortsetzung dieses Beispiels, wenn wir konstruieren Durch Ersetzen (Chandler, 1) durch (Chandler, 0) kann dieser böswillige Gegner unterscheiden können aus durch Computer Für jeden Datensatz. Wenn der Gegner die Werte empfangen musste über an ein -Differenz privater Algorithmus für eine ausreichend kleine Dann könnte er oder sie nicht zwischen den beiden Datensätzen unterscheiden.

Randomisierte Antwort

Ein einfaches Beispiel, das besonders in der entwickelt wurde Sozialwissenschaften,[14] ist eine Person zu bitten, die Frage zu beantworten: "Besitzen Sie das Attribut a? ", gemäß dem folgenden Verfahren:

  1. Wirf eine Münze.
  2. Wenn Sie Köpfe haben, werfen Sie die Münze erneut (ignorieren Sie das Ergebnis) und beantworten Sie die Frage ehrlich.
  3. Wenn Schwänze, werfen Sie die Münze erneut und antworten Sie "Ja", wenn Köpfe "Nein", wenn Schwänze.

(Der scheinbar überflüssige zusätzliche Wurf im ersten Fall wird in Situationen benötigt, in denen nur die Handlung Eine Münze zu werfen kann von anderen beobachtet werden, auch wenn das tatsächliche Ergebnis verborgen bleibt.) Die Vertraulichkeit entsteht dann aus dem Widerspruchsfähigkeit der individuellen Antworten.

Insgesamt sind diese Daten jedoch mit vielen Antworten signifikant, da ein Viertel von Personen, die das nicht haben, positive Antworten gegeben werden Attribut a und drei Viertel von Menschen, die es tatsächlich besitzen. Also wenn p ist der wahre Anteil der Menschen mit ADann erwarten wir (1/4) (1-p) + (3/4)p = (1/4) + p/2 positive Antworten. Daher ist es möglich, abzuschätzen p.

Insbesondere wenn die Attribut a Synonym für illegales Verhalten, dann ist die Beantwortung von "Ja" nicht belastend, soweit die Person eine Wahrscheinlichkeit einer "Ja" -Reaktion hat, was auch immer es sein mag.

Obwohl dieses Beispiel, inspiriert von Randomisierte Antwort, könnte anwendbar sein auf Mikrodaten (d. H. Den Datensätze mit jeder einzelnen Antwort freigeben) schließt per Definition die differentielle Privatsphäre aus, die Mikrodata -Freisetzungen ausschließen und nur für Abfragen anwendbar sind (d. H. Die aggregierenden individuellen Antworten in ein Ergebnis), da dies die Anforderungen verletzt, insbesondere die plausible Verweigerung, an der ein Subjekt teilgenommen hat, an der ein Subjekt teilgenommen hat, an dem ein Subjekt teilgenommen hat oder nicht.[15][16]

Stabile Transformationen

Eine Transformation ist -Stabil, wenn die Hamming -Entfernung zwischen und ist höchstens -Times den Hamming -Abstand zwischen und Für zwei beliebige Datenbanken . Satz 2 in [10] behauptet, dass, wenn es einen Mechanismus gibt das ist -Differenz privat, dann der zusammengesetzte Mechanismus ist -Differenz privat.

Dies könnte auf Gruppen Privatsphäre verallgemeinert werden, da die Gruppengröße als Hamming -Entfernung angesehen werden könnte zwischen und (wo enthält die Gruppe und nicht). In diesem Fall ist -Differenz privat.

Other Vorstellungen der unterschiedlichen Privatsphäre

Da die unterschiedliche Privatsphäre für einige Anwendungen als zu stark oder schwach angesehen wird, wurden viele Versionen davon vorgeschlagen.[17] Die am weitesten verbreitete Relaxation ist (ε, δ) -Differenz-Privatsphäre,[18] Dies schwächt die Definition, indem eine zusätzliche kleine δ -Dichte der Wahrscheinlichkeit ermöglicht wird, auf der die Obergrenze ε nicht gilt.

Einführung differenzierter Privatsphäre in realen Anwendungen

Bisher sind einige Verwendungen der unterschiedlichen Privatsphäre in der Praxis bekannt:

  • 2008: US -Volkszählungsbüro, um Pendelmuster zu zeigen.[19]
  • 2014: Google's Rappor für Telemetrie wie Lernstatistiken über unerwünschte Software -Entführungseinstellungen.[20][21]
  • 2015: Google, um historische Verkehrsstatistiken zu teilen.[22]
  • 2016: Apple kündigte seine Absicht an, unterschiedliche Privatsphäre zu verwenden iOS 10 Um seine zu verbessern Intelligenter persönlicher Assistent Technologie.[23]
  • 2017: Microsoft für Telemetrie in Windows.[24]
  • 2019: Privat Lens ist eine API, die unterschiedliche Privatsphäre nutzt.[25]
  • 2020: LinkedIn für Werbetreibendefragen.[26]

Überlegungen zum öffentlichen Zweck

Es gibt verschiedene Überlegungen zur öffentlichen Zwecke in Bezug auf unterschiedliche Privatsphäre, die wichtig zu berücksichtigen sind, insbesondere für politische Entscheidungsträger und politisch ausgerichtete Zielgruppen, die an den sozialen Möglichkeiten und Risiken der Technologie interessiert sind:[27]

  • Datendienstprogramm und Genauigkeit. Das Hauptanliegen bei der unterschiedlichen Privatsphäre ist der Kompromiss zwischen Datennutzung und individueller Privatsphäre. Wenn der Datenschutzverlustparameter für den Nutzen eingestellt ist, werden die Datenschutzvorteile gesenkt (weniger „Rauschen“ wird in das System injiziert). Wenn der Parameter für den Datenschutzverlust so eingestellt ist, dass die Genauigkeit und der Nutzen des Datensatzes gesenkt werden (mehr „Rauschen“ in das System injiziert werden). Für die politischen Entscheidungsträger ist es wichtig, die Kompromisse der unterschiedlichen Privatsphäre zu berücksichtigen, um angemessene Best Practices und Standards für die Verwendung dieser Praxis für Datenschutzzubehör zu setzen, insbesondere unter Berücksichtigung der Vielfalt in organisatorischen Anwendungsfällen. Es ist jedoch erwähnenswert, dass eine verminderte Genauigkeit und Nützlichkeit bei allen statistischen Offenlegungsbeschränkungsmethoden ein häufiges Problem ist und nicht nur für die unterschiedliche Privatsphäre eindeutig ist. Einzigartig ist jedoch, wie politische Entscheidungsträger, Forscher und Implementierer die Minderung der durch diesen Kompromiss dargestellten Risiken in Betracht ziehen können.
  • Datenschutz und Sicherheit. Die differentielle Privatsphäre liefert ein quantifiziertes Maß für den Datenschutzverlust und eine Obergrenze und ermöglicht es den Kuratoren, den expliziten Kompromiss zwischen Privatsphäre und Genauigkeit zu wählen. Es ist robust bis noch unbekannte Datenschutzangriffe. Es fördert jedoch eine größere Datenaustausch, die das Privatsphärerisiko erhöht. Die unterschiedliche Privatsphäre impliziert, dass die Privatsphäre geschützt ist. Dies hängt jedoch sehr vom gewählten Datenschutzverlust -Parameter ab und kann stattdessen zu einem falschen Sicherheitsgefühl führen. Obwohl es gegen unvorhergesehene zukünftige Datenschutzangriffe robust ist, kann eine Gegenmaßnahme entworfen werden, die wir nicht vorhersagen können.

Siehe auch

Verweise

  1. ^ a b c Kalibrieren von Rauschen zur Empfindlichkeit in der privaten Datenanalyse von Cynthia Dwork, Frank McSherry, Kobbi Nissim, Adam Smith. In Theory of Cryptography Conference (TCC), Springer, 2006. doi:10.1007/11681878_14. Das Vollversion Erscheint in Journal of Privacy and Confidentity, 7 (3), 17-51. doi:10.29012/jpc.v7i3.405
  2. ^ Dalenius, Tore (1977). "Auf dem Weg zu einer Methodik zur statistischen Offenlegungskontrolle" (PDF). Statistik Tidskrift. 15.
  3. ^ Dorothy E. Denning; Peter J. Denning; Mayer D. Schwartz (März 1978). "Der Tracker: Eine Bedrohung für die statistische Datenbanksicherheit" (PDF). 4 (1): 76–96. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  4. ^ Irit Dinur und Kobbi Nissim. 2003. Enthüllung von Informationen und bei der Erhaltung der Privatsphäre. In Proceedings des 2-Sekunden-ACM-Sigmod-Sigact-Sigart-Symposiums über Prinzipien von Datenbanksystemen (Pods '03). ACM, New York, NY, USA, 202–210. doi:10.1145/773153.773173
  5. ^ "TCC Test-of-Time Award".
  6. ^ "2017 Gödel Prize".
  7. ^ Hilton, Michael. "Differential Privatsphäre: Eine historische Umfrage". S2CID 16861132. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  8. ^ Dwork, Cynthia (2008-04-25). "Differentiale Privatsphäre: Eine Umfrage über Ergebnisse". In Agrawal, Manindra; Du, Dingzhu; Duan, Zhenhua; Li, Angsheng (Hrsg.). Theorie und Anwendungen von Berechnungsmodellen. Vorlesungsnotizen in Informatik. Vol. 4978. Springer Berlin Heidelberg. S. 1–19. doi:10.1007/978-3-540-79228-4_1. ISBN 9783540792277.
  9. ^ Die algorithmischen Grundlagen der unterschiedlichen Privatsphäre von Cynthia Dwork und Aaron Roth. Grundlagen und Trends in der theoretischen Informatik. Vol. 9, nein. 3–4, S. 211-407, August 2014. doi:10.1561/0400000042
  10. ^ a b c Datenschutzintegrierte Abfragen: Eine erweiterbare Plattform für Datenschutzdatenanalysen Von Frank D. McSherry. In Proceedings der 35. Sigmod Internationalen Konferenz zum Management von Daten (SIGMOD), 2009. doi:10.1145/1559845.1559850
  11. ^ a b Differentielle Privatsphäre von Cynthia Dwork, Internationales Kolloquium über Automaten, Sprachen und Programmierung (ICICP) 2006, p. 1–12. doi:10.1007/11787006_1
  12. ^ F.McSherry und K.Talwar. Mechasim -Design durch unterschiedliche Privatsphäre. Verfahren des 48. jährlichen Symposiums der Fundamente der Informatik, 2007.
  13. ^ Christos Dimitrakakis, Blaine Nelson, Aikaterini Mitrokotsa, Benjamin Rubinstein. Robuste und private Bayes'sche Inferenz. Algorithmische Lerntheorie 2014
  14. ^ Warner, S. L. (März 1965). "Randomisierte Antwort: Eine Umfrage -Technik zur Beseitigung ausweichender Antwortverzerrung". Zeitschrift der American Statistical Association. Taylor & Francis. 60 (309): 63–69. doi:10.1080/01621459.1965.10480775. JStor 2283137. PMID 12261830.
  15. ^ Dwork, Cynthia. "Eine feste Grundlage für private Datenanalysen." Kommunikation des ACM 54.1 (2011): 86–95, siehe oben, Anmerkung 19, Seite 91.
  16. ^ Bambauer, Jane, Krishnamurty Muralidhar und Rathindra Sarathy. "Fool's Gold: Eine illustrierte Kritik der unterschiedlichen Privatsphäre." Vand. J. Ent. & Technik. L. 16 (2013): 701.
  17. ^ Sok: Differential Privates Von Damien Desfontaines, Balázs Pejó. 2019.
  18. ^ Dwork, Cynthia, Krishnaram Kenthapadi, Frank McSherry, Ilya Mironov und Moni Naor. "Unsere Daten selbst: Privatsphäre über verteilte Rauschgenerierung." In Fortschritten in Cryptology-Eurocrypt 2006, S. 486–503. Springer Berlin Heidelberg, 2006.
  19. ^ Ashwin Machanavajjhala, Daniel Kifer, John M. Abowd, Johannes Gehrke und Lars Vilhuber. "Privatsphäre: Theorie trifft die Praxis auf der Karte". In Proceedings der 24. Internationalen Konferenz über Data Engineering, ICDE) 2008.
  20. ^ Úlfar Erlingsson, Vasyl Pihur, Aleksandra Korolova. "Rappor: Randomisierte, aggregierbare Datenschutzbestimmungen ordinaler Reaktion". In Proceedings der 21. ACM -Konferenz über Computer- und Kommunikationssicherheit (CCS), 2014. doi:10.1145/2660267.2660348
  21. ^ Google/Rappor, Github, 2021-07-15
  22. ^ Bekämpfung der städtischen Mobilität mit Technologie Von Andrew Eland. Google Policy Europe Blog, 18. November 2015.
  23. ^ "Apple - Drücken Sie Info - Apple Previews iOS 10, die größte iOS -Veröffentlichung aller Zeiten". Apfel. Abgerufen 16. Juni 2016.
  24. ^ Sammeln von Telemetriedaten privat Von Bolin Ding, Jana Kulkarni, Sergey Yekhanin. NIPS 2017.
  25. ^ "Privat -Objektiv". Abgerufen 20. Februar 2018.
  26. ^ LinkedIns Publikum Engagements API: Ein Datenschutzdatenanalysesystem im Maßstab Von Ryan Rogers, Subbu Subramaniam, Sean Peng, David Durfee, Seunghyun Lee, Santosh Kumar Kancha, Shraddha Sahay, Parvez Ahammad. ARXIV: 2002.05839.
  27. ^ "Technologie -Factsheet: Differentiale Privatsphäre". Belerner Zentrum für Wissenschaft und internationale Angelegenheiten. Abgerufen 2021-04-12.

Weitere Lektüre

Externe Links