論文の概要: From Theory to Comprehension: A Comparative Study of Differential Privacy and $k$-Anonymity
- arxiv url: http://arxiv.org/abs/2404.04006v1
- Date: Fri, 5 Apr 2024 10:30:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 16:24:44.839198
- Title: From Theory to Comprehension: A Comparative Study of Differential Privacy and $k$-Anonymity
- Title(参考訳): 理論から理解へ:差分プライバシーと$k$匿名性の比較研究
- Authors: Saskia Nuñez von Voigt, Luise Mehner, Florian Tschorsch,
- Abstract要約: 差分プライバシー機構によって提供されるプライバシー保護のユーザによる理解について検討する。
本研究は,プライバシリスクモデルにより,参加者の異なるプライバシ保護に対する理解度が向上することが示唆された。
我々の結果は、$k$匿名性によって提供されるプライバシー保護がより理解しやすいことを確認する。
- 参考スコア(独自算出の注目度): 2.66269503676104
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The notion of $\varepsilon$-differential privacy is a widely used concept of providing quantifiable privacy to individuals. However, it is unclear how to explain the level of privacy protection provided by a differential privacy mechanism with a set $\varepsilon$. In this study, we focus on users' comprehension of the privacy protection provided by a differential privacy mechanism. To do so, we study three variants of explaining the privacy protection provided by differential privacy: (1) the original mathematical definition; (2) $\varepsilon$ translated into a specific privacy risk; and (3) an explanation using the randomized response technique. We compare users' comprehension of privacy protection employing these explanatory models with their comprehension of privacy protection of $k$-anonymity as baseline comprehensibility. Our findings suggest that participants' comprehension of differential privacy protection is enhanced by the privacy risk model and the randomized response-based model. Moreover, our results confirm our intuition that privacy protection provided by $k$-anonymity is more comprehensible.
- Abstract(参考訳): $\varepsilon$-differential privacyという概念は、個人に定量プライバシーを提供するという広く使われている概念である。
しかし、差分プライバシーメカニズムによって提供されるプライバシー保護のレベルを$\varepsilon$でどのように説明するかは不明だ。
本研究では,差分プライバシー機構によって提供されるプライバシー保護のユーザによる理解に焦点を当てた。
そこで本研究では,差分プライバシーによるプライバシ保護の説明方法として,(1)元の数学的定義,(2)$\varepsilon$の特定のプライバシリスクへの変換,(3)ランダム化応答手法を用いた説明の3つのバリエーションについて検討する。
我々は,これらの説明モデルを用いたユーザによるプライバシー保護の理解と,基本的理解度として$k$匿名性のプライバシー保護の理解を比較した。
本研究は,プライバシリスクモデルとランダム化応答ベースモデルにより,参加者の差分プライバシー保護に対する理解が向上することが示唆された。
さらに、われわれの結果は、$k$匿名性によって提供されるプライバシー保護がより理解しやすいことを確認する。
関連論文リスト
- Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - A Statistical Viewpoint on Differential Privacy: Hypothesis Testing, Representation and Blackwell's Theorem [30.365274034429508]
我々は、差分プライバシーはテクストプア統計概念とみなすことができると論じる。
$f$-differential privacyは、データ分析と機械学習のプライバシー境界を分析するための統合フレームワークである。
論文 参考訳(メタデータ) (2024-09-14T23:47:22Z) - Confounding Privacy and Inverse Composition [32.85314813605347]
差分プライバシーでは、センシティブな情報がデータセットに含まれ、Pufferfishのプライバシでは、センシティブな情報がデータの配布を決定する。
我々は、差分プライバシーとPufferfishプライバシーの両方を一般化する新しいプライバシー概念(epsilon, delta$)を導入する。
論文 参考訳(メタデータ) (2024-08-21T21:45:13Z) - Models Matter: Setting Accurate Privacy Expectations for Local and Central Differential Privacy [14.40391109414476]
局所モデルと中心モデルにおける差分プライバシーの新たな説明を設計・評価する。
我々は、プライバシー栄養ラベルのスタイルにおける結果に焦点を当てた説明が、正確なプライバシー期待を設定するための有望なアプローチであることに気付きました。
論文 参考訳(メタデータ) (2024-08-16T01:21:57Z) - On Differentially Private Online Predictions [74.01773626153098]
オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
論文 参考訳(メタデータ) (2023-02-27T19:18:01Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - "I need a better description'': An Investigation Into User Expectations
For Differential Privacy [31.352325485393074]
差分プライバシーに関連するユーザのプライバシ期待について検討する。
ユーザが関心を持っているのは、差分プライバシーが保護する情報漏洩の種類だ。
差分プライバシを記述する方法が,ユーザプライバシの期待を必然的に設定していることが分かりました。
論文 参考訳(メタデータ) (2021-10-13T02:36:37Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。