論文の概要: What Are the Chances? Explaining the Epsilon Parameter in Differential
Privacy
- arxiv url: http://arxiv.org/abs/2303.00738v1
- Date: Wed, 1 Mar 2023 18:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 13:34:52.260437
- Title: What Are the Chances? Explaining the Epsilon Parameter in Differential
Privacy
- Title(参考訳): チャンスとは何か?
微分プライバシーにおけるepsilonパラメータの説明
- Authors: Priyanka Nanayakkara, Mary Anne Smart, Rachel Cummings, Gabriel
Kaptchuk, Elissa Redmiles
- Abstract要約: 差分プライバシー(英: Differential privacy、DP)とは、政府や産業にまたがる数学的プライバシーの概念である。
本研究では,エンドユーザに確率的DP保証を伝達する3つの手法を開発した。
確率に基づく説明法は出力に基づく方法よりも効果的であることがわかった。
- 参考スコア(独自算出の注目度): 17.201862983773662
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Differential privacy (DP) is a mathematical privacy notion increasingly
deployed across government and industry. With DP, privacy protections are
probabilistic: they are bounded by the privacy budget parameter, $\epsilon$.
Prior work in health and computational science finds that people struggle to
reason about probabilistic risks. Yet, communicating the implications of
$\epsilon$ to people contributing their data is vital to avoiding privacy
theater -- presenting meaningless privacy protection as meaningful -- and
empowering more informed data-sharing decisions. Drawing on best practices in
risk communication and usability, we develop three methods to convey
probabilistic DP guarantees to end users: two that communicate odds and one
offering concrete examples of DP outputs.
We quantitatively evaluate these explanation methods in a vignette survey
study ($n=963$) via three metrics: objective risk comprehension, subjective
privacy understanding of DP guarantees, and self-efficacy. We find that
odds-based explanation methods are more effective than (1) output-based methods
and (2) state-of-the-art approaches that gloss over information about
$\epsilon$. Further, when offered information about $\epsilon$, respondents are
more willing to share their data than when presented with a state-of-the-art DP
explanation; this willingness to share is sensitive to $\epsilon$ values: as
privacy protections weaken, respondents are less likely to share data.
- Abstract(参考訳): 差分プライバシー(英: Differential privacy、DP)とは、政府や産業にまたがる数学的プライバシーの概念である。
dp では、プライバシ保護は確率的であり、プライバシ予算パラメータ $\epsilon$ によって制限される。
健康と計算科学の先行研究は、人々が確率的リスクについて理屈に苦しむことを発見した。
しかし、データに貢献する人々に$\epsilon$という意味を伝えることは、無意味なプライバシー保護を意味のあるものとして示すプライバシシアターの回避と、よりインフォームドなデータ共有決定の権限を与える上で不可欠である。
リスクコミュニケーションとユーザビリティのベストプラクティスに基づいて,確率的DP保証をエンドユーザーに伝達する3つの手法を開発した。
対象リスク理解,DP保証の主観的プライバシ理解,自己効力感の3つの指標を用いて,これらの説明方法を定量的に評価した。
その結果,オッズに基づく説明手法は,(1)出力に基づく手法や(2)$\epsilon$に関する情報を収集する最先端の手法よりも有効であることが判明した。
さらに、$\epsilon$に関する情報を提供する場合、回答者は、最先端のDP説明で提示されるよりも、自分のデータを積極的に共有する。
関連論文リスト
- From Theory to Comprehension: A Comparative Study of Differential Privacy and $k$-Anonymity [2.66269503676104]
差分プライバシー機構によって提供されるプライバシー保護のユーザによる理解について検討する。
本研究は,プライバシリスクモデルにより,参加者の異なるプライバシ保護に対する理解度が向上することが示唆された。
我々の結果は、$k$匿名性によって提供されるプライバシー保護がより理解しやすいことを確認する。
論文 参考訳(メタデータ) (2024-04-05T10:30:26Z) - Why Does Differential Privacy with Large Epsilon Defend Against
Practical Membership Inference Attacks? [19.21246519924815]
小さめのプライバシーパラメータ$epsilon$, $epsilon$-differential privacy (DP)は、最悪のケースを保証する。
既存のDP理論では経験的発見は説明できない。
実用会員プライバシ(PMP)という新しいプライバシー概念を提案する。
論文 参考訳(メタデータ) (2024-02-14T19:31:45Z) - Privacy Constrained Fairness Estimation for Decision Trees [2.9906966931843093]
任意のAIモデルの公平さを測定するには、データセット内の個人の敏感な属性が必要である。
プライバシ・アウェア・フェアネス・オブ・ルール(PAFER)と呼ばれる新しい手法を提案する。
提案手法は,ラプラシアン機構を用いて,データセット内の個人のプライバシーを高い確度で保証しつつ,低い誤差でSPを推定できることを示す。
論文 参考訳(メタデータ) (2023-12-13T14:54:48Z) - To share or not to share: What risks would laypeople accept to give sensitive data to differentially-private NLP systems? [14.586789605230672]
私たちは、$varepsilon$の値を決定することは、研究者やシステム開発者の手だけにすべきではない、と論じています。
我々は,不確実な意思決定状況における人々の行動を研究するために,行動実験(311名)を実施している。
論文 参考訳(メタデータ) (2023-07-13T12:06:48Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - D2P-Fed: Differentially Private Federated Learning With Efficient
Communication [78.57321932088182]
本稿では,差分プライバシ(DP)と連立学習(FL)におけるコミュニケーション効率を両立させる統一手法を提案する。
特にD2P-Fedは、両方の面を扱う唯一の先行作業と比較して、より強力なプライバシ保証、より良いコンポーザビリティ、より少ない通信コストを提供します。
その結果、D2P-Fedは通信コストの3分の1を節約しつつ、モデル精度の点で最先端の4.7%から13.0%を上回っていることがわかった。
論文 参考訳(メタデータ) (2020-06-22T06:46:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。