論文の概要: "I need a better description'': An Investigation Into User Expectations
For Differential Privacy
- arxiv url: http://arxiv.org/abs/2110.06452v1
- Date: Wed, 13 Oct 2021 02:36:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 14:49:53.049960
- Title: "I need a better description'': An Investigation Into User Expectations
For Differential Privacy
- Title(参考訳): 「もっと説明が必要だ」:ユーザーからの差別的プライバシーへの期待調査
- Authors: Rachel Cummings, Gabriel Kaptchuk, and Elissa M. Redmiles
- Abstract要約: 差分プライバシーに関連するユーザのプライバシ期待について検討する。
ユーザが関心を持っているのは、差分プライバシーが保護する情報漏洩の種類だ。
差分プライバシを記述する方法が,ユーザプライバシの期待を必然的に設定していることが分かりました。
- 参考スコア(独自算出の注目度): 31.352325485393074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite recent widespread deployment of differential privacy, relatively
little is known about what users think of differential privacy. In this work,
we seek to explore users' privacy expectations related to differential privacy.
Specifically, we investigate (1) whether users care about the protections
afforded by differential privacy, and (2) whether they are therefore more
willing to share their data with differentially private systems. Further, we
attempt to understand (3) users' privacy expectations of the differentially
private systems they may encounter in practice and (4) their willingness to
share data in such systems. To answer these questions, we use a series of
rigorously conducted surveys (n=2424).
We find that users care about the kinds of information leaks against which
differential privacy protects and are more willing to share their private
information when the risks of these leaks are less likely to happen.
Additionally, we find that the ways in which differential privacy is described
in-the-wild haphazardly set users' privacy expectations, which can be
misleading depending on the deployment. We synthesize our results into a
framework for understanding a user's willingness to share information with
differentially private systems, which takes into account the interaction
between the user's prior privacy concerns and how differential privacy is
described.
- Abstract(参考訳): 最近のディファレンシャルプライバシの展開にもかかわらず、ユーザがディファレンシャルプライバシをどう考えるかについては、比較的知られていない。
本研究では,差分プライバシーに関するユーザのプライバシ期待について検討する。
具体的には,(1)ユーザがディファレンシャルプライバシによって与えられる保護に関心があるか,(2)データをディファレンシャルプライベートシステムと共有する意思があるか,などについて検討する。
さらに,実際に遭遇する可能性のある差分プライベートシステムに対するユーザのプライバシの期待を理解し,(4)そのようなシステムでデータを共有する意思を明らかにする。
これらの質問に答えるために、厳密な調査(n=2424)を行っている。
ユーザーは、ディファレンシャルプライバシが保護する情報漏洩の種類に気を配っており、これらのリークのリスクが低くなる場合、プライベートな情報を共有したいと考えている。
さらに、異なるプライバシを記述する方法が、ユーザのプライバシの期待を不当に設定していることが、デプロイメントによって誤解を招く可能性があることもわかりました。
本研究では,ユーザの従来のプライバシ問題と差分プライバシ記述の相互作用を考慮し,ユーザの情報共有意欲と差分プライベートシステムとの相互作用を理解するためのフレームワークとして,この結果を合成する。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Confounding Privacy and Inverse Composition [32.85314813605347]
差分プライバシーでは、センシティブな情報がデータセットに含まれ、Pufferfishのプライバシでは、センシティブな情報がデータの配布を決定する。
我々は、差分プライバシーとPufferfishプライバシーの両方を一般化する新しいプライバシー概念(epsilon, delta$)を導入する。
論文 参考訳(メタデータ) (2024-08-21T21:45:13Z) - Models Matter: Setting Accurate Privacy Expectations for Local and Central Differential Privacy [14.40391109414476]
局所モデルと中心モデルにおける差分プライバシーの新たな説明を設計・評価する。
我々は、プライバシー栄養ラベルのスタイルにおける結果に焦点を当てた説明が、正確なプライバシー期待を設定するための有望なアプローチであることに気付きました。
論文 参考訳(メタデータ) (2024-08-16T01:21:57Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。