論文の概要: To share or not to share: What risks would laypeople accept to give
sensitive data to differentially-private NLP systems?
- arxiv url: http://arxiv.org/abs/2307.06708v1
- Date: Thu, 13 Jul 2023 12:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 14:47:38.398785
- Title: To share or not to share: What risks would laypeople accept to give
sensitive data to differentially-private NLP systems?
- Title(参考訳): 共有するかどうか: 差別化されたNLPシステムに機密データを渡すことを受け入れるリスクは?
- Authors: Christopher Weiss, Frauke Kreuter, Ivan Habernal
- Abstract要約: 私たちは、$varepsilon$の値を決定することは、研究者やシステム開発者の手だけにすべきではない、と論じています。
我々は,不確実な意思決定状況における人々の行動を研究するために,行動実験(311名)を実施している。
- 参考スコア(独自算出の注目度): 5.946531128609942
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although the NLP community has adopted central differential privacy as a
go-to framework for privacy-preserving model training or data sharing, the
choice and interpretation of the key parameter, privacy budget $\varepsilon$
that governs the strength of privacy protection, remains largely arbitrary. We
argue that determining the $\varepsilon$ value should not be solely in the
hands of researchers or system developers, but must also take into account the
actual people who share their potentially sensitive data. In other words: Would
you share your instant messages for $\varepsilon$ of 10? We address this
research gap by designing, implementing, and conducting a behavioral experiment
(311 lay participants) to study the behavior of people in uncertain
decision-making situations with respect to privacy-threatening situations.
Framing the risk perception in terms of two realistic NLP scenarios and using a
vignette behavioral study help us determine what $\varepsilon$ thresholds would
lead lay people to be willing to share sensitive textual data - to our
knowledge, the first study of its kind.
- Abstract(参考訳): NLPコミュニティは、プライバシ保護モデルトレーニングやデータ共有のゴーツーフレームワークとして、中央微分プライバシーを採用してきたが、主要なパラメータの選択と解釈は、プライバシ保護の強みを支配するプライバシー予算$\varepsilon$である。
我々は、$\varepsilon$の値を決定することは、研究者やシステム開発者の手にあるだけでなく、潜在的に機密性の高いデータを共有する実際の人々も考慮しなければなりません。
言い換えれば、あなたのインスタントメッセージを$\varepsilon$10で共有していただけますか?
プライバシを脅かす状況に関して不確定な意思決定状況にある人々の行動を研究するために,行動実験(311名)を設計,実施,実施し,実施することで,この研究のギャップに対処する。
2つの現実的なnlpシナリオの観点でリスク認識をフレーミングし、vignetteの行動研究を使うことで、どのような$\varepsilon$しきい値が、平民が機密性の高いテキストデータを共有する意思を持つようになるかを決定することができます。
関連論文リスト
- Calibrating Practical Privacy Risks for Differentially Private Machine Learning [5.363664265121231]
モデルトレーニングにおいて、より柔軟なプライバシ予算設定を可能にするために、攻撃の成功率を下げるアプローチについて検討する。
プライバシに敏感な機能を選択的に抑制することで、アプリケーション固有のデータユーティリティを損なうことなく、低いASR値を達成できることがわかりました。
論文 参考訳(メタデータ) (2024-10-30T03:52:01Z) - From Theory to Comprehension: A Comparative Study of Differential Privacy and $k$-Anonymity [2.66269503676104]
差分プライバシー機構によって提供されるプライバシー保護のユーザによる理解について検討する。
本研究は,プライバシリスクモデルにより,参加者の異なるプライバシ保護に対する理解度が向上することが示唆された。
我々の結果は、$k$匿名性によって提供されるプライバシー保護がより理解しやすいことを確認する。
論文 参考訳(メタデータ) (2024-04-05T10:30:26Z) - What Are the Chances? Explaining the Epsilon Parameter in Differential
Privacy [17.201862983773662]
差分プライバシー(英: Differential privacy、DP)とは、政府や産業にまたがる数学的プライバシーの概念である。
本研究では,エンドユーザに確率的DP保証を伝達する3つの手法を開発した。
確率に基づく説明法は出力に基づく方法よりも効果的であることがわかった。
論文 参考訳(メタデータ) (2023-03-01T18:53:25Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Quantifying identifiability to choose and audit $\epsilon$ in
differentially private deep learning [15.294433619347082]
機械学習で差分プライバシーを使用するには、データサイエンティストがプライバシパラメータを$(epsilon,delta)$を選択する必要がある。
私たちは$(epsilon,delta)$を、トレーニングデータセット内のレコードの存在に関する差分プライバシーによって想定される相手のベイジアン後方信念にバインドに変換します。
我々は、データサイエンティストがモデルのトレーニングを監査し、経験的識別可能性スコアと経験的$(epsilon,delta)$を計算することを可能にするこの差分プライバシーの敵対の実装を策定します。
論文 参考訳(メタデータ) (2021-03-04T09:35:58Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。