論文の概要: Distributed Differential Privacy in Multi-Armed Bandits
- arxiv url: http://arxiv.org/abs/2206.05772v1
- Date: Sun, 12 Jun 2022 15:37:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 06:33:59.692654
- Title: Distributed Differential Privacy in Multi-Armed Bandits
- Title(参考訳): マルチアーマッドバンドにおける分散微分プライバシー
- Authors: Sayak Ray Chowdhury, Xingyu Zhou
- Abstract要約: 差分プライバシ(DP)の分散信頼モデルの下では、標準の$K$武器の盗賊問題を考える。
我々は、分散信頼モデルの下では純粋なDP保証を得ると同時に、中央信頼モデルよりも後悔を犠牲にすることを目指している。
- 参考スコア(独自算出の注目度): 9.51828574518325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the standard $K$-armed bandit problem under a distributed trust
model of differential privacy (DP), which enables to guarantee privacy without
a trustworthy server. Under this trust model, previous work largely focus on
achieving privacy using a shuffle protocol, where a batch of users data are
randomly permuted before sending to a central server. This protocol achieves
($\epsilon,\delta$) or approximate-DP guarantee by sacrificing an additional
additive $O\!\left(\!\frac{K\log T\sqrt{\log(1/\delta)}}{\epsilon}\!\right)\!$
cost in $T$-step cumulative regret. In contrast, the optimal privacy cost for
achieving a stronger ($\epsilon,0$) or pure-DP guarantee under the widely used
central trust model is only $\Theta\!\left(\!\frac{K\log
T}{\epsilon}\!\right)\!$, where, however, a trusted server is required. In this
work, we aim to obtain a pure-DP guarantee under distributed trust model while
sacrificing no more regret than that under central trust model. We achieve this
by designing a generic bandit algorithm based on successive arm elimination,
where privacy is guaranteed by corrupting rewards with an equivalent discrete
Laplace noise ensured by a secure computation protocol. We also show that our
algorithm, when instantiated with Skellam noise and the secure protocol,
ensures \emph{R\'{e}nyi differential privacy} -- a stronger notion than
approximate DP -- under distributed trust model with a privacy cost of
$O\!\left(\!\frac{K\sqrt{\log T}}{\epsilon}\!\right)\!$.
- Abstract(参考訳): 我々は、分散信頼モデルである差分プライバシ(DP)の下で、標準の$K$武器の盗聴問題を考慮し、信頼できるサーバを使わずにプライバシを保証する。
この信頼モデルの下では、以前の作業はシャッフルプロトコルによるプライバシの達成に重点を置いており、ユーザデータのバッチは中央サーバに送信する前にランダムに置換される。
このプロトコルは、追加の$O\!を犠牲にして($\epsilon,\delta$)または近似DP保証を達成する。
\left(\!
\frac{K\log T\sqrt{\log(1/\delta)}}{\epsilon}\!
右!
$$T$-step 累積的後悔。
対照的に、より強力な(\epsilon,0$)あるいは純粋なDP保証を達成するための最適なプライバシーコストは、広く使用されている中央信頼モデルでのみ$\Theta\!
\left(\!
\frac{K\log T}{\epsilon}\!
右!
ただし、信頼されたサーバーが必要である。
本研究では,分散信頼モデルに基づく純DP保証を実現するとともに,中央信頼モデルによる完全DP保証を犠牲にすることを目的とする。
我々は、連続したアームの除去に基づく一般的なバンディットアルゴリズムを設計し、セキュアな計算プロトコルによって保証された等価な離散Laplaceノイズで報酬を損なうことによりプライバシーを保証する。
また、我々のアルゴリズムは、スケラムノイズとセキュアなプロトコルでインスタンス化されると、プライバシーコストが$O\!という分散信頼モデルの下で、ほぼDPよりも強力な概念である 'emph{R\'{e}nyi differential privacy} を保証します。
\left(\!
英語) \frac{K\sqrt{\log T}}{\epsilon}\!
右!
$.
関連論文リスト
- No-regret Exploration in Shuffle Private Reinforcement Learning [18.142491344065046]
パーソナライズされたサービスにおけるユーザのプライバシの懸念に対処するために、差分プライバシー(DP)がエピソード強化学習(RL)に導入された。
シャッフルモデルでは,信頼されたシャッフルが中央エージェントに送信する前に,ユーザのデータをランダムに置換する。
分析の結果,アルゴリズムは集中型モデルに匹敵するほぼ最適の後悔を達成し,プライバシコストの点で局所モデルよりも大幅に優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-18T15:24:11Z) - Differential Privacy on Trust Graphs [54.55190841518906]
差分プライバシー(DP)は、各当事者がそのデータで他の当事者の(既知の)サブセットのみを信頼するマルチパーティ環境で研究する。
我々は、DPのローカルモデルよりもはるかに優れたプライバシーとユーティリティのトレードオフを持つ集約のためのDPアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-10-15T20:31:04Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Shuffle Private Linear Contextual Bandits [9.51828574518325]
シャッフル・アルゴリズム・トラスト・モデルに基づく線形文脈帯域の一般的な枠組みを提案する。
両方のインスタンス化が、ローカルモデルの精度を大幅に向上させる、後悔の保証につながることを証明します。
また, 合成データのシミュレーションにより, この後悔行動を検証する。
論文 参考訳(メタデータ) (2022-02-11T11:53:22Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Infinitely Divisible Noise in the Low Privacy Regime [9.39772079241093]
ユーザ間でデータを分散し、共有しないフェデレーション学習は、プライバシ保護機械学習に対する一般的なアプローチとして現れている。
実数値データに対して、最初の可除な無限ノイズ分布を提示し、$varepsilon$-differential privacyを実現する。
論文 参考訳(メタデータ) (2021-10-13T08:16:43Z) - Frequency Estimation Under Multiparty Differential Privacy: One-shot and
Streaming [10.952006057356714]
プライバシと通信の制約下での周波数推定の基本的問題について検討し,そのデータを$k$のパーティ間で分散する。
私たちは、ローカルディファレンシャルプライバシ(LDP)と(分散)ディファレンシャルプライバシよりも一般的なマルチパーティディファレンシャルプライバシ(MDP)のモデルを採用しています。
我々のプロトコルは、より厳密な2つの制約によって許容可能な最適性(対数因子まで)を達成する。
論文 参考訳(メタデータ) (2021-04-05T08:15:20Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。