論文の概要: Distributed Differential Privacy in Multi-Armed Bandits
- arxiv url: http://arxiv.org/abs/2206.05772v1
- Date: Sun, 12 Jun 2022 15:37:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 06:33:59.692654
- Title: Distributed Differential Privacy in Multi-Armed Bandits
- Title(参考訳): マルチアーマッドバンドにおける分散微分プライバシー
- Authors: Sayak Ray Chowdhury, Xingyu Zhou
- Abstract要約: 差分プライバシ(DP)の分散信頼モデルの下では、標準の$K$武器の盗賊問題を考える。
我々は、分散信頼モデルの下では純粋なDP保証を得ると同時に、中央信頼モデルよりも後悔を犠牲にすることを目指している。
- 参考スコア(独自算出の注目度): 9.51828574518325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the standard $K$-armed bandit problem under a distributed trust
model of differential privacy (DP), which enables to guarantee privacy without
a trustworthy server. Under this trust model, previous work largely focus on
achieving privacy using a shuffle protocol, where a batch of users data are
randomly permuted before sending to a central server. This protocol achieves
($\epsilon,\delta$) or approximate-DP guarantee by sacrificing an additional
additive $O\!\left(\!\frac{K\log T\sqrt{\log(1/\delta)}}{\epsilon}\!\right)\!$
cost in $T$-step cumulative regret. In contrast, the optimal privacy cost for
achieving a stronger ($\epsilon,0$) or pure-DP guarantee under the widely used
central trust model is only $\Theta\!\left(\!\frac{K\log
T}{\epsilon}\!\right)\!$, where, however, a trusted server is required. In this
work, we aim to obtain a pure-DP guarantee under distributed trust model while
sacrificing no more regret than that under central trust model. We achieve this
by designing a generic bandit algorithm based on successive arm elimination,
where privacy is guaranteed by corrupting rewards with an equivalent discrete
Laplace noise ensured by a secure computation protocol. We also show that our
algorithm, when instantiated with Skellam noise and the secure protocol,
ensures \emph{R\'{e}nyi differential privacy} -- a stronger notion than
approximate DP -- under distributed trust model with a privacy cost of
$O\!\left(\!\frac{K\sqrt{\log T}}{\epsilon}\!\right)\!$.
- Abstract(参考訳): 我々は、分散信頼モデルである差分プライバシ(DP)の下で、標準の$K$武器の盗聴問題を考慮し、信頼できるサーバを使わずにプライバシを保証する。
この信頼モデルの下では、以前の作業はシャッフルプロトコルによるプライバシの達成に重点を置いており、ユーザデータのバッチは中央サーバに送信する前にランダムに置換される。
このプロトコルは、追加の$O\!を犠牲にして($\epsilon,\delta$)または近似DP保証を達成する。
\left(\!
\frac{K\log T\sqrt{\log(1/\delta)}}{\epsilon}\!
右!
$$T$-step 累積的後悔。
対照的に、より強力な(\epsilon,0$)あるいは純粋なDP保証を達成するための最適なプライバシーコストは、広く使用されている中央信頼モデルでのみ$\Theta\!
\left(\!
\frac{K\log T}{\epsilon}\!
右!
ただし、信頼されたサーバーが必要である。
本研究では,分散信頼モデルに基づく純DP保証を実現するとともに,中央信頼モデルによる完全DP保証を犠牲にすることを目的とする。
我々は、連続したアームの除去に基づく一般的なバンディットアルゴリズムを設計し、セキュアな計算プロトコルによって保証された等価な離散Laplaceノイズで報酬を損なうことによりプライバシーを保証する。
また、我々のアルゴリズムは、スケラムノイズとセキュアなプロトコルでインスタンス化されると、プライバシーコストが$O\!という分散信頼モデルの下で、ほぼDPよりも強力な概念である 'emph{R\'{e}nyi differential privacy} を保証します。
\left(\!
英語) \frac{K\sqrt{\log T}}{\epsilon}\!
右!
$.
関連論文リスト
- Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Smooth Anonymity for Sparse Binary Matrices [84.60886611165573]
この作業では、スパースデータセット全体を第三者とプライベートに操作し、共有することを目的としています。
実際、差分プライバシーは、プライバシの金の標準として現れていますが、スパースデータセットの共有に関しては、主要な結果の1つとして、偏微分プライベートメカニズムが極めて弱いプライバシ保証を持つ運命にあることを証明しています。
我々は、スムーズな$k$匿名性を示し、スムーズな$k$匿名性を提供する単純なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic
Gradient Descent [73.2635854205537]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Shuffle Private Linear Contextual Bandits [9.51828574518325]
シャッフル・アルゴリズム・トラスト・モデルに基づく線形文脈帯域の一般的な枠組みを提案する。
両方のインスタンス化が、ローカルモデルの精度を大幅に向上させる、後悔の保証につながることを証明します。
また, 合成データのシミュレーションにより, この後悔行動を検証する。
論文 参考訳(メタデータ) (2022-02-11T11:53:22Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Infinitely Divisible Noise in the Low Privacy Regime [9.39772079241093]
ユーザ間でデータを分散し、共有しないフェデレーション学習は、プライバシ保護機械学習に対する一般的なアプローチとして現れている。
実数値データに対して、最初の可除な無限ノイズ分布を提示し、$varepsilon$-differential privacyを実現する。
論文 参考訳(メタデータ) (2021-10-13T08:16:43Z) - On the Renyi Differential Privacy of the Shuffle Model [25.052851351062845]
シャッフルモデルでは、各$n$クライアントはローカル差分プライベート(LDP)メカニズムを使用してレスポンスをランダム化し、信頼できないサーバは各クライアントに関連付けることなくクライアントレスポンスのランダムな置換(シャッフル)のみを受け取ります。
本稿では,シャッフルドプライバシモデルにおける一般離散局所ランダム化機構に対する最初の非自明な保証について述べる。
論文 参考訳(メタデータ) (2021-05-11T16:34:09Z) - Frequency Estimation Under Multiparty Differential Privacy: One-shot and
Streaming [10.952006057356714]
プライバシと通信の制約下での周波数推定の基本的問題について検討し,そのデータを$k$のパーティ間で分散する。
私たちは、ローカルディファレンシャルプライバシ(LDP)と(分散)ディファレンシャルプライバシよりも一般的なマルチパーティディファレンシャルプライバシ(MDP)のモデルを採用しています。
我々のプロトコルは、より厳密な2つの制約によって許容可能な最適性(対数因子まで)を達成する。
論文 参考訳(メタデータ) (2021-04-05T08:15:20Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - BUDS: Balancing Utility and Differential Privacy by Shuffling [3.618133010429131]
シャッフルやtextitBUDS によるユーティリティと差分プライバシーのバランスをとることは、クラウドソースの統計データベースへのアプローチである。
損失推定法とリスク最小化法を併用したワンホット符号化と反復シャッフル法により,新しいアルゴリズムを提案する。
バランスのとれたユーティリティとプライバシの実証テストの間、BUDSは$epsilon = 0.02$を生成します。
論文 参考訳(メタデータ) (2020-06-07T11:39:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。