論文の概要: On Differentially Private Federated Linear Contextual Bandits
- arxiv url: http://arxiv.org/abs/2302.13945v1
- Date: Mon, 27 Feb 2023 16:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 14:53:33.909132
- Title: On Differentially Private Federated Linear Contextual Bandits
- Title(参考訳): 微分プライベートな線形コンテキスト帯域について
- Authors: Xingyu Zhou and Sayak Ray Chowdhury
- Abstract要約: 我々は、差分プライバシーの下で、クロスサイロフェデレーション線形文脈帯域問題(LCB)を考える。
この設定では、複数のサイロやエージェントがローカルユーザと対話し、中央サーバを介して通信し、コラボレーションを実現する。
我々は,信頼されたサーバを使わずに,アルゴリズムがほぼ最適であることを示す。
- 参考スコア(独自算出の注目度): 9.51828574518325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider cross-silo federated linear contextual bandit (LCB) problem under
differential privacy. In this setting, multiple silos or agents interact with
the local users and communicate via a central server to realize collaboration
while without sacrificing each user's privacy. We identify two issues in the
state-of-the-art algorithm of \cite{dubey2020differentially}: (i) failure of
claimed privacy protection and (ii) noise miscalculation in regret bound. To
resolve these issues, we take a two-step principled approach. First, we design
an algorithmic framework consisting of a generic federated LCB algorithm and
flexible privacy protocols. Then, leveraging the proposed framework, we study
federated LCBs under two different privacy constraints. We first establish
privacy and regret guarantees under silo-level local differential privacy,
which fix the issues present in state-of-the-art algorithm. To further improve
the regret performance, we next consider shuffle model of differential privacy,
under which we show that our algorithm can achieve nearly ``optimal'' regret
without a trusted server. We accomplish this via two different schemes -- one
relies on a new result on privacy amplification via shuffling for DP mechanisms
and another one leverages the integration of a shuffle protocol for vector sum
into the tree-based mechanism, both of which might be of independent interest.
Finally, we support our theoretical results with numerical evaluations over
contextual bandit instances generated from both synthetic and real-life data.
- Abstract(参考訳): 我々は、差分プライバシーの下で、クロスサイロフェデレーション線形文脈帯域問題(LCB)を考える。
この設定では、複数のサイロまたはエージェントがローカルユーザと対話し、中央サーバを介して通信し、各ユーザのプライバシを犠牲にすることなくコラボレーションを実現する。
我々は, \cite{dubey2020differentially} の最先端アルゴリズムにおける2つの問題を特定する。
(i)主張されたプライバシー保護の失敗と
(ii)後悔に縛られた音の誤算
これらの問題を解決するために、我々は2段階の原則的アプローチをとる。
まず,汎用的なLCBアルゴリズムとフレキシブルプライバシプロトコルからなるアルゴリズムフレームワークを設計する。
そこで,提案手法を応用し,2つの異なるプライバシー制約の下でフェデレートされたLCBについて検討した。
私たちはまず、サイロレベルのローカル差分プライバシーの下で、プライバシーと後悔の保証を確立します。
さらに後悔のパフォーマンスを向上させるため,我々は次に差分プライバシーのシャッフルモデルを検討し,信頼されたサーバを使わずに,アルゴリズムがほぼ‘オプティマイズ’の後悔を実現できることを示す。
これを2つの異なるスキームで実現します - 1つはDPメカニズムのシャッフルによるプライバシの増幅による新たな結果に依存し、もう1つは、ベクトル和のためのシャッフルプロトコルをツリーベースのメカニズムに統合したものです。
最後に,合成データと実データの両方から生成されたコンテキストバンディットインスタンス上での数値評価を行い,理論結果を裏付ける。
関連論文リスト
- Federated Cubic Regularized Newton Learning with Sparsification-amplified Differential Privacy [10.396575601912673]
そこで我々は,DP-FCRN (differially Private Federated Cubic Regularized Newton) というフェデレーション学習アルゴリズムを導入する。
2次手法を活用することにより,本アルゴリズムは1次手法に比べてイテレーションの複雑さを小さくする。
また、プライバシーを確保するために、局所的な計算中にノイズの摂動も取り入れる。
論文 参考訳(メタデータ) (2024-08-08T08:48:54Z) - Deciphering the Interplay between Local Differential Privacy, Average Bayesian Privacy, and Maximum Bayesian Privacy [5.622065847054885]
我々はベイジアン・プライバシを導入し、LDPとベイジアン・プライバシ・トレードオフに関する新たな洞察を公表した。
私たちの研究は、将来の経験的探索の基盤となるだけでなく、プライバシー保護アルゴリズムの設計を促進することを約束しています。
論文 参考訳(メタデータ) (2024-03-25T10:06:45Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Concentrated Differential Privacy for Bandits [11.086440815804227]
本稿では,信頼性の高い集中型意思決定者による盗賊の識別プライバシー(DP)の理解に寄与する。
本稿では,AdaC-UCB,AdaC-GOPE,AdaC-OFULの3つのプライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-01T16:08:00Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Topology-aware Differential Privacy for Decentralized Image
Classification [81.2202290003513]
Top-DPは、分散画像分類システムの差分プライバシー保護を最適化するための新しいソリューションである。
我々は、分散化された通信トポロジのユニークな特徴を活用し、ノイズスケールを小さくし、モデルのユーザビリティを向上させる。
論文 参考訳(メタデータ) (2020-06-14T06:42:21Z) - Differentially Private k-Means Clustering with Guaranteed Convergence [5.335316436366718]
反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学習するのに役立ちます。
敵は、背景知識によって個人のプライバシーを推測することができる。
このような推論攻撃に対して個人のプライバシを保護するため、反復クラスタリングアルゴリズムの差分プライバシー(DP)を広く研究している。
論文 参考訳(メタデータ) (2020-02-03T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。