論文の概要: Privacy-Preserving Communication-Efficient Federated Multi-Armed Bandits
- arxiv url: http://arxiv.org/abs/2111.01570v1
- Date: Tue, 2 Nov 2021 12:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 18:31:04.910007
- Title: Privacy-Preserving Communication-Efficient Federated Multi-Armed Bandits
- Title(参考訳): プライバシー保護型通信効率の良いフェデレーションマルチアーマッドバンド
- Authors: Tan Li, Linqi Song
- Abstract要約: 通信ボトルネックとデータプライバシは、連邦化された多武装バンディット(MAB)問題において2つの重要な問題である。
このような問題に対して,プライバシ保存型通信効率アルゴリズムを設計し,後悔の観点から,プライバシ,コミュニケーション,学習性能の相互作用について検討する。
- 参考スコア(独自算出の注目度): 17.039484057126337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Communication bottleneck and data privacy are two critical concerns in
federated multi-armed bandit (MAB) problems, such as situations in
decision-making and recommendations of connected vehicles via wireless. In this
paper, we design the privacy-preserving communication-efficient algorithm in
such problems and study the interactions among privacy, communication and
learning performance in terms of the regret. To be specific, we design
privacy-preserving learning algorithms and communication protocols and derive
the learning regret when networked private agents are performing online bandit
learning in a master-worker, a decentralized and a hybrid structure. Our bandit
learning algorithms are based on epoch-wise sub-optimal arm eliminations at
each agent and agents exchange learning knowledge with the server/each other at
the end of each epoch. Furthermore, we adopt the differential privacy (DP)
approach to protect the data privacy at each agent when exchanging information;
and we curtail communication costs by making less frequent communications with
fewer agents participation. By analyzing the regret of our proposed algorithmic
framework in the master-worker, decentralized and hybrid structures, we
theoretically show tradeoffs between regret and communication costs/privacy.
Finally, we empirically show these trade-offs which are consistent with our
theoretical analysis.
- Abstract(参考訳): 通信ボトルネックとデータプライバシは、意思決定の状況や無線経由のコネクテッドカーの推奨など、連合型多武装バンディット(MAB)問題における2つの重要な問題である。
本稿では,このような問題において,プライバシ保全型コミュニケーション効率のよいアルゴリズムを設計し,プライバシ,コミュニケーション,学習性能の相互作用を後悔の観点から検討する。
具体的には、プライバシ保護学習アルゴリズムと通信プロトコルを設計し、ネットワーク化されたプライベートエージェントがマスターワーカー、分散化およびハイブリッド構造でオンラインバンディット学習を行う際の学習後悔を導出する。
我々の帯域学習アルゴリズムは、各エージェントにおけるエポックワイズ・サブ最適アームの除去に基づいており、各エージェントは、各エポックの最後にサーバと学習知識を交換する。
さらに、情報交換時に各エージェントのデータプライバシを保護するために差分プライバシ(dp)アプローチを採用し、より少ないエージェントによる頻繁な通信を少なくすることで通信コストを削減します。
主作業者,分散構造,ハイブリッド構造において提案するアルゴリズムフレームワークの後悔を分析することで,後悔と通信コスト/プライバシーのトレードオフを理論的に示す。
最後に、理論分析と一致するこれらのトレードオフを実証的に示します。
関連論文リスト
- Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - Group Decision-Making among Privacy-Aware Agents [2.4401219403555814]
個人のプライバシーを維持し、効果的な社会学習を可能にすることはどちらも重要なデシダータであるが、基本的には互いに相反しているように見える。
差分プライバシー(DP)に基づく厳密な統計的保証を用いて情報漏洩を制御する。
その結果,グループ意思決定の結果の質,学習精度,通信コスト,エージェントが備えているプライバシー保護の水準の両面でのトレードオフの性質が明らかになった。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - On Differentially Private Federated Linear Contextual Bandits [9.51828574518325]
我々は、差分プライバシーの下で、クロスサイロフェデレーション線形文脈帯域問題(LCB)を考える。
現状の3つの課題は, (i) 主張されたプライバシ保護の失敗, (ii) ノイズの計算ミスによる不正確な後悔,である。
我々は,信頼されたサーバを使わずに,アルゴリズムがほぼ最適であることを示す。
論文 参考訳(メタデータ) (2023-02-27T16:47:49Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Differentially Private Federated Combinatorial Bandits with Constraints [8.390356883529172]
本研究は, 品質制約を維持しつつ, 類似のバンディット問題を解決するために, 同時に作業するエージェント群について検討する。
我々のアルゴリズムは、品質のしきい値と有意義なプライバシー保証を保ちながら、後悔の観点から改善することを示している。
論文 参考訳(メタデータ) (2022-06-27T11:14:28Z) - Secure Distributed/Federated Learning: Prediction-Privacy Trade-Off for
Multi-Agent System [4.190359509901197]
分散学習(DLとFL)フレームワーク内で推論を行うビッグデータ時代において、中央サーバは大量のデータを処理する必要がある。
分散コンピューティングトポロジを考えると、プライバシは第一級の関心事になっている。
本研究では,テキストプライバシを意識したサーバを,エージェントごとの情報処理制約を考慮したマルチエージェント代入問題に適用する。
論文 参考訳(メタデータ) (2022-04-24T19:19:20Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private Multi-Agent Planning for Logistic-like Problems [70.3758644421664]
本稿では,ロジスティックな問題に対する強力なプライバシ保護計画手法を提案する。
1) 強いプライバシー、完全性、効率性、2) 通信制約に対処する2つの課題に対処する。
我々の知る限り、マルチエージェントプランニングの分野に差分プライバシーを適用したのは、この論文が初めてである。
論文 参考訳(メタデータ) (2020-08-16T03:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。