論文の概要: Differentially Private Federated Combinatorial Bandits with Constraints
- arxiv url: http://arxiv.org/abs/2206.13192v2
- Date: Sun, 28 May 2023 11:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 03:58:58.441433
- Title: Differentially Private Federated Combinatorial Bandits with Constraints
- Title(参考訳): 制約付き微分的共役結合型バンディット
- Authors: Sambhav Solanki, Samhita Kanaparthy, Sankarshan Damle, Sujit Gujar
- Abstract要約: 本研究は, 品質制約を維持しつつ, 類似のバンディット問題を解決するために, 同時に作業するエージェント群について検討する。
我々のアルゴリズムは、品質のしきい値と有意義なプライバシー保証を保ちながら、後悔の観点から改善することを示している。
- 参考スコア(独自算出の注目度): 8.390356883529172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a rapid increase in the cooperative learning paradigm in online
learning settings, i.e., federated learning (FL). Unlike most FL settings,
there are many situations where the agents are competitive. Each agent would
like to learn from others, but the part of the information it shares for others
to learn from could be sensitive; thus, it desires its privacy. This work
investigates a group of agents working concurrently to solve similar
combinatorial bandit problems while maintaining quality constraints. Can these
agents collectively learn while keeping their sensitive information
confidential by employing differential privacy? We observe that communicating
can reduce the regret. However, differential privacy techniques for protecting
sensitive information makes the data noisy and may deteriorate than help to
improve regret. Hence, we note that it is essential to decide when to
communicate and what shared data to learn to strike a functional balance
between regret and privacy. For such a federated combinatorial MAB setting, we
propose a Privacy-preserving Federated Combinatorial Bandit algorithm, P-FCB.
We illustrate the efficacy of P-FCB through simulations. We further show that
our algorithm provides an improvement in terms of regret while upholding
quality threshold and meaningful privacy guarantees.
- Abstract(参考訳): オンライン学習環境,すなわちフェデレーション学習(fl)では,協調学習パラダイムが急速に向上している。
ほとんどのFL設定とは異なり、エージェントが競合する多くの状況がある。
それぞれのエージェントは、他の人から学びたいと思っているが、他の人から学ぶために共有する情報の一部は、センシティブであり、したがって、プライバシを欲しがる。
本研究は, 品質制約を維持しつつ, 類似の組合せ帯域問題を解決するために, 同時に作業するエージェント群について検討する。
これらのエージェントは、差分プライバシーを利用して機密情報を秘密にしながら、集合的に学習できるのか?
私たちはコミュニケーションが後悔を減らすことを観察する。
しかし、機密情報を保護するための差分プライバシー技術は、データを騒がしくし、後悔を改善するのに役立つほど劣化する可能性がある。
したがって、いつ通信するか、どの共有データを学習して、後悔とプライバシのバランスを取るかを決めることが不可欠である。
このような組み合わせMAB設定のために、プライバシ保存型フェデレーションコンビナート帯域幅アルゴリズムP-FCBを提案する。
シミュレーションによりp-fcbの有効性を示す。
さらに,本アルゴリズムは,品質のしきい値と有意義なプライバシー保証を保ちながら,後悔の点でも改善できることを示した。
関連論文リスト
- Group Decision-Making among Privacy-Aware Agents [2.4401219403555814]
個人のプライバシーを維持し、効果的な社会学習を可能にすることはどちらも重要なデシダータであるが、基本的には互いに相反しているように見える。
差分プライバシー(DP)に基づく厳密な統計的保証を用いて情報漏洩を制御する。
その結果,グループ意思決定の結果の質,学習精度,通信コスト,エージェントが備えているプライバシー保護の水準の両面でのトレードオフの性質が明らかになった。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - On Differentially Private Federated Linear Contextual Bandits [9.51828574518325]
我々は、差分プライバシーの下で、クロスサイロフェデレーション線形文脈帯域問題(LCB)を考える。
現状の3つの課題は, (i) 主張されたプライバシ保護の失敗, (ii) ノイズの計算ミスによる不正確な後悔,である。
我々は,信頼されたサーバを使わずに,アルゴリズムがほぼ最適であることを示す。
論文 参考訳(メタデータ) (2023-02-27T16:47:49Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Social-Aware Clustered Federated Learning with Customized Privacy Preservation [38.00035804720786]
本稿では,ソーシャル・アウェア・クラスタ・フェデレーション・ラーニングの新たな手法を提案する。
モデル更新をソーシャルグループに混ぜ合わせることで、敵はソーシャル層を組み合わせた結果のみを盗むことができるが、個人のプライバシーを盗むことはできない。
FacebookネットワークとMNIST/CIFAR-10データセットの実験は、SCFLが学習ユーティリティを効果的に強化し、ユーザの支払いを改善し、カスタマイズ可能なプライバシ保護を強制できることを検証する。
論文 参考訳(メタデータ) (2022-12-25T10:16:36Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Towards Differential Relational Privacy and its use in Question
Answering [109.4452196071872]
データセット内のエンティティ間の関係の記憶は、トレーニングされた質問応答モデルを使用する場合、プライバシの問題につながる可能性がある。
我々はこの現象を定量化し、微分プライバシー(DPRP)の定義を可能にする。
質問回答のための大規模モデルを用いた実験において,概念を解説する。
論文 参考訳(メタデータ) (2022-03-30T22:59:24Z) - Privatized Graph Federated Learning [57.14673504239551]
グラフによって連結された複数の単位からなるグラフフェデレーション学習を導入する。
グラフ準同型摂動はアルゴリズムが微分プライベートであることを保証するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-03-14T13:48:23Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Privacy-Preserving Communication-Efficient Federated Multi-Armed Bandits [17.039484057126337]
通信ボトルネックとデータプライバシは、連邦化された多武装バンディット(MAB)問題において2つの重要な問題である。
このような問題に対して,プライバシ保存型通信効率アルゴリズムを設計し,後悔の観点から,プライバシ,コミュニケーション,学習性能の相互作用について検討する。
論文 参考訳(メタデータ) (2021-11-02T12:56:12Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。