論文の概要: Secure Distributed/Federated Learning: Prediction-Privacy Trade-Off for
Multi-Agent System
- arxiv url: http://arxiv.org/abs/2205.04855v1
- Date: Sun, 24 Apr 2022 19:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 01:59:37.967906
- Title: Secure Distributed/Federated Learning: Prediction-Privacy Trade-Off for
Multi-Agent System
- Title(参考訳): セキュアな分散/フェデレーション学習:マルチエージェントシステムのための予測・生産性トレードオフ
- Authors: Mohamed Ridha Znaidi, Gaurav Gupta, Paul Bogdan
- Abstract要約: 分散学習(DLとFL)フレームワーク内で推論を行うビッグデータ時代において、中央サーバは大量のデータを処理する必要がある。
分散コンピューティングトポロジを考えると、プライバシは第一級の関心事になっている。
本研究では,テキストプライバシを意識したサーバを,エージェントごとの情報処理制約を考慮したマルチエージェント代入問題に適用する。
- 参考スコア(独自算出の注目度): 4.190359509901197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized learning is an efficient emerging paradigm for boosting the
computing capability of multiple bounded computing agents. In the big data era,
performing inference within the distributed and federated learning (DL and FL)
frameworks, the central server needs to process a large amount of data while
relying on various agents to perform multiple distributed training tasks.
Considering the decentralized computing topology, privacy has become a
first-class concern. Moreover, assuming limited information processing
capability for the agents calls for a sophisticated \textit{privacy-preserving
decentralization} that ensures efficient computation. Towards this end, we
study the \textit{privacy-aware server to multi-agent assignment} problem
subject to information processing constraints associated with each agent, while
maintaining the privacy and assuring learning informative messages received by
agents about a global terminal through the distributed private federated
learning (DPFL) approach. To find a decentralized scheme for a two-agent
system, we formulate an optimization problem that balances privacy and
accuracy, taking into account the quality of compression constraints associated
with each agent. We propose an iterative converging algorithm by alternating
over self-consistent equations. We also numerically evaluate the proposed
solution to show the privacy-prediction trade-off and demonstrate the efficacy
of the novel approach in ensuring privacy in DL and FL.
- Abstract(参考訳): 分散学習は、複数の有界コンピューティングエージェントの計算能力を高めるための効率的な新興パラダイムである。
分散および連合学習(dlおよびfl)フレームワーク内で推論を実行するビッグデータ時代において、中央サーバは、複数の分散トレーニングタスクを実行するためにさまざまなエージェントに依存しながら、大量のデータを処理する必要がある。
分散コンピューティングトポロジを考えると、プライバシは第一級の関心事になっている。
さらに、エージェントの限られた情報処理能力を仮定すると、効率的な計算を保証する高度な \textit{privacy-preserving decentralization} が要求される。
この目的に向けて,分散プライベートフェデレーション学習(dpfl)アプローチによるグローバル端末に関するエージェントが受信した情報メッセージを,プライバシを保ちながら,各エージェントに関連する情報処理制約の対象となる問題である \textit{privacy-aware server to multi-agent assignment} について検討する。
2エージェントシステムの分散化スキームを見つけるために,各エージェントの圧縮制約の質を考慮して,プライバシと精度のバランスをとる最適化問題を定式化する。
自己整合方程式を交互に解く反復収束アルゴリズムを提案する。
また,プライバシー保護のトレードオフを示すための提案手法を数値的に評価し,DLとFLのプライバシー確保に新たなアプローチの有効性を示す。
関連論文リスト
- Lancelot: Towards Efficient and Privacy-Preserving Byzantine-Robust Federated Learning within Fully Homomorphic Encryption [10.685816010576918]
我々は,データプライバシを保ちながら悪意あるクライアント活動を保護するために,完全同型暗号化(FHE)を利用する,革新的で計算効率のよいBRFLフレームワークであるLancelotを提案する。
医用画像診断や広く使われている公開画像データセットを含む大規模なテストでは、Lancelotが既存の手法を著しく上回り、データのプライバシを維持しながら、処理速度を20倍以上に向上させています。
論文 参考訳(メタデータ) (2024-08-12T14:48:25Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - DePAint: A Decentralized Safe Multi-Agent Reinforcement Learning Algorithm considering Peak and Average Constraints [1.1549572298362787]
本稿では,この問題を解決するために,モーメントに基づく分散勾配法DePaintを提案する。
これは、ピーク制約と平均制約の両方を考慮した、プライバシ保存で完全に分散化されたマルチエージェント強化学習アルゴリズムとしては初めてのものである。
論文 参考訳(メタデータ) (2023-10-22T16:36:03Z) - Privacy-Engineered Value Decomposition Networks for Cooperative
Multi-Agent Reinforcement Learning [19.504842607744457]
協力的マルチエージェント強化学習では、エージェントのチームは、指定されたタスクを学ぶために、チームの長期的な報酬を共同で最適化する必要がある。
プライバシエンジニアリングされた価値分解ネットワーク(PE-VDN)は、エージェントの環境相互作用データの機密性を保護しながら、マルチエージェント調整をモデル化する。
我々は,StarCraft Multi-Agent Competition (SMAC) にPE-VDNを実装し,バニラVDNの勝利率の80%を達成することを示す。
論文 参考訳(メタデータ) (2023-09-13T02:50:57Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Cooperative Multi-Agent Actor-Critic for Privacy-Preserving Load
Scheduling in a Residential Microgrid [71.17179010567123]
本稿では,分散型アクターを分散批評家に教育する,プライバシ保護型マルチエージェントアクター批判フレームワークを提案する。
提案手法は,家庭のプライバシを保護しつつ,暗黙的にマルチエージェントの信用代入メカニズムを学習する。
論文 参考訳(メタデータ) (2021-10-06T14:05:26Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。