論文の概要: Fully Decentralized, Scalable Gaussian Processes for Multi-Agent
Federated Learning
- arxiv url: http://arxiv.org/abs/2203.02865v1
- Date: Sun, 6 Mar 2022 02:54:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 15:52:44.442797
- Title: Fully Decentralized, Scalable Gaussian Processes for Multi-Agent
Federated Learning
- Title(参考訳): マルチエージェントフェデレーション学習のための完全分散型スケーラブルガウスプロセス
- Authors: George P. Kontoudis, Daniel J. Stilwell
- Abstract要約: マルチエージェントシステムにおけるGPトレーニングと予測のための分散およびスケーラブルなアルゴリズムを提案する。
提案手法の有効性を,合成および実データに関する数値実験で示す。
- 参考スコア(独自算出の注目度): 14.353574903736343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose decentralized and scalable algorithms for Gaussian
process (GP) training and prediction in multi-agent systems. To decentralize
the implementation of GP training optimization algorithms, we employ the
alternating direction method of multipliers (ADMM). A closed-form solution of
the decentralized proximal ADMM is provided for the case of GP hyper-parameter
training with maximum likelihood estimation. Multiple aggregation techniques
for GP prediction are decentralized with the use of iterative and consensus
methods. In addition, we propose a covariance-based nearest neighbor selection
strategy that enables a subset of agents to perform predictions. The efficacy
of the proposed methods is illustrated with numerical experiments on synthetic
and real data.
- Abstract(参考訳): 本稿では,マルチエージェントシステムにおけるgaussian process (gp) トレーニングと予測のための分散・スケーラブルなアルゴリズムを提案する。
GPトレーニング最適化アルゴリズムの実装を分散化するために,乗算器の交互方向法(ADMM)を用いる。
最大推定値を持つGPハイパーパラメータトレーニングの場合, 分散化近位ADMMの閉形式解が提供される。
GP予測のための多重集約技術は反復法とコンセンサス法を用いて分散化される。
さらに,エージェントのサブセットが予測を行うことを可能にする共分散に基づく近接近傍選択戦略を提案する。
提案手法の有効性は,合成データおよび実データに対する数値実験によって示される。
関連論文リスト
- Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - On Large-Scale Multiple Testing Over Networks: An Asymptotic Approach [2.3072402651280517]
この研究は、ネットワーク上での大規模多重テストのための通信および計算効率の手法の開発に関するものである。
提案手法は,分散設定に合わせて,比例マッチングとgreedyアグリゲーションという2つの手法を提案する。
どちらの方法も、FDRとパワーの両方に収束率を与える。
論文 参考訳(メタデータ) (2022-11-29T10:10:39Z) - Towards Global Optimality in Cooperative MARL with the Transformation
And Distillation Framework [26.612749327414335]
分散実行は協調型マルチエージェント強化学習(MARL)における中核的要求である
本稿では,マルチエージェントポリシー勾配法と値分解法という,分散ポリシを用いた2つの一般的なアルゴリズムのクラスを理論的に解析する。
我々は,TAD-PPO が有限マルチエージェント MDP において最適政策学習を理論的に行うことができることを示す。
論文 参考訳(メタデータ) (2022-07-12T06:59:13Z) - Gaussian Processes to speed up MCMC with automatic
exploratory-exploitation effect [1.0742675209112622]
確率モデルをサンプリングするための2段階のメトロポリス・ハスティングスアルゴリズムを提案する。
このアプローチの主な特徴は、サンプリング中にターゲットの分布をスクラッチから学習する能力である。
論文 参考訳(メタデータ) (2021-09-28T17:43:25Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Permutation Invariant Policy Optimization for Mean-Field Multi-Agent
Reinforcement Learning: A Principled Approach [128.62787284435007]
本稿では,平均場近似ポリシ最適化(MF-PPO)アルゴリズムを提案する。
我々は,MF-PPOが収束のサブ線形速度で世界的最適政策を達成することを証明した。
特に、置換不変ニューラルアーキテクチャによって引き起こされる誘導バイアスは、MF-PPOが既存の競合より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-18T04:35:41Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - MAGMA: Inference and Prediction with Multi-Task Gaussian Processes [4.368185344922342]
タスク間で情報を共有するための共通平均プロセスを用いて,新しいマルチタスクガウスプロセス(GP)フレームワークを提案する。
私たちの全体的なアルゴリズムは textscMagma と呼ばれています(MeAn を用いた Multi tAsk Gaussian プロセスに対応しています)。
論文 参考訳(メタデータ) (2020-07-21T11:43:54Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。