論文の概要: Dif-MAML: Decentralized Multi-Agent Meta-Learning
- arxiv url: http://arxiv.org/abs/2010.02870v1
- Date: Tue, 6 Oct 2020 16:51:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:57:36.483328
- Title: Dif-MAML: Decentralized Multi-Agent Meta-Learning
- Title(参考訳): Dif-MAML:分散マルチエージェントメタラーニング
- Authors: Mert Kayaalp, Stefan Vlaski, Ali H. Sayed
- Abstract要約: 我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
- 参考スコア(独自算出の注目度): 54.39661018886268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The objective of meta-learning is to exploit the knowledge obtained from
observed tasks to improve adaptation to unseen tasks. As such, meta-learners
are able to generalize better when they are trained with a larger number of
observed tasks and with a larger amount of data per task. Given the amount of
resources that are needed, it is generally difficult to expect the tasks, their
respective data, and the necessary computational capacity to be available at a
single central location. It is more natural to encounter situations where these
resources are spread across several agents connected by some graph topology.
The formalism of meta-learning is actually well-suited to this decentralized
setting, where the learner would be able to benefit from information and
computational power spread across the agents. Motivated by this observation, in
this work, we propose a cooperative fully-decentralized multi-agent
meta-learning algorithm, referred to as Diffusion-based MAML or Dif-MAML.
Decentralized optimization algorithms are superior to centralized
implementations in terms of scalability, avoidance of communication
bottlenecks, and privacy guarantees. The work provides a detailed theoretical
analysis to show that the proposed strategy allows a collection of agents to
attain agreement at a linear rate and to converge to a stationary point of the
aggregate MAML objective even in non-convex environments. Simulation results
illustrate the theoretical findings and the superior performance relative to
the traditional non-cooperative setting.
- Abstract(参考訳): メタラーニングの目的は、観察したタスクから得られた知識を活用して、目に見えないタスクへの適応を改善することである。
そのため、メタ学習者は、より多くの観察されたタスクとタスク毎のデータ量でトレーニングされた時に、より一般化することができる。
必要なリソースの量を考えると、タスク、それぞれのデータ、必要な計算能力が単一の中央の場所で利用可能になることは一般的には困難である。
これらのリソースがいくつかのグラフトポロジーによって接続された複数のエージェントに分散される状況に遭遇するのはより自然である。
メタラーニングの形式化は、学習者がエージェント全体に広がる情報と計算能力の恩恵を受ける、この分散的な設定に実際に適しています。
そこで本研究では,拡散ベースmamlまたはdif-mamlと呼ばれる協調型完全分散マルチエージェントメタラーニングアルゴリズムを提案する。
分散最適化アルゴリズムは、スケーラビリティ、通信ボトルネックの回避、プライバシー保証の観点から、集中的な実装よりも優れている。
本研究は, 提案手法により, 非凸環境においても, エージェントの集合が線形速度で合意に達し, 集合MAML目標の定常点に収束することを示すための詳細な理論的解析を行う。
シミュレーション結果は,従来の非協力的な設定と比較して,理論的な知見と優れた性能を示す。
関連論文リスト
- DIMAT: Decentralized Iterative Merging-And-Training for Deep Learning Models [21.85879890198875]
Decentralized Iterative Merging-And-Training (DIMAT) は、新しい分散深層学習アルゴリズムである。
DIMATは, 独立・同一分散(IID)および非IIDデータを用いて, 通信オーバヘッドの低減を図ることにより, より高速かつ高い初期ゲインが得られることを示す。
このDIMATパラダイムは未来の分散学習に新たな機会を与え、疎結合な通信計算で現実世界への適応性を高める。
論文 参考訳(メタデータ) (2024-04-11T18:34:29Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Asynchronous Message-Passing and Zeroth-Order Optimization Based Distributed Learning with a Use-Case in Resource Allocation in Communication Networks [11.182443036683225]
分散学習と適応は大きな関心を集め、機械学習信号処理に広く応用されている。
本稿では、エージェントが共通のタスクに向けて協調するシナリオに焦点を当てる。
送信者として働くエージェントは、グローバルな報酬を最大化するために、それぞれのポリシーを共同で訓練する。
論文 参考訳(メタデータ) (2023-11-08T11:12:27Z) - Self-Supervised Learning via Maximum Entropy Coding [57.56570417545023]
本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-20T17:58:30Z) - Mean-Field Multi-Agent Reinforcement Learning: A Decentralized Network
Approach [6.802025156985356]
本稿では,MARLを状態ネットワークで学習するために,局所学習と分散実行というフレームワークを提案する。
鍵となる考え方は、エージェントの均質性を利用し、それらの状態に応じてそれらを再分類することであり、それによってネットワーク化されたマルコフ決定過程が定式化される。
論文 参考訳(メタデータ) (2021-08-05T16:52:36Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - Agent-Centric Representations for Multi-Agent Reinforcement Learning [12.577354830985012]
完全協調型マルチエージェント強化学習において,対象中心表現が有用であるかどうかを検討する。
具体的には、RLアルゴリズムにエージェント中心の誘導バイアスを組み込む2つの方法を検討する。
これらのアプローチをGoogle Research Football環境およびDeepMind Lab 2D上で評価します。
論文 参考訳(メタデータ) (2021-04-19T15:43:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。