論文の概要: Networked Communication for Decentralised Agents in Mean-Field Games
- arxiv url: http://arxiv.org/abs/2306.02766v1
- Date: Mon, 5 Jun 2023 10:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 15:40:37.963244
- Title: Networked Communication for Decentralised Agents in Mean-Field Games
- Title(参考訳): 平均フィールドゲームにおける分散エージェントのためのネットワーク通信
- Authors: Patrick Benjamin and Alessandro Abate
- Abstract要約: 平均フィールドゲームフレームワークにネットワーク通信を導入する。
ネットワーク化手法は,集中制御器への依存を排除しつつ,実際により高速な収束を実現することができることを示す。
- 参考スコア(独自算出の注目度): 79.46510318969308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce networked communication to the mean-field game framework. In
particular, we look at oracle-free settings where $N$ decentralised agents
learn along a single, non-episodic evolution path of the empirical system, such
as we may encounter for a large range of many-agent cooperation problems in the
real-world. We provide theoretical evidence that by spreading improved policies
through the network in a decentralised fashion, our sample guarantees are
upper-bounded by those of the purely independent-learning case. Moreover, we
show empirically that our networked method can give faster convergence in
practice, while removing the reliance on a centralised controller. We also
demonstrate that our decentralised communication architecture brings
significant benefits over both the centralised and independent alternatives in
terms of robustness and flexibility to unexpected learning failures and changes
in population size. For comparison purposes with our new architecture, we
modify recent algorithms for the centralised and independent cases to make
their practical convergence feasible: while contributing the first empirical
demonstrations of these algorithms in our setting of $N$ agents learning along
a single system evolution with only local state observability, we additionally
display the empirical benefits of our new, networked approach.
- Abstract(参考訳): 平均フィールドゲームフレームワークにネットワーク通信を導入する。
特に私たちは,実世界の多エージェント連携問題に遭遇する可能性のある,経験的システムの単一の非正規進化経路に沿って,n$の分散エージェントが学習する,oracleフリーの設定に注目しています。
ネットワークを通じて改良されたポリシーを分散的に広めることによって、サンプルの保証が純粋に独立した学習事例によって上限に達するという理論的証拠を提供する。
さらに,本手法は,集中型コントローラへの依存を取り除きながら,より高速に収束できることを実証的に示す。
また、分散化されたコミュニケーションアーキテクチャは、予期せぬ学習障害や人口規模の変化に対する堅牢性と柔軟性の観点から、中央集権的および独立的な選択肢よりも大きなメリットをもたらします。
新しいアーキテクチャと比較するために、我々は、集中型および独立型のケースの最近のアルゴリズムを変更して、その実用的な収束を可能にする。我々は、これらのアルゴリズムの最初の実証的なデモンストレーションを、ローカルな状態の可観測性しか持たない単一のシステム進化に沿って学習する$N$エージェントの設定で提供しながら、新しいネットワーク化されたアプローチの実証的な利点を提示する。
関連論文リスト
- Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Distributed Event-Based Learning via ADMM [11.461617927469316]
エージェントがネットワーク上で情報を交換することで,グローバルな目的関数を最小限に抑える分散学習問題を考える。
提案手法には2つの特徴がある: (i) 必要なときにのみ通信をトリガーすることで通信を大幅に削減し, (ii) 異なるエージェント間のデータ分散に非依存である。
論文 参考訳(メタデータ) (2024-05-17T08:30:28Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Revisiting Deep Semi-supervised Learning: An Empirical Distribution
Alignment Framework and Its Generalization Bound [97.93945601881407]
経験分布アライメントによる半教師あり学習(SLEDA)と呼ばれる深層半教師あり学習フレームワークを提案する。
ラベル付きデータに対するトレーニング誤差を最小化することにより,半教師付き学習の一般化誤差を効果的にバウンドできることを示す。
新しい枠組みと理論的境界に基づいて、Augmented Distribution Alignment Network(ADA-Net)と呼ばれるシンプルで効果的な深層半教師付き学習手法を開発した。
論文 参考訳(メタデータ) (2022-03-13T11:59:52Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Decentralized Deep Learning using Momentum-Accelerated Consensus [15.333413663982874]
複数のエージェントが協調して分散データセットから学習する分散ディープラーニングの問題を考える。
本稿では,エージェントが固定された通信トポロジ上で対話する分散ディープラーニングアルゴリズムを提案し,解析する。
本アルゴリズムは,勾配に基づくプロトコルで用いられるヘビーボール加速度法に基づく。
論文 参考訳(メタデータ) (2020-10-21T17:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。