論文の概要: Networked Communication for Decentralised Agents in Mean-Field Games
- arxiv url: http://arxiv.org/abs/2306.02766v1
- Date: Mon, 5 Jun 2023 10:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 15:40:37.963244
- Title: Networked Communication for Decentralised Agents in Mean-Field Games
- Title(参考訳): 平均フィールドゲームにおける分散エージェントのためのネットワーク通信
- Authors: Patrick Benjamin and Alessandro Abate
- Abstract要約: 平均フィールドゲームフレームワークにネットワーク通信を導入する。
ネットワーク化手法は,集中制御器への依存を排除しつつ,実際により高速な収束を実現することができることを示す。
- 参考スコア(独自算出の注目度): 79.46510318969308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce networked communication to the mean-field game framework. In
particular, we look at oracle-free settings where $N$ decentralised agents
learn along a single, non-episodic evolution path of the empirical system, such
as we may encounter for a large range of many-agent cooperation problems in the
real-world. We provide theoretical evidence that by spreading improved policies
through the network in a decentralised fashion, our sample guarantees are
upper-bounded by those of the purely independent-learning case. Moreover, we
show empirically that our networked method can give faster convergence in
practice, while removing the reliance on a centralised controller. We also
demonstrate that our decentralised communication architecture brings
significant benefits over both the centralised and independent alternatives in
terms of robustness and flexibility to unexpected learning failures and changes
in population size. For comparison purposes with our new architecture, we
modify recent algorithms for the centralised and independent cases to make
their practical convergence feasible: while contributing the first empirical
demonstrations of these algorithms in our setting of $N$ agents learning along
a single system evolution with only local state observability, we additionally
display the empirical benefits of our new, networked approach.
- Abstract(参考訳): 平均フィールドゲームフレームワークにネットワーク通信を導入する。
特に私たちは,実世界の多エージェント連携問題に遭遇する可能性のある,経験的システムの単一の非正規進化経路に沿って,n$の分散エージェントが学習する,oracleフリーの設定に注目しています。
ネットワークを通じて改良されたポリシーを分散的に広めることによって、サンプルの保証が純粋に独立した学習事例によって上限に達するという理論的証拠を提供する。
さらに,本手法は,集中型コントローラへの依存を取り除きながら,より高速に収束できることを実証的に示す。
また、分散化されたコミュニケーションアーキテクチャは、予期せぬ学習障害や人口規模の変化に対する堅牢性と柔軟性の観点から、中央集権的および独立的な選択肢よりも大きなメリットをもたらします。
新しいアーキテクチャと比較するために、我々は、集中型および独立型のケースの最近のアルゴリズムを変更して、その実用的な収束を可能にする。我々は、これらのアルゴリズムの最初の実証的なデモンストレーションを、ローカルな状態の可観測性しか持たない単一のシステム進化に沿って学習する$N$エージェントの設定で提供しながら、新しいネットワーク化されたアプローチの実証的な利点を提示する。
関連論文リスト
- Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Fast and Robust Sparsity Learning over Networks: A Decentralized
Surrogate Median Regression Approach [10.850336820582678]
本稿では、分散化空間学習問題を効率的に解くために、分散化代理中央回帰法(deSMR)を提案する。
提案アルゴリズムは,簡単な実装で線形収束率を満足する。
また,スパース・サポート・リカバリの理論的結果も確立した。
論文 参考訳(メタデータ) (2022-02-11T08:16:01Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Diffusion Source Identification on Networks with Statistical Confidence [12.805268849262246]
拡散源同定のための統計的枠組みを導入し,仮説テストに着想を得た信頼セット推論手法を開発した。
提案手法は,特定の信頼度を持つノードを確実にカバーするノードの小さなサブセットを効率よく生成する。
これは一般ネットワークにおける理論的保証を実質的に有益とする最初の拡散源同定法である。
論文 参考訳(メタデータ) (2021-06-09T04:21:03Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Consensus Control for Decentralized Deep Learning [72.50487751271069]
ディープラーニングモデルの分散トレーニングは、ネットワーク上のデバイス上での学習と、大規模計算クラスタへの効率的なスケーリングを可能にする。
理論上、トレーニングコンセンサス距離が重要な量よりも低い場合、分散化されたトレーニングは集中的なトレーニングよりも早く収束することを示す。
私たちの経験的な洞察は、パフォーマンス低下を軽減するために、より分散化されたトレーニングスキームの原則設計を可能にします。
論文 参考訳(メタデータ) (2021-02-09T13:58:33Z) - Decentralized Deep Learning using Momentum-Accelerated Consensus [15.333413663982874]
複数のエージェントが協調して分散データセットから学習する分散ディープラーニングの問題を考える。
本稿では,エージェントが固定された通信トポロジ上で対話する分散ディープラーニングアルゴリズムを提案し,解析する。
本アルゴリズムは,勾配に基づくプロトコルで用いられるヘビーボール加速度法に基づく。
論文 参考訳(メタデータ) (2020-10-21T17:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。