論文の概要: Networked Communication for Decentralised Agents in Mean-Field Games
- arxiv url: http://arxiv.org/abs/2306.02766v2
- Date: Fri, 26 Jan 2024 14:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 18:21:49.651186
- Title: Networked Communication for Decentralised Agents in Mean-Field Games
- Title(参考訳): 平均フィールドゲームにおける分散エージェントのためのネットワーク通信
- Authors: Patrick Benjamin and Alessandro Abate
- Abstract要約: 平均フィールドゲームフレームワークにネットワーク通信を導入する。
私たちのアーキテクチャは、中央集権型と独立した学習ケースの双方で保証されていることを示しています。
さらに、ネットワーク化されたアプローチには、中央集権型と独立型の両方の選択肢よりも大きなアドバンテージがあることも示します。
- 参考スコア(独自算出の注目度): 66.3272498854875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce networked communication to the mean-field game framework, in
particular to oracle-free settings where $N$ decentralised agents learn along a
single, non-episodic evolution path of the empirical system. We prove that our
architecture, with only a few reasonable assumptions about network structure,
has sample guarantees bounded between those of the centralised- and
independent-learning cases. We discuss how the sample guarantees of the three
theoretical algorithms do not actually result in practical convergence.
Accordingly, we show that in practical settings where the theoretical
parameters are not observed (leading to poor estimation of the Q-function), our
communication scheme significantly accelerates convergence over the independent
case, without relying on the undesirable assumption of a centralised
controller. We contribute several further practical enhancements to all three
theoretical algorithms, allowing us to showcase their first empirical
demonstrations. Our experiments confirm that we can remove several of the key
theoretical assumptions of the algorithms, and display the empirical
convergence benefits brought by our new networked communication. We
additionally show that the networked approach has significant advantages, over
both the centralised and independent alternatives, in terms of robustness to
unexpected learning failures and to changes in population size.
- Abstract(参考訳): 我々は、平均フィールドゲームフレームワーク、特に、経験的システムの単一の非正規進化経路に沿って、分散エージェントが学習するオラクルフリーの設定にネットワーク通信を導入する。
私たちのアーキテクチャは、ネットワーク構造に関する合理的な仮定を少ししか持たないが、集中学習と独立学習のケースの間には、サンプル保証があることを証明します。
3つの理論アルゴリズムのサンプル保証が実際に実際に収束するわけではないことを議論する。
したがって, 理論パラメータが観測されない(q関数の推定が不十分な)実環境において, 通信方式は, 集中制御器の望ましくない仮定に頼らずに, 独立ケースの収束を著しく促進することを示した。
3つの理論アルゴリズムにさらにいくつかの実践的な拡張を施し、最初の実証実験を実演できるようにしました。
実験により,アルゴリズムの重要な理論的仮定をいくつか取り除き,新たなネットワーク通信による経験的収束効果を示すことができることを確認した。
さらに,ネットワーク化アプローチは,予期せぬ学習失敗に対する堅牢性や,人口規模の変化の観点から,集中型と独立型の2つの選択肢に対して,大きなアドバンテージを持つことを示した。
関連論文リスト
- Fast and Robust Sparsity Learning over Networks: A Decentralized
Surrogate Median Regression Approach [10.850336820582678]
本稿では、分散化空間学習問題を効率的に解くために、分散化代理中央回帰法(deSMR)を提案する。
提案アルゴリズムは,簡単な実装で線形収束率を満足する。
また,スパース・サポート・リカバリの理論的結果も確立した。
論文 参考訳(メタデータ) (2022-02-11T08:16:01Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Experimental multi-state quantum discrimination through a Quantum
network [63.1241529629348]
我々は,ネットワーク構造に特徴付けられる受信機と情報処理の動的処理に基づいて,最小エラーシナリオにおいて2つの識別方式を実験的に実装した。
第1のプロトコルはバイナリ最適識別を実現し、第2のプロトコルは、ネットワークライク受信機の動的特徴に依存するマルチステート量子識別に対する新しいアプローチを提供する。
論文 参考訳(メタデータ) (2021-07-21T09:26:48Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Diffusion Source Identification on Networks with Statistical Confidence [12.805268849262246]
拡散源同定のための統計的枠組みを導入し,仮説テストに着想を得た信頼セット推論手法を開発した。
提案手法は,特定の信頼度を持つノードを確実にカバーするノードの小さなサブセットを効率よく生成する。
これは一般ネットワークにおける理論的保証を実質的に有益とする最初の拡散源同定法である。
論文 参考訳(メタデータ) (2021-06-09T04:21:03Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Consensus Control for Decentralized Deep Learning [72.50487751271069]
ディープラーニングモデルの分散トレーニングは、ネットワーク上のデバイス上での学習と、大規模計算クラスタへの効率的なスケーリングを可能にする。
理論上、トレーニングコンセンサス距離が重要な量よりも低い場合、分散化されたトレーニングは集中的なトレーニングよりも早く収束することを示す。
私たちの経験的な洞察は、パフォーマンス低下を軽減するために、より分散化されたトレーニングスキームの原則設計を可能にします。
論文 参考訳(メタデータ) (2021-02-09T13:58:33Z) - Decentralized Deep Learning using Momentum-Accelerated Consensus [15.333413663982874]
複数のエージェントが協調して分散データセットから学習する分散ディープラーニングの問題を考える。
本稿では,エージェントが固定された通信トポロジ上で対話する分散ディープラーニングアルゴリズムを提案し,解析する。
本アルゴリズムは,勾配に基づくプロトコルで用いられるヘビーボール加速度法に基づく。
論文 参考訳(メタデータ) (2020-10-21T17:39:52Z) - Robust Asynchronous and Network-Independent Cooperative Learning [1.712689361909955]
エージェントのネットワークが仮説に共同で同意しようとする分散非ベイズ学習による協調学習のモデルを考える。
提案した学習力学は,ネットワーク内のすべてのエージェントが,誤った仮説に対する信念を指数関数的に崩壊させることを保証している。
論文 参考訳(メタデータ) (2020-10-20T03:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。