論文の概要: The Power of Communication in a Distributed Multi-Agent System
- arxiv url: http://arxiv.org/abs/2111.15611v2
- Date: Wed, 1 Dec 2021 11:41:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 13:07:17.107975
- Title: The Power of Communication in a Distributed Multi-Agent System
- Title(参考訳): 分散マルチエージェントシステムにおける通信のパワー
- Authors: Philipp Dominic Siedler
- Abstract要約: 単エージェント(SA)強化学習システムでは,非定常問題に対する優れた再侮辱が示されてきた。
MARL(Multi-Agent Reinforcement Learning)は、SAシステム全般とスケーリングにおいて、SAシステムを上回ることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-Agent (SA) Reinforcement Learning systems have shown outstanding
re-sults on non-stationary problems. However, Multi-Agent Reinforcement
Learning(MARL) can surpass SA systems generally and when scaling. Furthermore,
MAsystems can be super-powered by collaboration, which can happen through
ob-serving others, or a communication system used to share information
betweencollaborators. Here, we developed a distributed MA learning mechanism
withthe ability to communicate based on decentralised partially observable
Markovdecision processes (Dec-POMDPs) and Graph Neural Networks (GNNs).
Minimis-ing the time and energy consumed by training Machine Learning models
whileimproving performance can be achieved by collaborative MA mechanisms.
Wedemonstrate this in a real-world scenario, an offshore wind farm, including a
set ofdistributed wind turbines, where the objective is to maximise collective
efficiency.Compared to a SA system, MA collaboration has shown significantly
reducedtraining time and higher cumulative rewards in unseen and scaled
scenarios.
- Abstract(参考訳): シングルエージェント(sa)強化学習システムは、非定常問題に対する優れた再帰性を示している。
しかし、MARL(Multi-Agent Reinforcement Learning)は、SAシステムを概して、スケールするときに超える。
さらに、masystemsは、他人をオブザーバすることで発生するコラボレーションや、コラボレータ間の情報共有に使用される通信システムによって、スーパーパワー化することができる。
本研究では,分散化部分可観測マルコフデシジョンプロセス (dec-pomdps) とグラフニューラルネットワーク (gnns) に基づくコミュニケーション機能を備えた分散ma学習機構を開発した。
機械学習モデルのトレーニングによって消費される時間とエネルギーの最小化と、パフォーマンスの向上は協調MAメカニズムによって達成できる。
実際のシナリオでは, 分散風力発電機を含むオフショア風力発電所において, 集合的効率を最大化することを目的としており, SAシステムと比較すると, MA協力は, 未確認・スケールのシナリオにおいて, トレーニング時間と累積報酬の増大を著しく低減している。
関連論文リスト
- HiMAP: Learning Heuristics-Informed Policies for Large-Scale Multi-Agent
Pathfinding [16.36594480478895]
Heuristics-Informed Multi-Agent Pathfinding (HiMAP)
Heuristics-Informed Multi-Agent Pathfinding (HiMAP)
論文 参考訳(メタデータ) (2024-02-23T13:01:13Z) - Neuro-mimetic Task-free Unsupervised Online Learning with Continual
Self-Organizing Maps [56.827895559823126]
自己組織化マップ(英: Self-organizing map、SOM)は、クラスタリングや次元減少によく用いられるニューラルネットワークモデルである。
低メモリ予算下でのオンライン教師なし学習が可能なSOM(連続SOM)の一般化を提案する。
MNIST, Kuzushiji-MNIST, Fashion-MNISTなどのベンチマークでは, ほぼ2倍の精度が得られた。
論文 参考訳(メタデータ) (2024-02-19T19:11:22Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - Scalable Multi-Agent Model-Based Reinforcement Learning [1.95804735329484]
我々は,モデルベース強化学習(MBRL)を用いて協調環境における集中型トレーニングをさらに活用するMAMBAという新しい手法を提案する。
エージェント間のコミュニケーションは、実行期間中に各エージェントのワールドモデルを維持するのに十分であり、一方、仮想ロールアウトはトレーニングに使用でき、環境と対話する必要がなくなる。
論文 参考訳(メタデータ) (2022-05-25T08:35:00Z) - Collaborative Auto-Curricula Multi-Agent Reinforcement Learning with
Graph Neural Network Communication Layer for Open-ended Wildfire-Management
Resource Distribution [0.0]
我々は,グラフニューラルネットワーク(GNN)通信層を用いたMARL(Multi-Agent Reinforcement Learning)機構を構築した。
本研究は,山火事管理のための資源分布の文脈で実施する。
我々のMA通信提案は、Greedy Heuristic BaselineとSingle-Agent (SA)セットアップより優れている。
論文 参考訳(メタデータ) (2022-04-24T20:13:30Z) - CTDS: Centralized Teacher with Decentralized Student for Multi-Agent
Reinforcement Learning [114.69155066932046]
この作品は小説を提案している。
教師モデルと学生モデルからなる分散学生(C TDS)フレームワーク。
具体的には、教師モデルは、グローバルな観察で条件付けられた個別のQ値を学ぶことで、チームの報酬を割り当てる。
学生モデルは、部分的な観察を利用して、教師モデルによって推定されるQ値を近似する。
論文 参考訳(メタデータ) (2022-03-16T06:03:14Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - BAGUA: Scaling up Distributed Learning with System Relaxations [31.500494636704598]
BAGUAは分散データ並列トレーニングのための新しい通信フレームワークである。
新しいシステム設計によって、BAGUAは様々な最先端の分散学習アルゴリズムを実装し拡張する能力を持つ。
最大16台のマシンを持つ運用クラスタでは、BAGUAは、エンドツーエンドのトレーニング時間において、PyTorch-DDP、Horovod、BytePSを上回ります。
論文 参考訳(メタデータ) (2021-07-03T21:27:45Z) - Opportunities of Federated Learning in Connected, Cooperative and
Automated Industrial Systems [44.627847349764664]
次世代産業システムは、超信頼性、低遅延通信の進歩を牽引しています。
分散機械学習(FL)は、センシング、コミュニケーション、学習におけるキノコの多分野にわたる研究領域を表しています。
本稿では,次世代ネットワーク産業システムにおけるFLの新たな可能性について考察する。
論文 参考訳(メタデータ) (2021-01-09T14:27:52Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - Self-organizing Democratized Learning: Towards Large-scale Distributed
Learning Systems [71.14339738190202]
民主化された学習(Dem-AI)は、大規模な分散および民主化された機械学習システムを構築するための基本原則を備えた全体主義的哲学を定めている。
本稿では,Dem-AI哲学にヒントを得た分散学習手法を提案する。
提案アルゴリズムは,従来のFLアルゴリズムと比較して,エージェントにおける学習モデルの一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2020-07-07T08:34:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。