論文の概要: Cooperative Multi-Agent Learning for Navigation via Structured State
Abstraction
- arxiv url: http://arxiv.org/abs/2306.11336v2
- Date: Mon, 12 Feb 2024 08:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 00:41:32.142323
- Title: Cooperative Multi-Agent Learning for Navigation via Structured State
Abstraction
- Title(参考訳): 構造化状態抽象化によるナビゲーションのための協調的マルチエージェント学習
- Authors: Mohamed K. Abdelaziz, Mohammed S. Elbamby, Sumudu Samarakoon, Mehdi
Bennis
- Abstract要約: 本研究では,ナビゲーションタスクに参加するエージェント間の適応状態空間抽象化と通信プロトコルを学習するためのニューラルネットワークアーキテクチャを提案する。
目標は、政策性能を劣化させることなく、探索すべき状態空間のサイズを大幅に削減する適応的な抽象化器を考案することである。
- 参考スコア(独自算出の注目度): 35.137788512033694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperative multi-agent reinforcement learning (MARL) for navigation enables
agents to cooperate to achieve their navigation goals. Using emergent
communication, agents learn a communication protocol to coordinate and share
information that is needed to achieve their navigation tasks. In emergent
communication, symbols with no pre-specified usage rules are exchanged, in
which the meaning and syntax emerge through training. Learning a navigation
policy along with a communication protocol in a MARL environment is highly
complex due to the huge state space to be explored. To cope with this
complexity, this work proposes a novel neural network architecture, for jointly
learning an adaptive state space abstraction and a communication protocol among
agents participating in navigation tasks. The goal is to come up with an
adaptive abstractor that significantly reduces the size of the state space to
be explored, without degradation in the policy performance. Simulation results
show that the proposed method reaches a better policy, in terms of achievable
rewards, resulting in fewer training iterations compared to the case where raw
states or fixed state abstraction are used. Moreover, it is shown that a
communication protocol emerges during training which enables the agents to
learn better policies within fewer training iterations.
- Abstract(参考訳): ナビゲーションのための協調型マルチエージェント強化学習(MARL)により、エージェントが協調してナビゲーション目標を達成することができる。
エージェントは緊急通信を使用して通信プロトコルを学び、ナビゲーションタスクを達成するために必要な情報を調整し、共有する。
創発的なコミュニケーションでは、事前定義された使用規則のないシンボルが交換され、トレーニングを通じて意味と構文が現れる。
MARL環境における通信プロトコルとともにナビゲーションポリシーを学ぶことは、探索すべき巨大な状態空間のために非常に複雑である。
この複雑さに対処するために、ナビゲーションタスクに参加するエージェント間で適応状態空間抽象化と通信プロトコルを共同で学習する、新しいニューラルネットワークアーキテクチャを提案する。
目標は、政策性能を劣化させることなく、探索すべき状態空間のサイズを大幅に削減する適応的な抽象化器を考案することである。
シミュレーションの結果,提案手法は,生の状態や固定状態の抽象化を用いた場合と比較して,達成可能な報酬の観点から,トレーニングの繰り返しを少なくすることができることがわかった。
さらに,訓練中にコミュニケーションプロトコルが出現し,より少ない訓練イテレーションでエージェントがより良い方針を学習できることを示した。
関連論文リスト
- DCMAC: Demand-aware Customized Multi-Agent Communication via Upper Bound Training [9.068971933560416]
本稿では,アッパーバウンドトレーニングを用いて理想的なポリシを得る,要求対応のカスタマイズ型マルチエージェント通信プロトコルを提案する。
実験結果から,DCMACは,制約のない,通信制約のないシナリオにおいて,ベースラインアルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2024-09-11T09:23:27Z) - Learning Multi-Agent Communication from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
提案手法であるCommFormerは,通信グラフを効率よく最適化し,勾配降下によるアーキテクチャパラメータをエンドツーエンドで並列に洗練する。
論文 参考訳(メタデータ) (2024-05-14T12:40:25Z) - From Explicit Communication to Tacit Cooperation:A Novel Paradigm for
Cooperative MARL [14.935456456463731]
本稿では,明示的なコミュニケーションから暗黙的な協調への段階的なシフトを促進する新しいパラダイムを提案する。
初期訓練段階では,エージェント間で関連情報を共有することで協力を促進する。
次に、明示的に伝達された情報と再構成された情報を組み合わせて混合情報を得る。
論文 参考訳(メタデータ) (2023-04-28T06:56:07Z) - On the Role of Emergent Communication for Social Learning in Multi-Agent
Reinforcement Learning [0.0]
社会学習は、専門家からのヒントを使って、異質なポリシーを整列し、サンプルの複雑さを減らし、部分的に観察可能なタスクを解決する。
本稿では,情報ボトルネックに基づく教師なし手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T03:23:27Z) - Path Design and Resource Management for NOMA enhanced Indoor Intelligent
Robots [58.980293789967575]
通信可能な屋内知的ロボット(IR)サービスフレームワークを提案する。
室内レイアウトとチャネル状態を決定論的に記述できるレゴモデリング手法が提案されている。
調査対象の無線マップは、強化学習エージェントを訓練するための仮想環境として呼び出される。
論文 参考訳(メタデータ) (2020-11-23T21:45:01Z) - Language-guided Navigation via Cross-Modal Grounding and Alternate
Adversarial Learning [66.9937776799536]
新たなビジョン・アンド・ランゲージナビゲーション(VLN)問題は、見えない写真リアリスティック環境において、エージェントがターゲットの場所に向かうことを学習することを目的としている。
VLNの主な課題は、主に2つの側面から生じている: まず、エージェントは動的に変化する視覚環境に対応する言語命令の有意義な段落に出席する必要がある。
そこで本稿では,エージェントにテキストと視覚の対応性を追跡する機能を持たせるために,クロスモーダルグラウンドモジュールを提案する。
論文 参考訳(メタデータ) (2020-11-22T09:13:46Z) - Networked Multi-Agent Reinforcement Learning with Emergent Communication [18.47483427884452]
MARL(Multi-Agent Reinforcement Learning)法は,他の学習エージェントの存在下で活動するエージェントに対して最適なポリシーを求める。
コーディネートするひとつの方法は、相互通信を学ぶことです。
エージェントは共通のタスクを実行するために学習しながら言語を開発することができるか?
論文 参考訳(メタデータ) (2020-04-06T16:13:23Z) - Learning to cooperate: Emergent communication in multi-agent navigation [49.11609702016523]
本稿では,協調ナビゲーションタスクを行うエージェントが,解釈可能な通信プロトコルを学ぶことを示す。
エージェントのポリシーの分析により、創発的信号が状態空間を空間的にクラスタリングすることが明らかになった。
エージェントの集団を用いて,創発的プロトコルは基本構成構造を持つことを示す。
論文 参考訳(メタデータ) (2020-04-02T16:03:17Z) - Learning Structured Communication for Multi-agent Reinforcement Learning [104.64584573546524]
本研究では,マルチエージェント強化学習(MARL)環境下での大規模マルチエージェント通信機構について検討する。
本稿では、より柔軟で効率的な通信トポロジを用いて、LSC(Learning Structured Communication)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-11T07:19:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。