論文の概要: Efficient Cooperation Strategy Generation in Multi-Agent Video Games via
Hypergraph Neural Network
- arxiv url: http://arxiv.org/abs/2203.03265v1
- Date: Mon, 7 Mar 2022 10:34:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 17:49:36.189010
- Title: Efficient Cooperation Strategy Generation in Multi-Agent Video Games via
Hypergraph Neural Network
- Title(参考訳): ハイパーグラフニューラルネットワークによるマルチエージェントゲームにおける効率的な協調戦略生成
- Authors: Bin Zhang, Yunpeng Bai, Zhiwei Xu, Dapeng Li, Guoliang Fan
- Abstract要約: シングルエージェントビデオゲームにおける深層強化学習のパフォーマンスは驚くべきものだ。
しかし、研究者はマルチエージェント環境でビデオゲームを扱う際にさらに困難を抱えている。
本稿では,エージェントのハイパーグラフ構造に適応し,エージェント間の情報特徴抽出と表現の完全化にハイパーグラフ畳み込みを利用するアクタ・クリティック法に基づく新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 16.226702761758595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of deep reinforcement learning (DRL) in single-agent video
games is astounding due to its benefits in dealing with sequential
decision-making challenges. However, researchers have extra difficulties while
working with video games in multi-agent environments. One of the most pressing
issues presently being addressed is how to create sufficient collaboration
between different agents in a scenario with numerous agents. To address this
issue, we propose a novel algorithm based on the actor-critic method, which
adapts the hypergraph structure of agents and employs hypergraph convolution to
complete information feature extraction and representation between agents,
resulting in efficient collaboration. Based on distinct generating methods of
hypergraph structure, HGAC and ATT-HGAC algorithms are given. We demonstrate
the advantages of our approach over other existing methods. Ablation and
visualization studies also confirm the relevance of each component of the
algorithm.
- Abstract(参考訳): シングルエージェントビデオゲームにおける深層強化学習(DRL)の性能は、逐次的な意思決定課題に対処する利点から驚くべきものである。
しかし、研究者はマルチエージェント環境でビデオゲームを扱う際にさらに困難を抱えている。
現在取り組まれている最も差し迫った問題の1つは、多数のエージェントとシナリオにおいて、異なるエージェント間の十分なコラボレーションを実現する方法である。
この問題を解決するために,エージェントのハイパーグラフ構造に適応し,ハイパーグラフ畳み込みを用いてエージェント間の情報特徴抽出と表現を完了し,効率的に協調するアクタ・クリティック法に基づく新しいアルゴリズムを提案する。
HGACとATT-HGACのアルゴリズムは,異なるハイパーグラフ構造を生成する方法に基づいている。
我々は,既存の手法に対するアプローチの利点を実証する。
アブレーションと可視化の研究はアルゴリズムの各成分の関連性も確認している。
関連論文リスト
- Textualized Agent-Style Reasoning for Complex Tasks by Multiple Round LLM Generation [49.27250832754313]
我々は、llmベースの自律エージェントフレームワークであるAgentCOTを紹介する。
それぞれのステップで、AgentCOTはアクションを選択し、それを実行して、証拠を裏付ける中間結果を得る。
エージェントCOTの性能を高めるための2つの新しい戦略を導入する。
論文 参考訳(メタデータ) (2024-09-19T02:20:06Z) - Scaling Large-Language-Model-based Multi-Agent Collaboration [75.5241464256688]
大規模言語モデルによるエージェントのパイオニア化は、マルチエージェントコラボレーションの設計パターンを暗示している。
神経スケーリング法則に触発された本研究では,マルチエージェント協調におけるエージェントの増加に類似の原理が適用されるかを検討する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - CCA: Collaborative Competitive Agents for Image Editing [59.54347952062684]
本稿では,CCA(Collaborative Competitive Agents)の新たな生成モデルを提案する。
複数のLarge Language Models (LLM) ベースのエージェントを使って複雑なタスクを実行する。
この論文の主な貢献は、制御可能な中間ステップと反復最適化を備えたマルチエージェントベースの生成モデルの導入である。
論文 参考訳(メタデータ) (2024-01-23T11:46:28Z) - Recursive Reasoning Graph for Multi-Agent Reinforcement Learning [44.890087638530524]
マルチエージェント強化学習(MARL)は、複数のエージェントが相互に相互作用するポリシーを同時に学習する効率的な方法である。
既存のアルゴリズムは、他のエージェントに対する自己行動の影響を正確に予測できない。
提案アルゴリズムはRecursive Reasoning Graph (R2G)と呼ばれ、複数のマルチエージェント粒子およびロボットゲームにおける最先端の性能を示す。
論文 参考訳(メタデータ) (2022-03-06T00:57:50Z) - Value Function Factorisation with Hypergraph Convolution for Cooperative
Multi-agent Reinforcement Learning [32.768661516953344]
本稿では,ハイパーグラフ畳み込みと値分解を組み合わせた手法を提案する。
アクション値を信号として扱うことで、HGCN-Mixは、自己学習ハイパーグラフを通じて、これらの信号間の関係を探究することを目指している。
実験結果から,HGCN-MixはStarCraft II Multi-agent Challenge (SMAC)ベンチマークにおいて,最先端技術と一致するか,あるいは超えていることがわかった。
論文 参考訳(メタデータ) (2021-12-09T08:40:38Z) - MACRPO: Multi-Agent Cooperative Recurrent Policy Optimization [17.825845543579195]
我々はtextitMulti-Agent Cooperative Recurrent Proximal Policy Optimization (MACRPO) と呼ばれる新しいマルチエージェントアクター批判手法を提案する。
我々は、批評家のネットワークアーキテクチャにおいてリカレント・レイヤを使用し、メタ・トラジェクトリを使用してリカレント・レイヤをトレーニングする新しいフレームワークを提案する。
連続的および離散的な行動空間を持つ3つの挑戦的マルチエージェント環境において,本アルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2021-09-02T12:43:35Z) - Cooperative Exploration for Multi-Agent Deep Reinforcement Learning [127.4746863307944]
深層強化学習のための協調型マルチエージェント探索(CMAE)を提案する。
ゴールは正規化エントロピーに基づく手法により、複数の射影状態空間から選択される。
CMAEが様々なタスクのベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2021-07-23T20:06:32Z) - Learning Multi-Granular Hypergraphs for Video-Based Person
Re-Identification [110.52328716130022]
ビデオベースの人物識別(re-ID)はコンピュータビジョンにおいて重要な研究課題である。
MGH(Multi-Granular Hypergraph)という新しいグラフベースのフレームワークを提案する。
MARSの90.0%のトップ-1精度はMGHを用いて達成され、最先端のスキームよりも優れていた。
論文 参考訳(メタデータ) (2021-04-30T11:20:02Z) - Portfolio Search and Optimization for General Strategy Game-Playing [58.896302717975445]
ローリングホライズン進化アルゴリズムに基づく最適化とアクション選択のための新しいアルゴリズムを提案する。
エージェントのパラメータとポートフォリオセットの最適化について,N-tuple Bandit Evolutionary Algorithmを用いて検討する。
エージェントの性能分析により,提案手法はすべてのゲームモードによく一般化し,他のポートフォリオ手法よりも優れることが示された。
論文 参考訳(メタデータ) (2021-04-21T09:28:28Z) - Learning to Coordinate via Multiple Graph Neural Networks [16.226702761758595]
MGANはグラフ畳み込みネットワークと値分解手法を組み合わせた新しいアルゴリズムである。
グラフネットワークの出力を可視化することにより,表現学習におけるグラフネットワークの驚くべき能力を示す。
論文 参考訳(メタデータ) (2021-04-08T04:33:00Z) - A Visual Communication Map for Multi-Agent Deep Reinforcement Learning [7.003240657279981]
マルチエージェント学習は、隠蔽された通信媒体を割り当てる上で大きな課題となる。
最近の研究は一般的に、エージェント間の通信を可能にするために、特殊なニューラルネットワークと強化学習を組み合わせる。
本稿では,多数のエージェントを扱うだけでなく,異種機能エージェント間の協調を可能にする,よりスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T02:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。