論文の概要: A further exploration of deep Multi-Agent Reinforcement Learning with
Hybrid Action Space
- arxiv url: http://arxiv.org/abs/2208.14447v1
- Date: Tue, 30 Aug 2022 07:40:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:08:23.732005
- Title: A further exploration of deep Multi-Agent Reinforcement Learning with
Hybrid Action Space
- Title(参考訳): ハイブリッド行動空間を用いた深層マルチエージェント強化学習のさらなる探究
- Authors: Hongzhi Hua, Guixuan Wen, Kaigui Wu
- Abstract要約: 深層多エージェントハイブリッドアクター批判(MAHSAC)と多エージェントハイブリッド深層決定主義政策勾配(MAHDDPG)の2つのアルゴリズムを提案する。
私たちの経験は、簡単なマルチエージェント粒子の世界であるマルチエージェント粒子環境と、いくつかの基本的なシミュレートされた物理で動いています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The research of extending deep reinforcement learning (drl) to multi-agent
field has solved many complicated problems and made great achievements.
However, almost all these studies only focus on discrete or continuous action
space and there are few works having ever used multi-agent deep reinforcement
learning to real-world environment problems which mostly have a hybrid action
space. Therefore, in this paper, we propose two algorithms: deep multi-agent
hybrid soft actor-critic (MAHSAC) and multi-agent hybrid deep deterministic
policy gradients (MAHDDPG) to fill this gap. This two algorithms follow the
centralized training and decentralized execution (CTDE) paradigm and could
handle hybrid action space problems. Our experiences are running on multi-agent
particle environment which is an easy multi-agent particle world, along with
some basic simulated physics. The experimental results show that these
algorithms have good performances.
- Abstract(参考訳): 深層強化学習(drl)をマルチエージェント分野に拡張する研究は、多くの複雑な問題を解決し、大きな成果を上げている。
しかしながら、これらの研究のほとんどが離散的あるいは連続的な行動空間にのみ焦点を合わせており、多エージェント深層強化学習を実世界環境問題に用いたことのある作品はほとんどない。
そこで本稿では,このギャップを埋めるために,マルチエージェントハイブリッドソフトアクタ-クリティック (mahsac) とマルチエージェントハイブリッドディープ決定論的ポリシー勾配 (mahddpg) の2つのアルゴリズムを提案する。
この2つのアルゴリズムは、集中的なトレーニングと分散実行(CTDE)パラダイムに従っており、ハイブリッドなアクション空間の問題に対処できる。
私たちの経験は、簡単なマルチエージェント粒子の世界であるマルチエージェント粒子環境と、いくつかの基本的なシミュレートされた物理で動いています。
実験の結果,これらのアルゴリズムは優れた性能を示した。
関連論文リスト
- Inverse Factorized Q-Learning for Cooperative Multi-agent Imitation
Learning [13.060023718506917]
模倣学習(英: mimicion learning, IL)は、協調型マルチエージェントシステムにおける実証から専門家の行動を模倣する学習の課題である。
本稿では,これらの課題に対処する新しいマルチエージェントILアルゴリズムを提案する。
本手法は,分散Q関数の集約に混在するネットワークを活用することで,集中学習を実現する。
論文 参考訳(メタデータ) (2023-10-10T17:11:20Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Deep Multi-Agent Reinforcement Learning with Hybrid Action Spaces based
on Maximum Entropy [0.0]
本稿では,ハイブリッドアクション空間におけるマルチエージェント問題に対処するために,深層マルチエージェントハイブリッド・アクター・クリティカル(MAHSAC)を提案する。
このアルゴリズムは、中央集権的なトレーニングであるが、分散実行(CTDE)パラダイムに従い、ハイブリッドアクション空間問題を扱うためにソフトアクター・クリティカルアルゴリズム(SAC)を拡張している。
私たちの経験は、連続的な観察と離散的なアクション空間を持つ、簡単なマルチエージェント粒子の世界と、いくつかの基本的なシミュレートされた物理学で動いています。
論文 参考訳(メタデータ) (2022-06-10T13:52:59Z) - Cooperative Exploration for Multi-Agent Deep Reinforcement Learning [127.4746863307944]
深層強化学習のための協調型マルチエージェント探索(CMAE)を提案する。
ゴールは正規化エントロピーに基づく手法により、複数の射影状態空間から選択される。
CMAEが様々なタスクのベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2021-07-23T20:06:32Z) - Scalable, Decentralized Multi-Agent Reinforcement Learning Methods
Inspired by Stigmergy and Ant Colonies [0.0]
分散型マルチエージェント学習と計画に対する新しいアプローチを検討する。
特に、この方法はアリコロニーの凝集、協調、行動に触発されている。
このアプローチは、単一エージェントRLと、マルチエージェントパス計画と環境修正のためのアリコロニーに触発された分散型のスティグメロジカルアルゴリズムを組み合わせたものである。
論文 参考訳(メタデータ) (2021-05-08T01:04:51Z) - The Surprising Effectiveness of MAPPO in Cooperative, Multi-Agent Games [67.47961797770249]
マルチエージェントPPO(MAPPO)は、集中型値関数を採用するマルチエージェントPPOバリアントである。
MAPPOは,3つの一般的なマルチエージェントテストベッドにおいて,最先端技術に匹敵する性能を実現していることを示す。
論文 参考訳(メタデータ) (2021-03-02T18:59:56Z) - Asynchronous Multi Agent Active Search [6.587280549237275]
SPATS (Sparse Parallel Asynchronous Thompson Smpling) とLATSI (Laplace Thompson Smpling with Information gain) という2つの異なる能動探索アルゴリズムを提案する。
ターゲットは、圧縮的な検知仮定に従って、環境の周囲にわずかに配置されているとみなす。
提案アルゴリズムの有効性を実証するために,シミュレーション結果と理論的解析結果を提供する。
論文 参考訳(メタデータ) (2020-06-25T22:17:20Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - FACMAC: Factored Multi-Agent Centralised Policy Gradients [103.30380537282517]
FACtored Multi-Agent Centralized Policy gradients (FACMAC)を提案する。
離散的および連続的な行動空間における協調的マルチエージェント強化学習のための新しい手法である。
我々は,マルチエージェント粒子環境の変動に対するFACMAC,新しいマルチエージェント MuJoCo ベンチマーク,およびStarCraft II マイクロマネジメントタスクの挑戦的セットについて評価した。
論文 参考訳(メタデータ) (2020-03-14T21:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。