論文の概要: Extended Markov Games to Learn Multiple Tasks in Multi-Agent
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2002.06000v1
- Date: Fri, 14 Feb 2020 12:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 04:23:07.289871
- Title: Extended Markov Games to Learn Multiple Tasks in Multi-Agent
Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習におけるマルチタスク学習のための拡張マルコフゲーム
- Authors: Borja G. Le\'on and Francesco Belardinelli
- Abstract要約: 我々は、拡張マルコフゲームを、複数のRLエージェントが同時に様々な非マルコフ仕様を学習できる一般的な数学的モデルとして定義する。
具体的には、我々のモデルを用いて、2つの異なる論理ベースのマルチエージェントRLアルゴリズムを訓練し、マルコフ的でないコセーフ仕様の多様な設定を解決する。
- 参考スコア(独自算出の注目度): 7.332887338089177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The combination of Formal Methods with Reinforcement Learning (RL) has
recently attracted interest as a way for single-agent RL to learn multiple-task
specifications. In this paper we extend this convergence to multi-agent
settings and formally define Extended Markov Games as a general mathematical
model that allows multiple RL agents to concurrently learn various
non-Markovian specifications. To introduce this new model we provide formal
definitions and proofs as well as empirical tests of RL algorithms running on
this framework. Specifically, we use our model to train two different
logic-based multi-agent RL algorithms to solve diverse settings of
non-Markovian co-safe LTL specifications.
- Abstract(参考訳): 形式的手法と強化学習(RL)の組み合わせは、最近、シングルエージェントRLがマルチタスク仕様を学ぶ方法として関心を集めている。
本稿では、この収束をマルチエージェント設定に拡張し、拡張マルコフゲームスを、複数のRLエージェントが同時に様々な非マルコフ仕様を学習できる汎用数学的モデルとして正式に定義する。
この新しいモデルを導入するために、このフレームワーク上で動作するrlアルゴリズムの実証テストに加えて、形式的な定義と証明を提供する。
具体的には、2つの異なる論理ベースのマルチエージェントrlアルゴリズムを訓練し、非マルコフ共安全ltl仕様の多様な設定を解決する。
関連論文リスト
- MOMAland: A Set of Benchmarks for Multi-Objective Multi-Agent Reinforcement Learning [7.822825134714791]
多目的多エージェント強化学習(MOMARL)は、学習プロセスにおいて複数の目的を考慮する必要がある複数のエージェントによる問題に対処する。
MOAlandは、多目的マルチエージェント強化学習のための標準化された環境の最初のコレクションである。
論文 参考訳(メタデータ) (2024-07-23T09:05:06Z) - ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
拡散モデル(DM)は、最近オフライン強化学習を含む様々なシナリオで大きな成功を収めた。
この問題に対処する新しい生成型マルチエージェント学習フレームワークであるMADiffを提案する。
本実験は,マルチエージェント学習タスクにおけるベースラインアルゴリズムと比較して,MADiffの優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - Centralized control for multi-agent RL in a complex Real-Time-Strategy
game [0.0]
マルチエージェント強化学習(MARL)は、共有環境で共存する複数の学習エージェントの行動を研究する。
MARLはシングルエージェントRLよりも難しい。
このプロジェクトは、Lux AI v2 KaggleコンペティションにRLを適用したエンドツーエンドエクスペリエンスを提供する。
論文 参考訳(メタデータ) (2023-04-25T17:19:05Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - The Power of Exploiter: Provable Multi-Agent RL in Large State Spaces [36.097537237660234]
そこで本研究では,多くのサンプルを用いてナッシュ均衡政策を立証可能なアルゴリズムを提案する。
新しいアルゴリズムの重要な要素はエクスプローラーであり、彼女の弱点を意図的に活用することで、メインプレイヤーの学習を容易にする。
我々の理論フレームワークは汎用的であり、MG、線形あるいはカーネル関数近似のMG、リッチな観測のMGなど、幅広いモデルに適用できる。
論文 参考訳(メタデータ) (2021-06-07T05:39:09Z) - Non-cooperative Multi-agent Systems with Exploring Agents [10.736626320566707]
マルコフゲームを用いたマルチエージェント動作の規範モデルを開発した。
エージェントが探索するが、最適戦略に近い」モデルに焦点を当てる。
論文 参考訳(メタデータ) (2020-05-25T19:34:29Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。