論文の概要: Centralized control for multi-agent RL in a complex Real-Time-Strategy
game
- arxiv url: http://arxiv.org/abs/2304.13004v1
- Date: Tue, 25 Apr 2023 17:19:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 19:26:10.453220
- Title: Centralized control for multi-agent RL in a complex Real-Time-Strategy
game
- Title(参考訳): 複雑なリアルタイム戦略ゲームにおけるマルチエージェントRLの集中制御
- Authors: Roger Creus Castanyer
- Abstract要約: マルチエージェント強化学習(MARL)は、共有環境で共存する複数の学習エージェントの行動を研究する。
MARLはシングルエージェントRLよりも難しい。
このプロジェクトは、Lux AI v2 KaggleコンペティションにRLを適用したエンドツーエンドエクスペリエンスを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent Reinforcement learning (MARL) studies the behaviour of multiple
learning agents that coexist in a shared environment. MARL is more challenging
than single-agent RL because it involves more complex learning dynamics: the
observations and rewards of each agent are functions of all other agents. In
the context of MARL, Real-Time Strategy (RTS) games represent very challenging
environments where multiple players interact simultaneously and control many
units of different natures all at once. In fact, RTS games are so challenging
for the current RL methods, that just being able to tackle them with RL is
interesting. This project provides the end-to-end experience of applying RL in
the Lux AI v2 Kaggle competition, where competitors design agents to control
variable-sized fleets of units and tackle a multi-variable optimization,
resource gathering, and allocation problem in a 1v1 scenario against other
competitors. We use a centralized approach for training the RL agents, and
report multiple design decisions along the process. We provide the source code
of the project: https://github.com/roger-creus/centralized-control-lux.
- Abstract(参考訳): マルチエージェント強化学習(MARL)は、共有環境で共存する複数の学習エージェントの行動を研究する。
marlは、より複雑な学習ダイナミクスを含むため、シングルエージェントrlよりも難しい: 各エージェントの観察と報酬は、他のすべてのエージェントの機能である。
MARLの文脈では、リアルタイム戦略(RTS)ゲームは複数のプレイヤーが同時に相互作用し、異なる性質の多くのユニットを同時に制御する非常に困難な環境を表す。
実際、RTSゲームは現在のRLメソッドでは難しいので、RLでそれらに取り組むことは興味深い。
このプロジェクトは、lux ai v2 kaggleコンペティションにおいてrlを適用するエンドツーエンドのエクスペリエンスを提供する。このコンペティションでは、コンペティターは、可変サイズのユニット群を制御し、マルチ変数の最適化、リソースの収集、アロケーション問題に取り組むために、他のコンペティタに対して1v1シナリオでエージェントを設計する。
RLエージェントのトレーニングには集中型アプローチを使用し、そのプロセスに沿って複数の設計判断を報告します。
プロジェクトのソースコードは、https://github.com/roger-creus/centralized-control-lux。
関連論文リスト
- Learning From Good Trajectories in Offline Multi-Agent Reinforcement
Learning [98.07495732562654]
オフラインマルチエージェント強化学習(MARL)は、事前コンパイルされたデータセットから効果的なマルチエージェントポリシーを学ぶことを目的としている。
オフラインのMARLが学んだエージェントは、しばしばこのランダムなポリシーを継承し、チーム全体のパフォーマンスを脅かす。
この問題に対処するために,共有個人軌道(SIT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T18:11:26Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Reinforcement Learning Agents in Colonel Blotto [0.0]
エージェントベースモデルの特定の例に着目し、強化学習(RL)を用いてエージェントの環境における行動の訓練を行う。
我々はRLエージェントが1つの対戦相手を手動で打ち負かし、対戦相手の数が増えると依然として非常によく機能することを示した。
また、RLエージェントを解析し、最も高いQ値と低いQ値を与えるアクションを見て、どのような戦略が到達したかを調べる。
論文 参考訳(メタデータ) (2022-04-04T16:18:01Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Continuous Coordination As a Realistic Scenario for Lifelong Learning [6.044372319762058]
ゼロショット設定と少数ショット設定の両方をサポートするマルチエージェント生涯学習テストベッドを導入する。
最近のMARL法、および制限メモリおよび計算における最新のLLLアルゴリズムのベンチマークを評価します。
我々は経験的に、我々の設定で訓練されたエージェントは、以前の作業による追加の仮定なしに、未発見のエージェントとうまく協調できることを示します。
論文 参考訳(メタデータ) (2021-03-04T18:44:03Z) - Learning Monopoly Gameplay: A Hybrid Model-Free Deep Reinforcement
Learning and Imitation Learning Approach [31.066718635447746]
強化学習(RL)は、環境と相互作用するエージェントに依存し、それによって受け取った報酬の累積合計を最大化します。
マルチプレイヤーのモノポリーゲームでは、プレイヤーは取引など複雑なアクションを含む毎ターンに複数の決定をしなければならない。
本稿では,モノポリーの勝利戦略を再生および学習できるハイブリッドモデルフリーディープRL(DRL)アプローチについて紹介する。
論文 参考訳(メタデータ) (2021-03-01T01:40:02Z) - TLeague: A Framework for Competitive Self-Play based Distributed
Multi-Agent Reinforcement Learning [28.795986840557475]
TLeagueは大規模なトレーニングを目標とし、いくつかのメインストリームMARLアルゴリズムを実装している。
我々は、TLeagueの効率性と有効性を示すために、StarCraft II、ViZDoom、Pommermanについて実験を行った。
論文 参考訳(メタデータ) (2020-11-25T17:24:20Z) - Multi-Agent Collaboration via Reward Attribution Decomposition [75.36911959491228]
本稿では,StarCraftのマルチエージェントチャレンジにおいて,最先端のパフォーマンスを実現するコラボレーション型Q-ラーニング(CollaQ)を提案する。
CollaQは様々なStarCraft属性マップで評価され、既存の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-16T17:42:11Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。