論文の概要: Two-stage training algorithm for AI robot soccer
- arxiv url: http://arxiv.org/abs/2104.05931v1
- Date: Tue, 13 Apr 2021 04:24:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:32:29.224853
- Title: Two-stage training algorithm for AI robot soccer
- Title(参考訳): AIロボットサッカーのための2段階トレーニングアルゴリズム
- Authors: Taeyoung Kim, Luiz Felipe Vecchietti, Kyujin Choi, Sanem Sariel,
Dongsoo Har
- Abstract要約: 異種エージェントの学習性能を向上させるために,二段階多種集中訓練を提案する。
提案手法は,5対5のAIロボットサッカーを用いて検証を行う。
- 参考スコア(独自算出の注目度): 2.0757564643017092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multi-agent reinforcement learning, the cooperative learning behavior of
agents is very important. In the field of heterogeneous multi-agent
reinforcement learning, cooperative behavior among different types of agents in
a group is pursued. Learning a joint-action set during centralized training is
an attractive way to obtain such cooperative behavior, however, this method
brings limited learning performance with heterogeneous agents. To improve the
learning performance of heterogeneous agents during centralized training,
two-stage heterogeneous centralized training which allows the training of
multiple roles of heterogeneous agents is proposed. During training, two
training processes are conducted in a series. One of the two stages is to
attempt training each agent according to its role, aiming at the maximization
of individual role rewards. The other is for training the agents as a whole to
make them learn cooperative behaviors while attempting to maximize shared
collective rewards, e.g., team rewards. Because these two training processes
are conducted in a series in every timestep, agents can learn how to maximize
role rewards and team rewards simultaneously. The proposed method is applied to
5 versus 5 AI robot soccer for validation. Simulation results show that the
proposed method can train the robots of the robot soccer team effectively,
achieving higher role rewards and higher team rewards as compared to other
approaches that can be used to solve problems of training cooperative
multi-agent.
- Abstract(参考訳): マルチエージェント強化学習では,エージェントの協調学習行動が非常に重要である。
異種多エージェント強化学習の分野では、グループ内の異なる種類のエージェント間の協調行動が追求される。
集中トレーニング中に協調行動セットを学習することは、このような協調行動を得る魅力的な方法であるが、この方法は異種エージェントによる学習性能の制限をもたらす。
集中訓練における異種エージェントの学習性能を向上させるために,多種エージェントの訓練を可能にする2段階の異種集中訓練を提案する。
訓練中は2つの訓練プロセスが連続して行われる。
2つの段階の1つは、個々の役割報酬の最大化を目指して、それぞれのエージェントの役割に応じてトレーニングを試みることである。
もう1つは、協力行動を学ぶためにエージェント全体を訓練し、共通の報酬、例えばチーム報酬を最大化しようとすることである。
これら2つのトレーニングプロセスは、各タイムステップで連続して実行されるため、エージェントは役割報酬とチーム報酬を同時に最大化する方法を学ぶことができる。
提案手法は,5対5のAIロボットサッカーを用いて検証を行う。
シミュレーションの結果,ロボットサッカーチームのロボットを効果的に訓練し,協調型マルチエージェントの学習に使用できる他の手法と比較して高い役割報酬と高いチーム報酬を得ることができた。
関連論文リスト
- Multi-Agent Training for Pommerman: Curriculum Learning and Population-based Self-Play Approach [11.740631954398292]
Pommermanはマルチエージェントトレーニングのための理想的なベンチマークであり、同盟エージェント間のコミュニケーション能力を持つ2つのチームのための戦場を提供する。
本研究は,カリキュラム学習と人口ベースセルフプレイを組み合わせることで,Pommermanをプレイするマルチエージェントシステムを学習するためのシステムを提案する。
論文 参考訳(メタデータ) (2024-06-30T11:14:29Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Learning Heterogeneous Agent Cooperation via Multiagent League Training [6.801749815385998]
本研究ではヘテロジニアス・リーグ・トレーニング(HLT)と呼ばれる汎用強化学習アルゴリズムを提案する。
HLTは、エージェントがトレーニング中に調査したポリシーのプールを追跡し、将来のポリシー最適化を促進するために異質なポリシーの集合を集めている。
協力スキルのレベルが異なるチームメイトとのコラボレーションにおいて、エージェントの振る舞いの多様性を高めるために、ハイパーネットワークが導入される。
論文 参考訳(メタデータ) (2022-11-13T13:57:15Z) - ELIGN: Expectation Alignment as a Multi-Agent Intrinsic Reward [29.737986509769808]
本稿では,自己監督型固有報酬ELIGN-期待アライメントを提案する。
動物が周囲の動物と分散的に協力するのと同じように、期待アライメントで訓練されたエージェントは、隣人の期待に合う行動を学ぶ。
エージェント・コーディネーションは、エージェントがタスクを個別に分割し、コーディネーション・対称性を破り、敵を混乱させ、予測アライメントを通じて改善することを示す。
論文 参考訳(メタデータ) (2022-10-09T22:24:44Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Learning to Transfer Role Assignment Across Team Sizes [48.43860606706273]
チーム規模で役割の割り当てと移譲を学ぶためのフレームワークを提案する。
ロールベースの信用割当構造を再利用することで、より大きな強化学習チームの学習プロセスが促進されることを示す。
論文 参考訳(メタデータ) (2022-04-17T11:22:01Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Evaluating Generalization and Transfer Capacity of Multi-Agent
Reinforcement Learning Across Variable Number of Agents [0.0]
マルチエージェント強化学習(MARL)問題は、タスクを解決するためにエージェント間の協調を必要とすることが多い。
中央集権化と分散化は、MARLにおける協力のための2つのアプローチである。
分散実行パラダイムを用いた集中型トレーニングを採用し, エージェント数に応じて, 学習モデルの一般化と伝達能力について検討する。
論文 参考訳(メタデータ) (2021-11-28T15:29:46Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。