論文の概要: Diversity is Strength: Mastering Football Full Game with Interactive
Reinforcement Learning of Multiple AIs
- arxiv url: http://arxiv.org/abs/2306.15903v1
- Date: Wed, 28 Jun 2023 03:56:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 15:54:59.825486
- Title: Diversity is Strength: Mastering Football Full Game with Interactive
Reinforcement Learning of Multiple AIs
- Title(参考訳): 多様性と強み - 複数のAIの相互強化学習によるサッカーフルゲームをマスターする
- Authors: Chenglu Sun, Shuo Shen, Sijia Xu, Weidong Zhang
- Abstract要約: 本稿では,多種多様なAIを同時に訓練できる新しいDRLトレーニングフレームワークであるDiversity is Strength (DIS)を提案する。
これらのAIは相互接続された履歴モデルプール構造を介してリンクされ、その能力と戦略の多様性が向上する。
私たちはGoogle Research Football(GRF)に基づいたAIコンペティションでテストを行い、5v5と11v11のトラックで優勝しました。
- 参考スコア(独自算出の注目度): 4.020287169811583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training AI with strong and rich strategies in multi-agent environments
remains an important research topic in Deep Reinforcement Learning (DRL). The
AI's strength is closely related to its diversity of strategies, and this
relationship can guide us to train AI with both strong and rich strategies. To
prove this point, we propose Diversity is Strength (DIS), a novel DRL training
framework that can simultaneously train multiple kinds of AIs. These AIs are
linked through an interconnected history model pool structure, which enhances
their capabilities and strategy diversities. We also design a model evaluation
and screening scheme to select the best models to enrich the model pool and
obtain the final AI. The proposed training method provides diverse,
generalizable, and strong AI strategies without using human data. We tested our
method in an AI competition based on Google Research Football (GRF) and won the
5v5 and 11v11 tracks. The method enables a GRF AI to have a high level on both
5v5 and 11v11 tracks for the first time, which are under complex multi-agent
environments. The behavior analysis shows that the trained AI has rich
strategies, and the ablation experiments proved that the designed modules
benefit the training process.
- Abstract(参考訳): マルチエージェント環境で強力で豊かな戦略でAIを訓練することは、Deep Reinforcement Learning(DRL)において重要な研究トピックである。
AIの強みは戦略の多様性と密接に関連しており、この関係は、強い戦略と豊かな戦略の両方でAIを訓練するためのガイドとなります。
この点を証明するために、多種多様なAIを同時に訓練できる新しいDRLトレーニングフレームワークであるDiversity is Strength (DIS)を提案する。
これらのAIは相互接続された履歴モデルプール構造を介してリンクされ、その能力と戦略の多様性を高める。
また、モデルプールを強化し、最終的なAIを得るために最適なモデルを選択するためのモデル評価およびスクリーニングスキームを設計する。
提案手法は,人的データを用いることなく,多様で汎用的で強力なAI戦略を提供する。
私たちはGoogle Research Football(GRF)に基づいたAIコンペでテストを行い、5v5と11v11のトラックで優勝しました。
この方法により、GRF AIは、複雑なマルチエージェント環境下で、5v5と11v11トラックの両方で、初めてハイレベルになる。
行動分析により、トレーニングされたAIは豊富な戦略を持ち、アブレーション実験は、設計されたモジュールがトレーニングプロセスの恩恵を受けることを示した。
関連論文リスト
- Mastering Chinese Chess AI (Xiangqi) Without Search [2.309569018066392]
我々は,検索アルゴリズムに頼らずに動作する高性能な中国チェスAIを開発した。
このAIは、人間の上位0.1%のプレイヤーと競争する能力を示した。
論文 参考訳(メタデータ) (2024-10-07T09:27:51Z) - Mastering the Digital Art of War: Developing Intelligent Combat Simulation Agents for Wargaming Using Hierarchical Reinforcement Learning [0.0]
対象とする観察抽象化、マルチモデル統合、ハイブリッドAIフレームワーク、階層的な強化学習フレームワークなど、包括的なアプローチを提案する。
線形空間減衰を用いた局所的な観測抽象化は,RL問題を単純化し,計算効率を向上し,従来の大域的観測法よりも優れた有効性を示す。
我々のハイブリッドAIフレームワークは、スクリプトエージェントとRLを同期させ、高レベルの決定にRLを、低レベルのタスクにスクリプトエージェントを活用し、適応性、信頼性、パフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-08-23T18:50:57Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Improving Generalization of Alignment with Human Preferences through
Group Invariant Learning [56.19242260613749]
Reinforcement Learning from Human Feedback (RLHF) は、人間の好みに合わせた反応の生成を可能にする。
以前の研究は、強化学習(RL)がしばしばショートカットを利用して高い報酬を獲得し、挑戦的なサンプルを見落としていることを示している。
本稿では,複数のデータグループやドメインにまたがる一貫したポリシをRLで学習する,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-18T13:54:15Z) - Diversity-based Deep Reinforcement Learning Towards Multidimensional
Difficulty for Fighting Game AI [0.9645196221785693]
多様性に基づく深層強化学習手法を導入し,類似した難易度を持つエージェント群を創出する。
このアプローチは,多様性と性能の両面で,専門的かつ人為的な報酬関数で訓練されたベースラインを上回っている。
論文 参考訳(メタデータ) (2022-11-04T21:49:52Z) - DIAMBRA Arena: a New Reinforcement Learning Platform for Research and
Experimentation [91.3755431537592]
本研究は、強化学習研究と実験のための新しいプラットフォームであるDIAMBRA Arenaを提示する。
高品質な環境のコレクションが,OpenAI Gym標準に完全に準拠したPython APIを公開している。
これらは、離散的なアクションと観測を生のピクセルと追加の数値で構成したエピソディックなタスクである。
論文 参考訳(メタデータ) (2022-10-19T14:39:10Z) - Instructive artificial intelligence (AI) for human training, assistance,
and explainability [0.24629531282150877]
ニューラルネットワークが従来のAI(XAI)の代替手段として人間の研修生にどのように教えるかを示す。
AIは人間の行動を調べ、より良いパフォーマンスをもたらす人間の戦略のバリエーションを計算する。
結果は、ハナビにおける人間の意思決定と人間-AIチームを改善するAIインストラクションの能力について提示される。
論文 参考訳(メタデータ) (2021-11-02T16:46:46Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Multi-AI competing and winning against humans in iterated
Rock-Paper-Scissors game [4.2124879433151605]
我々は1つの固定メモリ長のマルコフモデルに基づくAIアルゴリズムを用いて、反復したRock Paper Scissorsゲームで人間と競合する。
我々は、異なる競合戦略に対応するために、変更可能なパラメータを持つマルチAIアーキテクチャを開発する。
我々の戦略は、95%以上の人間の対戦相手に勝つことができる。
論文 参考訳(メタデータ) (2020-03-15T06:39:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。