論文の概要: Pick Your Battles: Interaction Graphs as Population-Level Objectives for
Strategic Diversity
- arxiv url: http://arxiv.org/abs/2110.04041v1
- Date: Fri, 8 Oct 2021 11:29:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 15:09:48.116197
- Title: Pick Your Battles: Interaction Graphs as Population-Level Objectives for
Strategic Diversity
- Title(参考訳): 戦いを選ぶ: 戦略的多様性のための人口レベルの目標としての対話グラフ
- Authors: Marta Garnelo, Wojciech Marian Czarnecki, Siqi Liu, Dhruva Tirumala,
Junhyuk Oh, Gauthier Gidel, Hado van Hasselt, David Balduzzi
- Abstract要約: 我々は、集団内の個人がどのように相互作用するかを慎重に構造化することで、多様なエージェントの集団を構築する方法について研究する。
我々のアプローチは,エージェント間の情報の流れを制御するインタラクショングラフに基づいている。
マルチエージェント・トレーニングにおける多様性の重要性を証明し,様々な相互作用グラフを適用したゲームにおけるトレーニング・トラジェクトリ,多様性,パフォーマンスに与える影響を解析する。
- 参考スコア(独自算出の注目度): 49.68758494467258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Strategic diversity is often essential in games: in multi-player games, for
example, evaluating a player against a diverse set of strategies will yield a
more accurate estimate of its performance. Furthermore, in games with
non-transitivities diversity allows a player to cover several winning
strategies. However, despite the significance of strategic diversity, training
agents that exhibit diverse behaviour remains a challenge. In this paper we
study how to construct diverse populations of agents by carefully structuring
how individuals within a population interact. Our approach is based on
interaction graphs, which control the flow of information between agents during
training and can encourage agents to specialise on different strategies,
leading to improved overall performance. We provide evidence for the importance
of diversity in multi-agent training and analyse the effect of applying
different interaction graphs on the training trajectories, diversity and
performance of populations in a range of games. This is an extended version of
the long abstract published at AAMAS.
- Abstract(参考訳): 戦略の多様性はゲームにおいて不可欠であり、例えばマルチプレイヤーゲームでは、様々な戦略に対してプレイヤーを評価すると、そのパフォーマンスをより正確に見積もることができる。
さらに、非トランジティビティの多様性を持つゲームでは、プレイヤーはいくつかの勝利戦略をカバーできる。
しかし、戦略的な多様性の重要性にもかかわらず、多様な行動を示す訓練エージェントは依然として課題である。
本稿では,集団内の個人がどのように相互作用するかを慎重に構造化し,エージェントの多様な集団を構築する方法について検討する。
我々のアプローチは,エージェント間の情報の流れを制御し,エージェントがさまざまな戦略を専門化するように促す相互作用グラフに基づいており,全体的なパフォーマンスが向上する。
マルチエージェント・トレーニングにおける多様性の重要性を証明し,様々な相互作用グラフを適用したゲームにおけるトレーニングの軌跡,多様性,パフォーマンスに与える影響を分析する。
これは aamas で出版された long abstract の拡張版である。
関連論文リスト
- Measuring Diversity of Game Scenarios [15.100151112002235]
我々は,現在の文学と実践のギャップを埋めることを目指しており,ゲームシナリオにおける多様性の測定と統合のための効果的な戦略に関する洞察を提供する。
この調査は、様々なゲームシナリオにおける将来の研究の道筋を示すだけでなく、多様性をゲームデザインと開発の重要な要素として活用しようとする業界の実践者のためのハンドブックとしても機能する。
論文 参考訳(メタデータ) (2024-04-15T07:59:52Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - Generating Personas for Games with Multimodal Adversarial Imitation
Learning [47.70823327747952]
強化学習は、人間のレベルでゲームをすることができるエージェントを生産する上で、広く成功している。
強化学習を超えて進むことは、幅広い人間のプレイスタイルをモデル化するために必要である。
本稿では,プレイテストのための複数のペルソナポリシーを生成するための,新しい模倣学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T06:58:19Z) - Learning Meta Representations for Agents in Multi-Agent Reinforcement
Learning [12.170248966278281]
多エージェント強化学習では、エージェントが1つのマルコフゲーム(MG)で学習する振る舞いは、通常、与えられたエージェント番号に制限される。
本研究は,人口変動型MGを対象とするエージェントの創出に焦点をあてる。
一元的なポリシーを学ぶ代わりに、各エージェントは、様々なゲームにまたがる効果的な戦略を構成するポリシーセットを学ぶ。
論文 参考訳(メタデータ) (2021-08-30T04:30:53Z) - Unifying Behavioral and Response Diversity for Open-ended Learning in
Zero-sum Games [44.30509625560908]
オープンエンド学習アルゴリズムでは、多様性の定義が広く受け入れられておらず、多様なポリシーの構築と評価が困難である。
行動多様性(BD)と反応多様性(RD)の両方に基づくマルチエージェントオープンエンド学習における多様性の統一尺度を提案する。
現在,多くの多様性対策が,BDやRDのカテゴリの1つに該当するが,両方ではないことを示す。
この統一された多様性尺度を用いて、オープンエンド学習における最良の応答を求める際に、対応する多様性促進目標と人口効果度を設計する。
論文 参考訳(メタデータ) (2021-06-09T10:11:06Z) - Policy Fusion for Adaptive and Customizable Reinforcement Learning
Agents [137.86426963572214]
異なる行動政策を結合して有意義な「融合」政策を得る方法を示す。
事前学習されたポリシーを組み合わせるための4つの異なるポリシー融合手法を提案する。
これらの手法がゲーム制作や設計に実際どのように役立つのか,実例とユースケースをいくつか紹介する。
論文 参考訳(メタデータ) (2021-04-21T16:08:44Z) - Modelling Behavioural Diversity for Learning in Open-Ended Games [15.978932309579013]
ゲームにおける行動の多様性を幾何学的に解釈する。
DPP(Emphdeterminantal point process)に基づく新しい多様性指標を提案する。
多様なベストレスポンスのユニークさと、2プレイヤーゲームにおけるアルゴリズムの収束性を証明する。
論文 参考訳(メタデータ) (2021-03-14T13:42:39Z) - Quantifying environment and population diversity in multi-agent
reinforcement learning [7.548322030720646]
一般化は多エージェント強化学習の大きな課題である。
本稿では,マルチエージェント領域における一般化と多様性の関係を定量的に検討する。
共同演奏者の変動が与える影響をよりよく理解するために,実験では,行動の多様性の環境によらない新しい尺度を導入する。
論文 参考訳(メタデータ) (2021-02-16T18:54:39Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。