論文の概要: Portfolio Search and Optimization for General Strategy Game-Playing
- arxiv url: http://arxiv.org/abs/2104.10429v1
- Date: Wed, 21 Apr 2021 09:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 20:59:09.653801
- Title: Portfolio Search and Optimization for General Strategy Game-Playing
- Title(参考訳): 一般戦略ゲームプレイングのためのポートフォリオ探索と最適化
- Authors: Alexander Dockhorn, Jorge Hurtado-Grueso, Dominik Jeurissen, Linjie
Xu, Diego Perez-Liebana
- Abstract要約: ローリングホライズン進化アルゴリズムに基づく最適化とアクション選択のための新しいアルゴリズムを提案する。
エージェントのパラメータとポートフォリオセットの最適化について,N-tuple Bandit Evolutionary Algorithmを用いて検討する。
エージェントの性能分析により,提案手法はすべてのゲームモードによく一般化し,他のポートフォリオ手法よりも優れることが示された。
- 参考スコア(独自算出の注目度): 58.896302717975445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Portfolio methods represent a simple but efficient type of action abstraction
which has shown to improve the performance of search-based agents in a range of
strategy games. We first review existing portfolio techniques and propose a new
algorithm for optimization and action-selection based on the Rolling Horizon
Evolutionary Algorithm. Moreover, a series of variants are developed to solve
problems in different aspects. We further analyze the performance of discussed
agents in a general strategy game-playing task. For this purpose, we run
experiments on three different game-modes of the Stratega framework. For the
optimization of the agents' parameters and portfolio sets we study the use of
the N-tuple Bandit Evolutionary Algorithm. The resulting portfolio sets suggest
a high diversity in play-styles while being able to consistently beat the
sample agents. An analysis of the agents' performance shows that the proposed
algorithm generalizes well to all game-modes and is able to outperform other
portfolio methods.
- Abstract(参考訳): ポートフォリオ法は, 多様な戦略ゲームにおいて, 探索型エージェントの性能向上を図った, 単純かつ効率的な動作抽象化である。
まず,既存のポートフォリオ手法をレビューし,ローリング水平進化アルゴリズムに基づく最適化と行動選択のための新しいアルゴリズムを提案する。
さらに、様々な側面の問題を解決するために一連の変種が開発されている。
汎用戦略ゲームプレイングタスクにおいて議論されたエージェントのパフォーマンスをさらに分析する。
この目的のために、Strategaフレームワークの3つの異なるゲームモードで実験を行う。
エージェントのパラメータとポートフォリオセットの最適化について,N-tuple Bandit Evolutionary Algorithmを用いて検討する。
その結果得られたポートフォリオセットは、サンプルエージェントを一貫して打ち負かしながら、プレイスタイルの多様性が高いことを示唆している。
エージェントの性能分析により,提案手法はすべてのゲームモードによく一般化し,他のポートフォリオ手法よりも優れることが示された。
関連論文リスト
- Deep Reinforcement Learning for Online Optimal Execution Strategies [49.1574468325115]
本稿では,動的な金融市場における非マルコフ的最適実行戦略の学習に挑戦する。
我々は,Deep Deterministic Policy Gradient(DDPG)に基づく新しいアクター批判アルゴリズムを提案する。
提案アルゴリズムは最適実行戦略の近似に成功していることを示す。
論文 参考訳(メタデータ) (2024-10-17T12:38:08Z) - An accelerate Prediction Strategy for Dynamic Multi-Objective Optimization [7.272641346606365]
本稿では,進化的アルゴリズムフレームワークにおける予測戦略の高速化のための新しいアプローチを提案する。
本稿では,アルゴリズムの探索動作を予測・調整するために,二階微分を組み込んだ適応予測戦略を提案する。
標準DMOPのベンチマーク問題を用いて,提案手法の性能を4つの最先端アルゴリズムと比較した。
論文 参考訳(メタデータ) (2024-10-08T08:13:49Z) - Deep Reinforcement Learning for Dynamic Algorithm Selection: A
Proof-of-Principle Study on Differential Evolution [27.607740475924448]
本稿では,この課題を実現するための強化学習に基づく動的アルゴリズム選択フレームワークを提案する。
我々は、最適な動作を推測し、アルゴリズムの選択を確実にするために、洗練されたディープニューラルネットワークモデルを用いる。
基礎研究として、この枠組みを微分進化アルゴリズム群に適用する。
論文 参考訳(メタデータ) (2024-03-04T15:40:28Z) - PS-AAS: Portfolio Selection for Automated Algorithm Selection in
Black-Box Optimization [4.842307002343618]
自動アルゴリズム選択のパフォーマンスは、選択するアルゴリズムのポートフォリオに依存する。
実際には、おそらくポートフォリオのアルゴリズムを選択する最も一般的な方法は、いくつかの参照タスクにおいてうまく機能するアルゴリズムを欲しがる選択である。
提案手法は,アルゴリズムの振る舞いのメタ表現を作成し,そのメタ表現の類似性に基づいて,アルゴリズムの集合からグラフを構築し,グラフアルゴリズムを適用して,多様な,代表的,非冗長なアルゴリズムの最終的なポートフォリオを選択する。
論文 参考訳(メタデータ) (2023-10-14T12:13:41Z) - Local Optimization Achieves Global Optimality in Multi-Agent
Reinforcement Learning [139.53668999720605]
本稿では,各エージェントのローカルポリシーをバニラPPOと同様に更新するマルチエージェントPPOアルゴリズムを提案する。
マルコフゲームにおける標準正則条件と問題依存量により、我々のアルゴリズムはサブリニアレートで大域的最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2023-05-08T16:20:03Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - A novel multiobjective evolutionary algorithm based on decomposition and
multi-reference points strategy [14.102326122777475]
分解に基づく多目的進化アルゴリズム(MOEA/D)は、多目的最適化問題(MOP)を解く上で、極めて有望なアプローチであると考えられている。
本稿では,よく知られたPascoletti-Serafiniスキャラライゼーション法とマルチ参照ポイントの新たな戦略により,MOEA/Dアルゴリズムの改良を提案する。
論文 参考訳(メタデータ) (2021-10-27T02:07:08Z) - Meta Navigator: Search for a Good Adaptation Policy for Few-shot
Learning [113.05118113697111]
少ないショット学習は、ラベル付きデータしか持たない新しいタスクに、以前のタスクから学んだ知識を適応させることを目的としている。
少数ショット学習に関する研究文献は、大きな多様性を示し、異なるアルゴリズムは、しばしば異なる少数ショット学習シナリオで優れている。
本稿では,メタナビゲータ(Meta Navigator)について紹介する。
論文 参考訳(メタデータ) (2021-09-13T07:20:01Z) - PAMELI: A Meta-Algorithm for Computationally Expensive Multi-Objective
Optimization Problems [0.0]
提案アルゴリズムは,実モデルのモデルによって定義される一連の代理問題の解法に基づく。
また,最適化ランドスケープのための最適なサロゲートモデルとナビゲーション戦略のメタ検索を行う。
論文 参考訳(メタデータ) (2021-03-19T11:18:03Z) - Generalization in portfolio-based algorithm selection [97.74604695303285]
ポートフォリオベースのアルゴリズム選択に関する最初の証明可能な保証を提供する。
ポートフォリオが大きければ、非常に単純なアルゴリズムセレクタであっても、過剰適合は避けられないことを示す。
論文 参考訳(メタデータ) (2020-12-24T16:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。