論文の概要: Rolling Horizon Evolutionary Algorithms for General Video Game Playing
- arxiv url: http://arxiv.org/abs/2003.12331v2
- Date: Mon, 24 Aug 2020 14:03:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 04:27:32.050913
- Title: Rolling Horizon Evolutionary Algorithms for General Video Game Playing
- Title(参考訳): 汎用ゲームプレイングのためのローリング水平進化アルゴリズム
- Authors: Raluca D. Gaina, Sam Devlin, Simon M. Lucas, Diego Perez-Liebana
- Abstract要約: ローリング水平進化アルゴリズム(Rolling Horizon Evolutionary Algorithms)は、最近、多くのビデオゲームで勝利率で最先端の技術を破ることに成功した。
本稿では,ローリング水平進化アルゴリズム(Rolling Horizon Evolutionary Algorithms)における技術の現状について述べる。
次に、パラメータオプティマイザであるN-Tuple Bandit Evolutionary Algorithmを用いて、General Video Game AI Frameworkから20のゲームで最適なパラメータの組み合わせを見つける。
- 参考スコア(独自算出の注目度): 4.560263516804932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Game-playing Evolutionary Algorithms, specifically Rolling Horizon
Evolutionary Algorithms, have recently managed to beat the state of the art in
win rate across many video games. However, the best results in a game are
highly dependent on the specific configuration of modifications and hybrids
introduced over several papers, each adding additional parameters to the core
algorithm. Further, the best previously published parameters have been found
from only a few human-picked combinations, as the possibility space has grown
beyond exhaustive search. This paper presents the state of the art in Rolling
Horizon Evolutionary Algorithms, combining all modifications described in
literature, as well as new ones, for a large resultant hybrid. We then use a
parameter optimiser, the N-Tuple Bandit Evolutionary Algorithm, to find the
best combination of parameters in 20 games from the General Video Game AI
Framework. Further, we analyse the algorithm's parameters and some interesting
combinations revealed through the optimisation process. Lastly, we find new
state of the art solutions on several games by automatically exploring the
large parameter space of RHEA.
- Abstract(参考訳): ゲームプレイング進化的アルゴリズム、特にローリング水平進化的アルゴリズムは、最近、多くのビデオゲームで勝利率で芸術の状態を破ることに成功した。
しかし、ゲームの最良の結果は、いくつかの論文で導入された修正とハイブリッドの特定の構成に大きく依存しており、それぞれがコアアルゴリズムにパラメータを追加する。
さらに、これまで公表された最も優れたパラメータは、網羅的な探索を超えて空間が成長しているため、少数の人間による組み合わせからのみ発見されている。
本稿では, ローリング・ホライズン進化アルゴリズムにおける技術の現状について述べる。このアルゴリズムは, 文献に記述されたすべての修正と, 新たな改良を, 大規模なハイブリッドに組み合わせるものである。
次に、パラメータオプティマイザであるN-Tuple Bandit Evolutionary Algorithmを用いて、General Video Game AI Frameworkから20のゲームで最適なパラメータの組み合わせを見つける。
さらに,最適化プロセスを通じてアルゴリズムのパラメータといくつかの興味深い組み合わせを分析した。
最後に、RHEAの大きなパラメータ空間を自動的に探索することにより、複数のゲーム上でのアートソリューションの新たな状態を見つける。
関連論文リスト
- Runtime analysis of a coevolutionary algorithm on impartial combinatorial games [1.104960878651584]
進化的アルゴリズム(CoEA)は、現代人との相互作用に基づいて最強を反復的に選択し、次の世代で両親として選択した個体群を用いて、個体群を進化させる。
しかし,CoEAのゲームプレイへの応用はサイクリングなどの病理的行動のため,実行時のペイオフ状況において特に問題となる。
本稿では,解析の範囲を推し進め,公平なゲームのための最適な戦略を見出す。
この結果はどんな公平なゲームにも当てはまり、多くのゲームでは、インプリッド・バウンドは数の関数として、あるいは準ポリノミアルである。
論文 参考訳(メタデータ) (2024-09-06T10:39:17Z) - Superior Genetic Algorithms for the Target Set Selection Problem Based on Power-Law Parameter Choices and Simple Greedy Heuristics [9.044970217182117]
本稿では,2つの簡単な修正を施したバイアスランダムキー遺伝的アルゴリズム(BRKGA)により,より優れた結果が得られることを示す。
すると、グラフ全体に到達するのに不要な、小さな度合いの頂点を何度も捨てるために、自然な欲求を加える。
結果として得られるアルゴリズムは、最先端の全てのアルゴリズムを一貫して上回る。
論文 参考訳(メタデータ) (2024-04-05T11:02:02Z) - On the Convergence of No-Regret Learning Dynamics in Time-Varying Games [89.96815099996132]
時間変化ゲームにおける楽観的勾配降下(OGD)の収束を特徴付ける。
我々のフレームワークは、ゼロサムゲームにおけるOGDの平衡ギャップに対して鋭い収束境界をもたらす。
また,静的ゲームにおける動的後悔の保証に関する新たな洞察も提供する。
論文 参考訳(メタデータ) (2023-01-26T17:25:45Z) - Policy Optimization for Markov Games: Unified Framework and Faster
Convergence [81.3266426402464]
このアルゴリズムのステートワイド平均ポリシはゲームの近似ナッシュ平衡(NE)に収束することを示す。
このアルゴリズムをマルチプレイヤー一般のMarkov Gamesに拡張し、CCE(Correlated Equilibria)への$mathcalwidetildeO(T-1/2)$収束率を示す。
論文 参考訳(メタデータ) (2022-06-06T14:23:13Z) - Optimal Correlated Equilibria in General-Sum Extensive-Form Games: Fixed-Parameter Algorithms, Hardness, and Two-Sided Column-Generation [78.48747645545944]
ワイドフォームゲームにおいて,様々な種類の最適平衡を求める問題について検討する。
これら3つの概念のすべてに最適な平衡を計算するための新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-03-14T15:21:18Z) - Battle royale optimizer with a new movement strategy [0.0]
本稿では,探索と利用のバランスを改善するため,改良型BRO(M-BRO)を提案する。
この修正アルゴリズムの複雑さは、元のアルゴリズムと同じである。
その結果, 運動演算子を付加したBROは, 複雑な数値最適化問題を解くのに有効であることがわかった。
論文 参考訳(メタデータ) (2022-01-19T16:36:13Z) - Towards General Function Approximation in Zero-Sum Markov Games [126.58493169301012]
本稿では,同時移動を伴う2プレーヤゼロサム有限ホライゾンマルコフゲームについて考察する。
分離された設定とコーディネートされた設定の両方の効率的なアルゴリズムが開発されている。
論文 参考訳(メタデータ) (2021-07-30T15:25:13Z) - Last-iterate Convergence in Extensive-Form Games [49.31256241275577]
逐次ゲームにおける楽観的アルゴリズムの最後の点収束について検討する。
これらのアルゴリズムはいずれも最終点収束を楽しみ、そのいくつかは指数関数的に高速に収束する。
論文 参考訳(メタデータ) (2021-06-27T22:02:26Z) - Portfolio Search and Optimization for General Strategy Game-Playing [58.896302717975445]
ローリングホライズン進化アルゴリズムに基づく最適化とアクション選択のための新しいアルゴリズムを提案する。
エージェントのパラメータとポートフォリオセットの最適化について,N-tuple Bandit Evolutionary Algorithmを用いて検討する。
エージェントの性能分析により,提案手法はすべてのゲームモードによく一般化し,他のポートフォリオ手法よりも優れることが示された。
論文 参考訳(メタデータ) (2021-04-21T09:28:28Z) - Generating and Blending Game Levels via Quality-Diversity in the Latent
Space of a Variational Autoencoder [7.919213739992465]
ここでは,vaesアルゴリズムとqdアルゴリズムを組み合わせたレベル生成とゲームブレンド手法を提案する。
具体的には,ゲームレベルでVAEをトレーニングし,学習したVAEの潜在空間を探索空間としてMAP-Elites QDアルゴリズムを実行する。
論文 参考訳(メタデータ) (2021-02-24T18:44:23Z) - Rolling Horizon NEAT for General Video Game Playing [1.160208922584163]
本稿では,拡張トポロジ(rhNEAT)のローリング水平神経進化という,新しい統計的前方計画法を提案する。
従来のローリング・ホライゾン・エボリューションとは異なり、rhNEATはリアルタイムでニューラルネットワークの重みと接続を進化させ、ゲームで実行するアクションを返す前にいくつかのステップを計画する。
論文 参考訳(メタデータ) (2020-05-14T07:25:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。