論文の概要: Optimal strategies in the Fighting Fantasy gaming system: influencing
stochastic dynamics by gambling with limited resource
- arxiv url: http://arxiv.org/abs/2002.10172v1
- Date: Mon, 24 Feb 2020 11:31:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 04:31:14.115360
- Title: Optimal strategies in the Fighting Fantasy gaming system: influencing
stochastic dynamics by gambling with limited resource
- Title(参考訳): ファイティングファンタジーゲームシステムにおける最適戦略:限られた資源を持つギャンブルによる確率力学への影響
- Authors: Iain G. Johnston
- Abstract要約: Fighting Fantasyは、世界で人気のあるレクリエーションファンタジーゲームシステムである。
各ラウンドでは、限られた資源(Luck')がギャンブルに費やされ、勝利の利益を増幅したり、損失から赤字を軽減したりすることができる。
我々は,システムに対するベルマン方程式の解法と,ゲーム中の任意の状態に対する最適な戦略を特定するために,後方帰納法を用いる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fighting Fantasy is a popular recreational fantasy gaming system worldwide.
Combat in this system progresses through a stochastic game involving a series
of rounds, each of which may be won or lost. Each round, a limited resource
(`luck') may be spent on a gamble to amplify the benefit from a win or mitigate
the deficit from a loss. However, the success of this gamble depends on the
amount of remaining resource, and if the gamble is unsuccessful, benefits are
reduced and deficits increased. Players thus dynamically choose to expend
resource to attempt to influence the stochastic dynamics of the game, with
diminishing probability of positive return. The identification of the optimal
strategy for victory is a Markov decision problem that has not yet been solved.
Here, we combine stochastic analysis and simulation with dynamic programming to
characterise the dynamical behaviour of the system in the absence and presence
of gambling policy. We derive a simple expression for the victory probability
without luck-based strategy. We use a backward induction approach to solve the
Bellman equation for the system and identify the optimal strategy for any given
state during the game. The optimal control strategies can dramatically enhance
success probabilities, but take detailed forms; we use stochastic simulation to
approximate these optimal strategies with simple heuristics that can be
practically employed. Our findings provide a roadmap to improving success in
the games that millions of people play worldwide, and inform a class of
resource allocation problems with diminishing returns in stochastic games.
- Abstract(参考訳): Fighting Fantasyは、世界で人気のあるレクリエーションファンタジーゲームシステムである。
このシステムでの戦闘は、一連のラウンドを含む確率ゲームを通じて進行し、それぞれが勝利または負ける可能性がある。
各ラウンドにおいて、限られた資源(`luck')をギャンブルに費やして、勝利の利益を増幅したり、赤字を損失から軽減したりすることができる。
しかし、このギャンブルの成功は、残りの資源の量によって異なり、ギャンブルが失敗した場合、利益は減少し、赤字は増加する。
したがって、プレイヤーはリソースを動的に選択してゲームの確率力学に影響を与えようとするが、正のリターンの確率は低下する。
勝利のための最適な戦略の特定は、まだ解決されていないマルコフの決定問題である。
本稿では,確率解析とシミュレーションを動的プログラミングと組み合わせて,ギャンブル政策の欠如と存在下でのシステムの動的挙動を特徴付ける。
幸運に基づく戦略を使わずに勝利確率の簡単な表現を導出する。
我々は,システムに対するベルマン方程式の解法と,ゲーム中の任意の状態に対する最適な戦略を特定するために,後方帰納法を用いる。
最適制御戦略は、成功確率を劇的に向上させることができるが、詳細な形状をとる。
本研究は,世界中の何百万人もの人がプレイするゲームの成功のロードマップを提供し,確率ゲームにおけるリターンの低下を伴う資源配分問題のクラスに通知する。
関連論文リスト
- ApproxED: Approximate exploitability descent via learned best responses [61.17702187957206]
連続的なアクションセットを持つゲームの近似的ナッシュ均衡を求める問題について検討する。
本稿では,戦略プロファイルに対するエクスプロイラビリティの近似を最小化する2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-01-20T23:55:30Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - A Genetic Algorithm approach to Asymmetrical Blotto Games with
Heterogeneous Valuations [0.0]
Blotto Gamesは多次元戦略資源割り当ての一般的なモデルである。
この問題を解決するために,生物進化から着想を得た遺伝的アルゴリズムを社会学習と解釈した。
遺伝的アルゴリズムは, 対称ブロットゲームの解析的ナッシュ均衡に収束することを示す。
論文 参考訳(メタデータ) (2021-03-26T10:20:19Z) - Collaborative Agent Gameplay in the Pandemic Board Game [3.223284371460913]
Pandemicは、すべてのプレイヤーがゲームの進行中に発生する出来事によって引き起こされる課題を克服するために調整する模範的な共同ボードゲームです。
本稿では,すべてのプレイヤーの行動を制御し,この高度に進化した環境において勝つ確率と負けるリスクをバランスさせる人工エージェントを提案する。
提案アルゴリズムは,様々な難易度を持つ異なるゲームにおいて,より一貫した勝利戦略を見出すことができることを示す。
論文 参考訳(メタデータ) (2021-03-21T13:18:20Z) - Disturbing Reinforcement Learning Agents with Corrupted Rewards [62.997667081978825]
強化学習アルゴリズムに対する報酬の摂動に基づく異なる攻撃戦略の効果を分析します。
敵対的な報酬をスムーズに作成することは学習者を誤解させることができ、低探査確率値を使用すると、学習した政策は報酬を腐敗させるのがより堅牢であることを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:53:48Z) - On the Impossibility of Convergence of Mixed Strategies with No Regret
Learning [10.515544361834241]
最適無後悔学習戦略の一般クラスから得られる混合戦略の収束特性について検討する。
各ステップに設定された情報を相手の実演の実証平均とする戦略のクラスを考察する。
論文 参考訳(メタデータ) (2020-12-03T18:02:40Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。