論文の概要: Mirror Mode in Fire Emblem: Beating Players at their own Game with Imitation and Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2512.11902v1
- Date: Wed, 10 Dec 2025 14:20:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.011663
- Title: Mirror Mode in Fire Emblem: Beating Players at their own Game with Imitation and Reinforcement Learning
- Title(参考訳): ファイアエンブレムのミラーモード:模倣と強化学習によるプレイヤーのゲームでのビーティング
- Authors: Yanna Elizabeth Smid, Peter van der Putten, Aske Plaat,
- Abstract要約: この研究は、敵のAIがプレイヤーの個人的な戦略を模倣してゲームプレイを変え続ける新しいゲームモードであるミラーモードを紹介した。
任天堂の戦略ゲーム『Fire Emblem Heroes』の簡易版がUnityに標準モードとミラーモードで製作された。
- 参考スコア(独自算出の注目度): 0.5061396377569701
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Enemy strategies in turn-based games should be surprising and unpredictable. This study introduces Mirror Mode, a new game mode where the enemy AI mimics the personal strategy of a player to challenge them to keep changing their gameplay. A simplified version of the Nintendo strategy video game Fire Emblem Heroes has been built in Unity, with a Standard Mode and a Mirror Mode. Our first set of experiments find a suitable model for the task to imitate player demonstrations, using Reinforcement Learning and Imitation Learning: combining Generative Adversarial Imitation Learning, Behavioral Cloning, and Proximal Policy Optimization. The second set of experiments evaluates the constructed model with player tests, where models are trained on demonstrations provided by participants. The gameplay of the participants indicates good imitation in defensive behavior, but not in offensive strategies. Participant's surveys indicated that they recognized their own retreating tactics, and resulted in an overall higher player-satisfaction for Mirror Mode. Refining the model further may improve imitation quality and increase player's satisfaction, especially when players face their own strategies. The full code and survey results are stored at: https://github.com/YannaSmid/MirrorMode
- Abstract(参考訳): ターンベースのゲームにおけるエニミー戦略は、驚きと予測不可能である。
この研究は、敵のAIがプレイヤーの個人的な戦略を模倣してゲームプレイを変え続ける新しいゲームモードであるミラーモードを紹介した。
任天堂の戦略ゲーム『Fire Emblem Heroes』の簡易版がUnityに標準モードとミラーモードで製作された。
最初の実験は、強化学習と模倣学習を用いて、プレイヤーのデモンストレーションを模倣するタスクに適したモデルを見つける。
2つ目の実験では、構成されたモデルをプレイヤーテストで評価し、参加者が提供したデモに基づいてモデルを訓練する。
参加者のゲームプレイは防御行動において良い模倣を示すが、攻撃的戦略ではそうではない。
参加者の調査は、彼らが自身の撤退戦術を認識し、ミラーモードに対する全体的なプレイヤー満足度が向上したことを示している。
モデルをさらに改良することで、模倣品質が向上し、特にプレイヤーが自身の戦略に直面する場合、プレイヤーの満足度が向上する可能性がある。
コードと調査結果の全文は、 https://github.com/YannaSmid/MirrorMode.comに格納されている。
関連論文リスト
- Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - Know your Enemy: Investigating Monte-Carlo Tree Search with Opponent
Models in Pommerman [14.668309037894586]
強化学習(Reinforcement Learning)と組み合わせて、モンテカルロ木探索(Monte-Carlo Tree Search)はChess、Shogi、Goといったゲームにおいて、人間のグランドマスターよりも優れていることを示した。
汎用マルチプレイヤーゲームからシングルプレイヤーゲームと2プレイヤーゲームに変換する手法について検討する。
論文 参考訳(メタデータ) (2023-05-22T16:39:20Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - L2E: Learning to Exploit Your Opponent [66.66334543946672]
本稿では,暗黙的対向モデリングのための新しい学習フレームワークを提案する。
L2Eは、トレーニング中に異なる相手との対話によって、相手を悪用する能力を取得する。
本稿では, 対戦相手を自動的に生成する新しい対戦相手戦略生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-18T14:27:59Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Deep Reinforcement Learning for FlipIt Security Game [2.0624765454705654]
本稿では,エージェントが対戦者の異なるクラスに適応し,最適な対ストラテジーを学習する深層学習モデルについて述べる。
FlipItは、プレイヤー、攻撃者、ディフェンダーの双方が共有リソースの所有権を競う2人プレイのセキュリティゲームです。
我々のモデルは、Qラーニングと組み合わせたディープニューラルネットワークであり、リソースの所有時間の最大化のために訓練されている。
論文 参考訳(メタデータ) (2020-02-28T18:26:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。