論文の概要: Continuous Reinforcement Learning-based Dynamic Difficulty Adjustment in
a Visual Working Memory Game
- arxiv url: http://arxiv.org/abs/2308.12726v1
- Date: Thu, 24 Aug 2023 12:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 14:18:03.736255
- Title: Continuous Reinforcement Learning-based Dynamic Difficulty Adjustment in
a Visual Working Memory Game
- Title(参考訳): 連続強化学習に基づく作業記憶ゲームにおける動的困難調整
- Authors: Masoud Rahimi, Hadi Moradi, Abdol-hossein Vahabie, Hamed Kebriaei
- Abstract要約: 強化学習(Reinforcement Learning, RL)法は、非競合ゲームにおける動的難易度調整(DDA)に用いられている。
本稿では,複雑な検索空間を記憶の難しさに対処するために,視覚的ワーキングメモリ(VWM)ゲームのための連続的なRLベースのDDA手法を提案する。
- 参考スコア(独自算出の注目度): 5.857929080874288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic Difficulty Adjustment (DDA) is a viable approach to enhance a
player's experience in video games. Recently, Reinforcement Learning (RL)
methods have been employed for DDA in non-competitive games; nevertheless, they
rely solely on discrete state-action space with a small search space. In this
paper, we propose a continuous RL-based DDA methodology for a visual working
memory (VWM) game to handle the complex search space for the difficulty of
memorization. The proposed RL-based DDA tailors game difficulty based on the
player's score and game difficulty in the last trial. We defined a continuous
metric for the difficulty of memorization. Then, we consider the task
difficulty and the vector of difficulty-score as the RL's action and state,
respectively. We evaluated the proposed method through a within-subject
experiment involving 52 subjects. The proposed approach was compared with two
rule-based difficulty adjustment methods in terms of player's score and game
experience measured by a questionnaire. The proposed RL-based approach resulted
in a significantly better game experience in terms of competence, tension, and
negative and positive affect. Players also achieved higher scores and win
rates. Furthermore, the proposed RL-based DDA led to a significantly less
decline in the score in a 20-trial session.
- Abstract(参考訳): Dynamic Difficulty Adjustment (DDA) は、ビデオゲームにおけるプレイヤーの経験を高めるための実行可能なアプローチである。
近年,非競争ゲームでは強化学習(rl)手法が採用されているが,検索空間が小さい離散状態空間のみに依存している。
本稿では,複雑な検索空間を扱うために,視覚ワーキングメモリ(VWM)ゲームのための連続的なRLベースのDDA手法を提案する。
提案されたRLベースのDDAは、前回のトライアルにおけるプレイヤーの得点とゲームの難易度に基づいてゲームの難易度を調整する。
我々は記憶の難しさのために連続的な計量を定義した。
次に、タスクの難易度と難易度スコアのベクトルをrlの動作と状態として考察する。
52名の被験者を対象に実験を行い,提案手法の評価を行った。
提案手法を2つのルールベース難易度調整法と比較し, 得点とゲーム経験を質問紙で測定した。
提案したRLベースのアプローチは、能力、緊張、ネガティブ、ポジティブな影響の点において、ゲーム体験を著しく改善した。
また、得点率や勝利率も高い。
さらに、提案されたRLベースのDDAは、20回のセッションでスコアが大幅に低下した。
関連論文リスト
- Balance, Imbalance, and Rebalance: Understanding Robust Overfitting from
a Minimax Game Perspective [80.51463286812314]
敵対的訓練(AT)はおそらく、頑健な特徴を抽出するための最先端のアルゴリズムである。
ATは、特に学習率(LR)が崩壊した後、深刻な強固な過適合問題に悩まされる。
我々は, LR崩壊が, より強い記憶能力でトレーナーに力を与えることにより, ミニマックスゲーム間のバランスを損なうことを示す。
論文 参考訳(メタデータ) (2023-10-30T09:00:11Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - Personalized Game Difficulty Prediction Using Factorization Machines [0.9558392439655011]
コンテンツレコメンデーションからの手法を借りて,ゲームレベルのパーソナライズした難易度推定に寄与する。
我々は、プレイヤーが将来のゲームレベルを通過させるのに必要な試行回数と、他のプレイヤーがプレイする以前のレベルの試行回数に基づいて、難易度を予測することができる。
この結果から,FMはゲームデザイナーがプレイヤー体験を最適化し,プレイヤーとゲームについてより深く学ぶことができる,有望なツールであることが示唆された。
論文 参考訳(メタデータ) (2022-09-06T08:03:46Z) - A Ranking Game for Imitation Learning [22.028680861819215]
模倣を、$textitpolicy$と$textitreward$関数の間の2プレイヤーランキングベースのStackelbergゲームとして扱う。
このゲームは、オフラインの好みから学習する逆強化学習(IRL)法と方法の両方の多くのサブセットを含んでいる。
本研究では,均衡条件下での準最適模倣学習を容易にするために,政策性能のランク付けに使用される損失関数の要件を理論的に分析する。
論文 参考訳(メタデータ) (2022-02-07T19:38:22Z) - DL-DDA -- Deep Learning based Dynamic Difficulty Adjustment with UX and
Gameplay constraints [0.8594140167290096]
ゲームによって課される他のプレイヤーやマクロ制約を考慮して,ユーザエクスペリエンスを自動的に最適化する手法を提案する。
ゲームデザインの専門家が作成したマニュアルを,20万ドルで実験し,その成果を実演した。
論文 参考訳(メタデータ) (2021-06-06T09:47:15Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - Exploring Dynamic Difficulty Adjustment in Videogames [0.0]
最近の研究テーマであるDDA(Dynamic Difficulty Adjustment)について紹介する。
DDAは、プレイヤーが関与し、適切に挑戦し続ける、自動的な難易度選択メカニズムを開発することを目的としている。
この問題に対処する最近の研究と、その実装方法の概要を紹介する。
論文 参考訳(メタデータ) (2020-07-06T15:05:20Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。