論文の概要: DL-DDA -- Deep Learning based Dynamic Difficulty Adjustment with UX and
Gameplay constraints
- arxiv url: http://arxiv.org/abs/2106.03075v1
- Date: Sun, 6 Jun 2021 09:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:33:56.206355
- Title: DL-DDA -- Deep Learning based Dynamic Difficulty Adjustment with UX and
Gameplay constraints
- Title(参考訳): DL-DDA -- UXとゲームプレイ制約によるディープラーニングに基づく動的困難調整
- Authors: Dvir Ben Or, Michael Kolomenkin, Gil Shabat
- Abstract要約: ゲームによって課される他のプレイヤーやマクロ制約を考慮して,ユーザエクスペリエンスを自動的に最適化する手法を提案する。
ゲームデザインの専門家が作成したマニュアルを,20万ドルで実験し,その成果を実演した。
- 参考スコア(独自算出の注目度): 0.8594140167290096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic difficulty adjustment ($DDA$) is a process of automatically changing
a game difficulty for the optimization of user experience. It is a vital part
of almost any modern game. Most existing DDA approaches concentrate on the
experience of a player without looking at the rest of the players. We propose a
method that automatically optimizes user experience while taking into
consideration other players and macro constraints imposed by the game. The
method is based on deep neural network architecture that involves a count loss
constraint that has zero gradients in most of its support. We suggest a method
to optimize this loss function and provide theoretical analysis for its
performance. Finally, we provide empirical results of an internal experiment
that was done on $200,000$ players and was found to outperform the
corresponding manual heuristics crafted by game design experts.
- Abstract(参考訳): 動的難易度調整(dda$)は、ユーザエクスペリエンスの最適化のためにゲーム難易度を自動的に変更するプロセスである。
ほぼ全ての現代ゲームにおいて重要な要素である。
既存のDDAアプローチのほとんどは、他のプレイヤーを見ることなくプレイヤーの経験に集中している。
ゲームによって課される他のプレイヤーやマクロ制約を考慮して,ユーザエクスペリエンスを自動的に最適化する手法を提案する。
この手法はディープニューラルネットワークアーキテクチャに基づいており、ほとんどのサポートにおいて勾配がゼロのカウントロス制約を含む。
この損失関数を最適化し,その性能を理論的に解析する手法を提案する。
最後に,ゲーム設計の専門家による手動ヒューリスティックスよりも優れ,20万ドルのプレイヤーに対して行われた内部実験の実証結果について報告する。
関連論文リスト
- Personalized Dynamic Difficulty Adjustment -- Imitation Learning Meets Reinforcement Learning [44.99833362998488]
本研究では,機械学習をベースとしたエージェントを用いて,現在の動作に基づいてプレイヤーに挑戦するゲーム難易度について検討する。
これは2つのエージェントの組み合わせによって達成され、1つはプレイヤーを模倣することを学び、もう1つは1つを倒すように訓練される。
本稿では,対戦ゲームAIコンペティションにおけるAIエージェントの動的難易度調整のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T11:24:12Z) - Balance, Imbalance, and Rebalance: Understanding Robust Overfitting from
a Minimax Game Perspective [80.51463286812314]
敵対的訓練(AT)はおそらく、頑健な特徴を抽出するための最先端のアルゴリズムである。
ATは、特に学習率(LR)が崩壊した後、深刻な強固な過適合問題に悩まされる。
我々は, LR崩壊が, より強い記憶能力でトレーナーに力を与えることにより, ミニマックスゲーム間のバランスを損なうことを示す。
論文 参考訳(メタデータ) (2023-10-30T09:00:11Z) - Continuous Reinforcement Learning-based Dynamic Difficulty Adjustment in
a Visual Working Memory Game [5.857929080874288]
強化学習(Reinforcement Learning, RL)法は、非競合ゲームにおける動的難易度調整(DDA)に用いられている。
本稿では,複雑な検索空間を記憶の難しさに対処するために,視覚的ワーキングメモリ(VWM)ゲームのための連続的なRLベースのDDA手法を提案する。
論文 参考訳(メタデータ) (2023-08-24T12:05:46Z) - Personalized Game Difficulty Prediction Using Factorization Machines [0.9558392439655011]
コンテンツレコメンデーションからの手法を借りて,ゲームレベルのパーソナライズした難易度推定に寄与する。
我々は、プレイヤーが将来のゲームレベルを通過させるのに必要な試行回数と、他のプレイヤーがプレイする以前のレベルの試行回数に基づいて、難易度を予測することができる。
この結果から,FMはゲームデザイナーがプレイヤー体験を最適化し,プレイヤーとゲームについてより深く学ぶことができる,有望なツールであることが示唆された。
論文 参考訳(メタデータ) (2022-09-06T08:03:46Z) - Collusion Detection in Team-Based Multiplayer Games [57.153233321515984]
チームベースのマルチプレイヤーゲームにおいて,協調動作を検出するシステムを提案する。
提案手法は,ゲーム内行動パターンと組み合わせたプレイヤーの社会的関係を解析する。
次に,非教師なし学習手法であるアイソレーションフォレストによる検出を自動化する。
論文 参考訳(メタデータ) (2022-03-10T02:37:39Z) - No-Regret Learning in Time-Varying Zero-Sum Games [99.86860277006318]
固定ゼロサムゲームにおける繰り返しプレイからの学習は、ゲーム理論とオンライン学習における古典的な問題である。
提案手法は,3つの性能基準の下で,良好な保証を同時に享受できる1つのパラメータフリーアルゴリズムである。
本アルゴリズムは,ある特性を満たすブラックボックスベースラーナー群に対するメタアルゴリズムを用いた2層構造に基づく。
論文 参考訳(メタデータ) (2022-01-30T06:10:04Z) - Dynamic Difficulty Adjustment in Virtual Reality Exergames through
Experience-driven Procedural Content Generation [0.4899818550820576]
本稿では,VRエクササイズゲームにおけるDDAのための体験駆動型プロシージャコンテンツ生成手法を提案する。
我々は,競技者が複数の運動室を含む迷路を横切る必要がある初期プロトタイプを実装した。
プレイヤーの能力に合わせるために,我々は深層強化学習を用いて迷路の構造を調整する。
論文 参考訳(メタデータ) (2021-08-19T16:06:16Z) - Fast Game Content Adaptation Through Bayesian-based Player Modelling [6.510061176722249]
本稿では、動的難易度調整(DDA)の文脈でこの目標を実現する新しい方法を検討する。
その目的は、ゲームの内容が常にプレイヤーのスキルレベルに適応し、難しすぎるか難しすぎるかのどちらかの状態を回避し、それらを関与し続けることである。
DDAの現在のシステムは、高価なデータマイニングや、特定のドメイン用に設計された手作りのルールに依存しており、通常はプレイヤーをフローに留めるために適応する。
論文 参考訳(メタデータ) (2021-05-18T12:56:44Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z) - Provable Self-Play Algorithms for Competitive Reinforcement Learning [48.12602400021397]
我々はマルコフゲームの設定の下で、競争力強化学習における自己プレイについて研究する。
自己再生アルゴリズムは、ゲームのT$ステップをプレイした後、後悔の$tildemathcalO(sqrtT)$を達成する。
また, 最悪の場合においても, 時間内に実行可能であることを保証し, 若干悪い後悔を招き, エクスプロイトスタイルのアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-02-10T18:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。