論文の概要: NTRL: Encounter Generation via Reinforcement Learning for Dynamic Difficulty Adjustment in Dungeons and Dragons
- arxiv url: http://arxiv.org/abs/2506.19530v1
- Date: Tue, 24 Jun 2025 11:34:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.605617
- Title: NTRL: Encounter Generation via Reinforcement Learning for Dynamic Difficulty Adjustment in Dungeons and Dragons
- Title(参考訳): NTRL:ダンジョンとドラゴンの動的困難調整のための強化学習によるエンカウンタ生成
- Authors: Carlo Romeo, Andrew D. Bagdanov,
- Abstract要約: ダンジョンズ&ドラゴンズ(D&D)における動的困難調整(DDA)を自動化する新しいアプローチ
NTRLは、問題を文脈的盗聴としてフレーミングすることで、リアルタイムのパーティーメンバー属性に基づいて遭遇を生成する。
古典的DMと比較して、NTRLは遭遇を反復的に最適化して戦闘長寿(+200%)を延長し、党員へのダメージを増大させ、試合後のヒットポイントを減少させ、プレイヤーの死亡数を増大させる。
- 参考スコア(独自算出の注目度): 8.856568375969848
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Balancing combat encounters in Dungeons & Dragons (D&D) is a complex task that requires Dungeon Masters (DM) to manually assess party strength, enemy composition, and dynamic player interactions while avoiding interruption of the narrative flow. In this paper, we propose Encounter Generation via Reinforcement Learning (NTRL), a novel approach that automates Dynamic Difficulty Adjustment (DDA) in D&D via combat encounter design. By framing the problem as a contextual bandit, NTRL generates encounters based on real-time party members attributes. In comparison with classic DM heuristics, NTRL iteratively optimizes encounters to extend combat longevity (+200%), increases damage dealt to party members, reducing post-combat hit points (-16.67%), and raises the number of player deaths while maintaining low total party kills (TPK). The intensification of combat forces players to act wisely and engage in tactical maneuvers, even though the generated encounters guarantee high win rates (70%). Even in comparison with encounters designed by human Dungeon Masters, NTRL demonstrates superior performance by enhancing the strategic depth of combat while increasing difficulty in a manner that preserves overall game fairness.
- Abstract(参考訳): ダンジョンズ&ドラゴンズ(D&D)での戦闘のバランスをとることは、ダンジョンマスターズ(DM)が物語の流れの中断を回避しつつ、パーティの強さ、敵の構成、ダイナミックプレイヤーの相互作用を手動で評価する複雑な作業である。
本稿では,D&Dにおける動的難易度調整(DDA)を自動化する新しいアプローチであるReinforcement Learning (NTRL) を用いたエンカウンタ生成を提案する。
NTRLは、問題を文脈的盗聴としてフレーミングすることで、リアルタイムのパーティーメンバー属性に基づいて遭遇を生成する。
古典的DMヒューリスティックスと比較すると、NTRLは遭遇を反復的に最適化して戦闘長寿(+200%)を延長し、党員へのダメージを増大させ、戦闘後のヒットポイント(-16.67%)を減らし、プレイヤーの死亡数を増加させ、党総殺傷(TPK)を低く抑える。
戦闘員の強化は、高い勝利率(70%)を保証するにもかかわらず、賢く行動し戦術的な操作を行うよう強制する。
人間ダンジョン・マスターズの設計した出会いと比較しても、NTRLは戦略的な戦闘深度を高めながら、全体的なゲームフェアネスを保ちながら、難易度を高めて優れたパフォーマンスを示す。
関連論文リスト
- Personalized Dynamic Difficulty Adjustment -- Imitation Learning Meets Reinforcement Learning [44.99833362998488]
本研究では,機械学習をベースとしたエージェントを用いて,現在の動作に基づいてプレイヤーに挑戦するゲーム難易度について検討する。
これは2つのエージェントの組み合わせによって達成され、1つはプレイヤーを模倣することを学び、もう1つは1つを倒すように訓練される。
本稿では,対戦ゲームAIコンペティションにおけるAIエージェントの動的難易度調整のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T11:24:12Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Continuous Reinforcement Learning-based Dynamic Difficulty Adjustment in
a Visual Working Memory Game [5.857929080874288]
強化学習(Reinforcement Learning, RL)法は、非競合ゲームにおける動的難易度調整(DDA)に用いられている。
本稿では,複雑な検索空間を記憶の難しさに対処するために,視覚的ワーキングメモリ(VWM)ゲームのための連続的なRLベースのDDA手法を提案する。
論文 参考訳(メタデータ) (2023-08-24T12:05:46Z) - CALYPSO: LLMs as Dungeon Masters' Assistants [46.61924662589895]
大規模言語モデル(LLM)は、一貫性のある自然言語テキストを生成する優れた能力を示している。
本稿では,LCMを利用したインタフェースシステムであるCALYPSOについて紹介する。
CALYPSOへのアクセスが認められたとき、DMはプレイヤーへの直接のプレゼンテーションに適した高忠実なテキストを生成し、DMがクリエイティブエージェンシーを維持しながらさらに発展できるという低忠実なアイデアを作成したと報告した。
論文 参考訳(メタデータ) (2023-08-15T02:57:00Z) - I Cast Detect Thoughts: Learning to Converse and Guide with Intents and
Theory-of-Mind in Dungeons and Dragons [82.28503603235364]
ダンジョンズとドラゴンズにおける目標駆動型環境における教師と学生の自然言語相互作用について検討した。
我々のアプローチは,(1)ダンジョンマスターがプレイヤーを目標に向かって誘導する意図,(2)DMが意図を表現しているプレイヤーへの指示発声,(3)プレイヤーの指導に対する反応を未来へと一変させる理論・オブ・ミンド(ToM)モデルに分解・モデル化することである。
論文 参考訳(メタデータ) (2022-12-20T08:06:55Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。