論文の概要: Reinforcement Learning-Enhanced Procedural Generation for Dynamic Narrative-Driven AR Experiences
- arxiv url: http://arxiv.org/abs/2501.08552v1
- Date: Wed, 15 Jan 2025 03:23:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:52:58.690304
- Title: Reinforcement Learning-Enhanced Procedural Generation for Dynamic Narrative-Driven AR Experiences
- Title(参考訳): 動的ナラティブ駆動AR体験のための強化学習による手続き生成
- Authors: Aniruddha Srinivas Joshi,
- Abstract要約: 本稿では,モバイルAR環境向けに設計された強化学習型WFCフレームワークを提案する。
環境固有のルールと強化学習(RL)による動的タイル量調整を統合することにより,ゲームプレイのニーズに応答し,コンテキスト的に一貫性のあるマップを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Procedural Content Generation (PCG) is widely used to create scalable and diverse environments in games. However, existing methods, such as the Wave Function Collapse (WFC) algorithm, are often limited to static scenarios and lack the adaptability required for dynamic, narrative-driven applications, particularly in augmented reality (AR) games. This paper presents a reinforcement learning-enhanced WFC framework designed for mobile AR environments. By integrating environment-specific rules and dynamic tile weight adjustments informed by reinforcement learning (RL), the proposed method generates maps that are both contextually coherent and responsive to gameplay needs. Comparative evaluations and user studies demonstrate that the framework achieves superior map quality and delivers immersive experiences, making it well-suited for narrative-driven AR games. Additionally, the method holds promise for broader applications in education, simulation training, and immersive extended reality (XR) experiences, where dynamic and adaptive environments are critical.
- Abstract(参考訳): プロシージャコンテンツ生成(PCG)は、ゲーム内でスケーラブルで多様な環境を構築するために広く利用されている。
しかし、Wave Function Collapse (WFC)アルゴリズムのような既存の手法は静的シナリオに制限されることが多く、特に拡張現実(AR)ゲームにおいて、動的で物語駆動のアプリケーションに必要な適応性に欠ける。
本稿では,モバイルAR環境向けに設計された強化学習型WFCフレームワークを提案する。
環境固有のルールと強化学習(RL)による動的タイル量調整を統合することにより,ゲームプレイのニーズに応答し,コンテキスト的に一貫性のあるマップを生成する。
比較評価とユーザスタディは、このフレームワークが優れたマップ品質を実現し、没入感のある体験を提供し、物語駆動ARゲームに適していることを示す。
さらに、この手法は、ダイナミックで適応的な環境が不可欠である教育、シミュレーショントレーニング、没入型拡張現実(XR)体験において幅広い応用を約束する。
関連論文リスト
- Pre-Trained Video Generative Models as World Simulators [59.546627730477454]
本研究では,事前学習した映像生成モデルを制御可能な世界シミュレータに変換するための動的世界シミュレーション(DWS)を提案する。
条件付き動作と生成した視覚的変化の正確なアライメントを実現するために,軽量で普遍的な動作条件付きモジュールを導入する。
実験により、DWSは拡散モデルと自己回帰変換モデルの両方に汎用的に適用可能であることが示された。
論文 参考訳(メタデータ) (2025-02-10T14:49:09Z) - Adapting to Non-Stationary Environments: Multi-Armed Bandit Enhanced Retrieval-Augmented Generation on Knowledge Graphs [23.357843519762483]
近年の研究では、検索-拡張生成フレームワークと知識グラフを組み合わせることで、大規模言語モデルの推論能力を強力に向上することが示されている。
我々は多目的帯域拡張RAGフレームワークを導入し、多様な機能を持つ複数の検索手法をサポートする。
本手法は,定常環境下での最先端性能を達成しつつ,非定常環境でのベースライン手法を著しく向上させる。
論文 参考訳(メタデータ) (2024-12-10T15:56:03Z) - Learn to Memorize and to Forget: A Continual Learning Perspective of Dynamic SLAM [17.661231232206028]
暗黙的な神経表現を伴う同時局所化とマッピング(SLAM)が注目されている。
動的環境のための新しいSLAMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-18T09:35:48Z) - SDGym: Low-Code Reinforcement Learning Environments using System Dynamics Models [0.0]
SDGymはOpenAI Gymフレームワーク上に構築されたローコードライブラリで、カスタムRL環境の生成を可能にする。
本稿では,電気自動車導入問題のSDモデルを用いて,SDGym環境の性能を実証する。
SDGymをオープンソース化することで、さらなる研究を活性化し、SDおよびRLコミュニティ全体での採用を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-19T05:56:25Z) - Simple Noisy Environment Augmentation for Reinforcement Learning [0.0]
本稿では,雑音による強化学習環境の強化を目的とした汎用ラッパーの集合について検討する。
具体的には、状態、報酬、遷移ダイナミクスに関する拡張に集中する。
3つのRLアルゴリズムを用いて,ラッパーが戻り値に与える影響を実験的に検討した。
論文 参考訳(メタデータ) (2023-05-04T14:45:09Z) - Few-Shot Audio-Visual Learning of Environment Acoustics [89.16560042178523]
室内インパルス応答 (RIR) 関数は、周囲の物理的環境がリスナーが聴く音をどう変換するかをキャプチャする。
我々は、空間で観測された画像とエコーのスパースセットに基づいて、RIRを推測する方法を探る。
3次元環境のための最先端オーディオ視覚シミュレータを用いた実験において,本手法が任意のRIRを生成できることを実証した。
論文 参考訳(メタデータ) (2022-06-08T16:38:24Z) - Scenic4RL: Programmatic Modeling and Generation of Reinforcement
Learning Environments [89.04823188871906]
リアルタイム戦略(RTS)環境では,多様な現実シナリオの生成が難しい。
既存のシミュレータのほとんどは環境をランダムに生成することに頼っている。
我々は、研究者を支援するために、既存の形式シナリオ仕様言語であるSCENICを採用する利点を紹介する。
論文 参考訳(メタデータ) (2021-06-18T21:49:46Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Demonstration-efficient Inverse Reinforcement Learning in Procedurally
Generated Environments [137.86426963572214]
逆強化学習(Inverse Reinforcement Learning)は、専門家によるデモンストレーションから報酬関数を外挿する。
提案手法であるDE-AIRLは、実演効率が高く、完全手続き領域に一般化する報酬関数を外挿できることを示す。
論文 参考訳(メタデータ) (2020-12-04T11:18:02Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。