論文の概要: Adaptive 3D UI Placement in Mixed Reality Using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2504.21731v1
- Date: Wed, 30 Apr 2025 15:21:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 18:02:19.948166
- Title: Adaptive 3D UI Placement in Mixed Reality Using Deep Reinforcement Learning
- Title(参考訳): 深部強化学習を用いた混合現実感における適応型3次元UI配置
- Authors: Feiyu Lu, Mengyu Chen, Hsiang Hsu, Pranav Deshpande, Cheng Yao Wang, Blair MacIntyre,
- Abstract要約: MR(Mixed Reality)は、仮想コンテンツと物理環境の視界を連続的に統合することで、ユーザのタスクを支援する。
我々は,ユーザのポーズや周囲環境を認識した連続した3Dコンテンツ配置を,強化学習(RL)が支援する方法について検討している。
- 参考スコア(独自算出の注目度): 8.465475853364362
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Mixed Reality (MR) could assist users' tasks by continuously integrating virtual content with their view of the physical environment. However, where and how to place these content to best support the users has been a challenging problem due to the dynamic nature of MR experiences. In contrast to prior work that investigates optimization-based methods, we are exploring how reinforcement learning (RL) could assist with continuous 3D content placement that is aware of users' poses and their surrounding environments. Through an initial exploration and preliminary evaluation, our results demonstrate the potential of RL to position content that maximizes the reward for users on the go. We further identify future directions for research that could harness the power of RL for personalized and optimized UI and content placement in MR.
- Abstract(参考訳): MR(Mixed Reality)は、仮想コンテンツと物理環境の視界を連続的に統合することにより、ユーザのタスクを支援する。
しかし、MR体験のダイナミックな性質のため、これらのコンテンツを最適なサポートにどのように配置するかは、難しい問題であった。
最適化に基づく手法を探求する先行研究とは対照的に,ユーザの姿勢や周囲環境を認識した連続した3Dコンテンツ配置を,強化学習(RL)がいかに支援できるかを探っている。
初回調査と予備評価により, 利用者の報酬を最大化できるコンテンツの位置をRLが決める可能性を実証した。
MRにおけるUIとコンテンツ配置のパーソナライズと最適化のためにRLのパワーを利用する研究の今後の方向性をさらに明らかにする。
関連論文リスト
- DeepPerception: Advancing R1-like Cognitive Visual Perception in MLLMs for Knowledge-Intensive Visual Grounding [61.26026947423187]
人間の専門家は、ドメイン知識を活用して知覚的特徴を洗練することによって、きめ細かい視覚的識別に長けている。
現在のMLLM(Multimodal Large Language Models)は、推論を視覚的知覚に統合するのに苦労している。
本稿では,認知的視覚能力を強化したMLLMであるDeepPerceptionを提案する。
論文 参考訳(メタデータ) (2025-03-17T04:06:34Z) - Unveiling User Satisfaction and Creator Productivity Trade-Offs in Recommendation Platforms [68.51708490104687]
調査力の低い純粋に関連性の高い政策は、短期的ユーザの満足度を高めるが、コンテンツプールの長期的豊かさを損なうことを示す。
調査の結果,プラットフォーム上でのユーザの即時満足度と全体のコンテンツ生産との間には,根本的なトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2024-10-31T07:19:22Z) - DoraemonGPT: Toward Understanding Dynamic Scenes with Large Language Models (Exemplified as A Video Agent) [73.10899129264375]
本稿では,LLMによる動的シーン理解のための包括的かつ概念的にエレガントなシステムであるドラモンGPTについて検討する。
質問/タスクのあるビデオが与えられた場合、DoraemonGPTは入力されたビデオをタスク関連の属性を格納するシンボリックメモリに変換することから始める。
我々は,DoraemonGPTの有効性を,3つのベンチマークといくつかのアプリ内シナリオで広範囲に評価した。
論文 参考訳(メタデータ) (2024-01-16T14:33:09Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - Reward Function Design for Crowd Simulation via Reinforcement Learning [12.449513548800466]
強化学習は仮想的な群集をシミュレートする大きな可能性を示しているが、報酬関数の設計は効率的かつ効率的な結果を達成するために重要である。
本研究では, 特定の報酬関数の妥当性を解析的特性に応じて理論的に把握し, 様々なシナリオを用いて実証的に評価する。
本研究は,新しい群集シミュレーション技術の発展に寄与し,人間のようなナビゲーションの幅広い研究に寄与する。
論文 参考訳(メタデータ) (2023-09-22T12:55:30Z) - Iterative Reward Shaping using Human Feedback for Correcting Reward
Misspecification [15.453123084827089]
ITERSは、人間のフィードバックを用いて、不特定報酬関数の効果を緩和する反復的な報酬形成手法である。
ITERSを3つの環境で評価し,不特定報酬関数の修正に成功していることを示す。
論文 参考訳(メタデータ) (2023-08-30T11:45:40Z) - User-centric Heterogeneous-action Deep Reinforcement Learning for
Virtual Reality in the Metaverse over Wireless Networks [8.513938423514636]
本稿では,Metaverseサーバと複数のVRユーザで構成されるシステムについて考察する。
MetaverseのマルチユーザーVRシナリオでは、ユーザはFPS(Frames Per Second)の異なる特性と要求を持っている。
提案したユーザ中心型DRLアルゴリズムは、ユーザ中心型Critic with Heterogenous Actors (UCHA) と呼ばれる。
論文 参考訳(メタデータ) (2023-02-03T00:12:12Z) - Reward Shaping for User Satisfaction in a REINFORCE Recommender [24.65853598093849]
本稿では,ユーザの満足度を満足するアクションを学習するためのポリシーネットワークと満足度計算ネットワークを提案する。
命令ネットワークの役割は、どのアクションがユーザに満足しているかを学習することであり、ポリシーネットワークは、REINFORCE上に構築され、どの項目を推奨するかを決定する。
論文 参考訳(メタデータ) (2022-09-30T01:29:12Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z) - DeFINE: Delayed Feedback based Immersive Navigation Environment for
Studying Goal-Directed Human Navigation [10.7197371210731]
DeFINE(Delayed Feedback Based Immersive Navigation Environment)は、ナビゲーションタスクの作成と管理を容易にするフレームワークである。
DeFINEは、実験中に参加者にパフォーマンスフィードバックを提供するビルトイン機能を備えている。
論文 参考訳(メタデータ) (2020-03-06T11:00:12Z) - Counterfactual Vision-and-Language Navigation via Adversarial Path Sampling [65.99956848461915]
VLN(Vision-and-Language Navigation)は、エージェントが目標を達成するために3D環境を移動する方法を決定するタスクである。
VLNタスクの問題点の1つは、対話型環境において、人間に注釈を付けた指示で十分なナビゲーションパスを収集することは困難であるため、データの不足である。
本稿では,低品質な拡張データではなく,効果的な条件を考慮可能な,対向駆動の反実的推論モデルを提案する。
論文 参考訳(メタデータ) (2019-11-17T18:02:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。