論文の概要: Automated Testing of Prevalent 3D User Interactions in Virtual Reality Applications
- arxiv url: http://arxiv.org/abs/2601.23139v1
- Date: Fri, 30 Jan 2026 16:28:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.555061
- Title: Automated Testing of Prevalent 3D User Interactions in Virtual Reality Applications
- Title(参考訳): 仮想現実アプリケーションにおける3次元ユーザインタラクションの自動テスト
- Authors: Ruizhen Gu, José Miguel Rojas, Donghwan Shin,
- Abstract要約: 既存のVRテストアプローチはシーンナビゲーションとインタラクションのアクティベーションを可能にするが、現実的な3Dユーザ入力を自動的に合成する能力は欠如している。
ターゲット,アクション,条件を識別することによって,3次元ユーザインタラクションを体系的にモデル化する,新たな抽象化であるInteraction Flow Graphを導入する。
動的シーン探索とインタラクション実行にこのグラフを活用する自動テスト手法であるXRintTestを提案する。
- 参考スコア(独自算出の注目度): 1.2578844450585998
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Virtual Reality (VR) technologies offer immersive user experiences across various domains, but present unique testing challenges compared to traditional software. Existing VR testing approaches enable scene navigation and interaction activation, but lack the ability to automatically synthesise realistic 3D user inputs (e.g, grab and trigger actions via hand-held controllers). Automated testing that generates and executes such input remains an unresolved challenge. Furthermore, existing metrics fail to robustly capture diverse interaction coverage. This paper addresses these gaps through four key contributions. First, we empirically identify four prevalent interaction types in nine open-source VR projects: fire, manipulate, socket, and custom. Second, we introduce the Interaction Flow Graph, a novel abstraction that systematically models 3D user interactions by identifying targets, actions, and conditions. Third, we construct XRBench3D, a benchmark comprising ten VR scenes that encompass 456 distinct user interactions for evaluating VR interaction testing. Finally, we present XRintTest, an automated testing approach that leverages this graph for dynamic scene exploration and interaction execution. Evaluation on XRBench3D shows that XRintTest achieves great effectiveness, reaching 93% coverage of fire, manipulate and socket interactions across all scenes, and performing 12x more effectively and 6x more efficiently than random exploration. Moreover, XRintTest can detect runtime exceptions and non-exception interaction issues, including subtle configuration defects. In addition, the Interaction Flow Graph can reveal potential interaction design smells that may compromise intended functionality and hinder testing performance for VR applications.
- Abstract(参考訳): VR(Virtual Reality)技術は、さまざまなドメインにまたがる没入的なユーザエクスペリエンスを提供するが、従来のソフトウェアと比較してユニークなテスト課題を提示する。
既存のVRテストアプローチはシーンナビゲーションとインタラクションのアクティベーションを可能にするが、現実的な3Dユーザ入力(例えば、ハンドヘルドコントローラを介してアクションをつかんでトリガーする)を自動的に合成する能力は欠如している。
このような入力を生成して実行する自動テストは、未解決の課題である。
さらに、既存のメトリクスは多様なインタラクションカバレッジをしっかりとキャプチャできない。
本稿は4つの重要なコントリビューションを通じて,これらのギャップに対処する。
まず、9つのオープンソースのVRプロジェクト、ファイア、操作、ソケット、カスタムの4つの主要なインタラクションタイプを実証的に特定する。
第2に、ターゲット、アクション、条件を識別することで、3Dユーザインタラクションを体系的にモデル化する新しい抽象化であるInteraction Flow Graphを導入する。
第三に、XRBench3Dは、VRインタラクションテストを評価するために、456の異なるユーザーインタラクションを含む10のVRシーンからなるベンチマークである。
最後に、動的シーン探索とインタラクション実行にこのグラフを活用する自動テストアプローチであるXRintTestを紹介する。
XRBench3Dの評価では、XRintTestは、93%の火のカバレッジ、すべてのシーンでの操作とソケットのインタラクション、ランダムな探索よりも12倍の効率と6倍の効率を実現している。
さらに、XRintTestは、微妙な設定欠陥を含むランタイム例外と非例外インタラクションの問題を検出することができる。
さらに、Interaction Flow Graphは、意図した機能を妥協し、VRアプリケーションのテストパフォーマンスを妨げる可能性のある、潜在的なインタラクション設計の臭いを明らかにすることができる。
関連論文リスト
- REACT3D: Recovering Articulations for Interactive Physical 3D Scenes [96.27769519526426]
REACT3Dは静的な3Dシーンを一貫した幾何学を持つシミュレーション可能なインタラクティブなレプリカに変換するフレームワークである。
室内の様々な場面における検出・分離・調音計測における最先端性能について検討した。
論文 参考訳(メタデータ) (2025-10-13T12:37:59Z) - DiVR: incorporating context from diverse VR scenes for human trajectory prediction [2.16656895298847]
本稿では,Perceiver アーキテクチャに基づくクロスモーダルトランスフォーマである DiVR (Diverse Context VR Human Motion Prediction) を提案する。
その結果、DVRは他のモデルや静的グラフと比較して精度と適応性が高いことがわかった。
ソースコードはhttps://gitlab.inria.fr/ffrancog/creattive3d-divr-modelで公開されています。
論文 参考訳(メタデータ) (2024-11-13T07:55:41Z) - Grounded GUI Understanding for Vision-Based Spatial Intelligent Agent: Exemplified by Extended Reality Apps [39.56688889845037]
仮想現実感アプリのための最初のゼロショットcOntext-sensitive inteRactable GUI ElemeNT dEtectionフレームワークOrienterを提案する。
人間の振る舞いを模倣することで、OrienterはまずXRアプリケーションシーンの意味的コンテキストを観察し、理解し、次に検出を実行する。
論文 参考訳(メタデータ) (2024-09-17T00:58:00Z) - Tremor Reduction for Accessible Ray Based Interaction in VR Applications [0.0]
多くの従来の2Dインタフェースのインタラクション方法は、入力機構にほとんど変更を加えることなく、VR空間で直接動作するように変換されている。
本稿では,低域通過フィルタを用いてユーザ入力ノイズの正規化を行い,光線による相互作用におけるモータの細かな要求を緩和する手法を提案する。
論文 参考訳(メタデータ) (2024-05-12T17:07:16Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。