論文の概要: EyeNavGS: A 6-DoF Navigation Dataset and Record-n-Replay Software for Real-World 3DGS Scenes in VR
- arxiv url: http://arxiv.org/abs/2506.02380v1
- Date: Tue, 03 Jun 2025 02:32:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.385292
- Title: EyeNavGS: A 6-DoF Navigation Dataset and Record-n-Replay Software for Real-World 3DGS Scenes in VR
- Title(参考訳): EyeNavGS:VRのリアルワールド3DGSシーンのための6DoFナビゲーションデータセットとレコード・n・リプレイソフトウェア
- Authors: Zihao Ding, Cheng-Tse Lee, Mufeng Zhu, Tao Guan, Yuan-Chun Sun, Cheng-Hsin Hsu, Yao Liu,
- Abstract要約: 3D Gaussian Splatting(3DGS)は、仮想現実(VR)における6自由度(6-DoF)ナビゲーションを可能にする、現実世界の3Dシーンを高忠実に再構築する新興メディア表現である。
本論文では,46人の参加者から,12の多様な実世界の3DGSシーンを探索する6-DoFナビゲーションデータセットであるEyeNavGSを紹介する。
- 参考スコア(独自算出の注目度): 9.345964137731197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) is an emerging media representation that reconstructs real-world 3D scenes in high fidelity, enabling 6-degrees-of-freedom (6-DoF) navigation in virtual reality (VR). However, developing and evaluating 3DGS-enabled applications and optimizing their rendering performance, require realistic user navigation data. Such data is currently unavailable for photorealistic 3DGS reconstructions of real-world scenes. This paper introduces EyeNavGS (EyeNavGS), the first publicly available 6-DoF navigation dataset featuring traces from 46 participants exploring twelve diverse, real-world 3DGS scenes. The dataset was collected at two sites, using the Meta Quest Pro headsets, recording the head pose and eye gaze data for each rendered frame during free world standing 6-DoF navigation. For each of the twelve scenes, we performed careful scene initialization to correct for scene tilt and scale, ensuring a perceptually-comfortable VR experience. We also release our open-source SIBR viewer software fork with record-and-replay functionalities and a suite of utility tools for data processing, conversion, and visualization. The EyeNavGS dataset and its accompanying software tools provide valuable resources for advancing research in 6-DoF viewport prediction, adaptive streaming, 3D saliency, and foveated rendering for 3DGS scenes. The EyeNavGS dataset is available at: https://symmru.github.io/EyeNavGS/.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、バーチャルリアリティ(VR)における6自由度(6-DoF)ナビゲーションを可能にする、現実世界の3Dシーンを高忠実に再構築する新興メディア表現である。
しかし、3DGS対応アプリケーションの開発と評価、レンダリング性能の最適化には、現実的なユーザナビゲーションデータが必要である。
このようなデータは、現実世界のシーンを写実的な3DGSで再現するには利用できない。
EyeNavGS(EyeNavGS)は、46人の参加者による12の多様な現実世界の3DGSシーンを探索する6-DoFナビゲーションデータセットである。
データセットは2つの場所で収集され、Meta Quest Proヘッドセットを使用して、自由世界における6-DoFナビゲーションの間、各レンダリングフレームの頭部ポーズと視線データを記録した。
それぞれのシーンで、シーンの傾きとスケールを補正するために、注意深いシーン初期化を行い、視覚的に快適なVR体験を確実にしました。
我々はまた、記録再生機能を備えたオープンソースのSIBRビューアソフトウェアフォークと、データ処理、変換、可視化のためのユーティリティツールスイートもリリースしています。
EyeNavGSデータセットとその付属するソフトウェアツールは,6-DoFビューポート予測,適応ストリーミング,3Dサリエンシ,3DGSシーンのフェーベレートレンダリングなどの研究を進める上で,貴重なリソースを提供する。
EyeNavGSのデータセットは、https://symmru.github.io/EyeNavGS/.com/で公開されている。
関連論文リスト
- SceneSplat: Gaussian Splatting-based Scene Understanding with Vision-Language Pretraining [100.23919762298227]
現在、既存のすべてのメソッドは、トレーニング中や推論時に2Dまたはテキストのモダリティに依存している。
我々はSceneSplatを紹介し,3DGSで動作する最初の大規模屋内シーン理解手法について紹介する。
ラベルのないシーンからリッチな3D特徴学習を解放する自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2025-03-23T12:50:25Z) - Next Best Sense: Guiding Vision and Touch with FisherRF for 3D Gaussian Splatting [27.45827655042124]
3Dガウススプレイティングを用いたロボットマニピュレータの能動的次ベストビューとタッチ選択のためのフレームワーク(3DGS)を提案する。
我々はまず,新しい意味深度アライメント法により,数発の3DGSの性能を向上する。
次に、3DGSの次のベストビュー選択方法であるFisherRFを拡張して、奥行きの不確実性に基づいたビューとタッチポーズを選択する。
論文 参考訳(メタデータ) (2024-10-07T01:24:39Z) - Habitat Synthetic Scenes Dataset (HSSD-200): An Analysis of 3D Scene
Scale and Realism Tradeoffs for ObjectGoal Navigation [70.82403156865057]
本研究では,合成3次元シーン・データセット・スケールとリアリズムが,オブジェクトの探索とナビゲートを行う具体的エージェントの訓練作業に与える影響について検討する。
我々の実験によると、我々の小規模データセットで訓練されたエージェントは、はるかに大きなデータセットで訓練されたエージェントと一致するか、より優れています。
論文 参考訳(メタデータ) (2023-06-20T05:07:23Z) - Habitat-Matterport 3D Dataset (HM3D): 1000 Large-scale 3D Environments
for Embodied AI [55.475530452838946]
HM3D は 112.5k m2 の空間を持ち、MP3D や Gibson のような他のビルスケールデータセットよりも1.4-3.7倍大きい。
HM3Dで撮影された画像は、実際のカメラで撮影した画像よりも20~85%高い視力を持つ。
HM3DトレーニングされたPointNavエージェントは、Gibson-testデータセット上で100%のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-09-16T22:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。