論文の概要: EyeNavGS: A 6-DoF Navigation Dataset and Record-n-Replay Software for Real-World 3DGS Scenes in VR
- arxiv url: http://arxiv.org/abs/2506.02380v1
- Date: Tue, 03 Jun 2025 02:32:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.385292
- Title: EyeNavGS: A 6-DoF Navigation Dataset and Record-n-Replay Software for Real-World 3DGS Scenes in VR
- Title(参考訳): EyeNavGS:VRのリアルワールド3DGSシーンのための6DoFナビゲーションデータセットとレコード・n・リプレイソフトウェア
- Authors: Zihao Ding, Cheng-Tse Lee, Mufeng Zhu, Tao Guan, Yuan-Chun Sun, Cheng-Hsin Hsu, Yao Liu,
- Abstract要約: 3D Gaussian Splatting(3DGS)は、仮想現実(VR)における6自由度(6-DoF)ナビゲーションを可能にする、現実世界の3Dシーンを高忠実に再構築する新興メディア表現である。
本論文では,46人の参加者から,12の多様な実世界の3DGSシーンを探索する6-DoFナビゲーションデータセットであるEyeNavGSを紹介する。
- 参考スコア(独自算出の注目度): 9.345964137731197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) is an emerging media representation that reconstructs real-world 3D scenes in high fidelity, enabling 6-degrees-of-freedom (6-DoF) navigation in virtual reality (VR). However, developing and evaluating 3DGS-enabled applications and optimizing their rendering performance, require realistic user navigation data. Such data is currently unavailable for photorealistic 3DGS reconstructions of real-world scenes. This paper introduces EyeNavGS (EyeNavGS), the first publicly available 6-DoF navigation dataset featuring traces from 46 participants exploring twelve diverse, real-world 3DGS scenes. The dataset was collected at two sites, using the Meta Quest Pro headsets, recording the head pose and eye gaze data for each rendered frame during free world standing 6-DoF navigation. For each of the twelve scenes, we performed careful scene initialization to correct for scene tilt and scale, ensuring a perceptually-comfortable VR experience. We also release our open-source SIBR viewer software fork with record-and-replay functionalities and a suite of utility tools for data processing, conversion, and visualization. The EyeNavGS dataset and its accompanying software tools provide valuable resources for advancing research in 6-DoF viewport prediction, adaptive streaming, 3D saliency, and foveated rendering for 3DGS scenes. The EyeNavGS dataset is available at: https://symmru.github.io/EyeNavGS/.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、バーチャルリアリティ(VR)における6自由度(6-DoF)ナビゲーションを可能にする、現実世界の3Dシーンを高忠実に再構築する新興メディア表現である。
しかし、3DGS対応アプリケーションの開発と評価、レンダリング性能の最適化には、現実的なユーザナビゲーションデータが必要である。
このようなデータは、現実世界のシーンを写実的な3DGSで再現するには利用できない。
EyeNavGS(EyeNavGS)は、46人の参加者による12の多様な現実世界の3DGSシーンを探索する6-DoFナビゲーションデータセットである。
データセットは2つの場所で収集され、Meta Quest Proヘッドセットを使用して、自由世界における6-DoFナビゲーションの間、各レンダリングフレームの頭部ポーズと視線データを記録した。
それぞれのシーンで、シーンの傾きとスケールを補正するために、注意深いシーン初期化を行い、視覚的に快適なVR体験を確実にしました。
我々はまた、記録再生機能を備えたオープンソースのSIBRビューアソフトウェアフォークと、データ処理、変換、可視化のためのユーティリティツールスイートもリリースしています。
EyeNavGSデータセットとその付属するソフトウェアツールは,6-DoFビューポート予測,適応ストリーミング,3Dサリエンシ,3DGSシーンのフェーベレートレンダリングなどの研究を進める上で,貴重なリソースを提供する。
EyeNavGSのデータセットは、https://symmru.github.io/EyeNavGS/.com/で公開されている。
関連論文リスト
- SceneSplat++: A Large Dataset and Comprehensive Benchmark for Language Gaussian Splatting [104.83629308412958]
3D Gaussian Splatting (3DGS) は、シーン幾何学、外観、意味論の高性能かつ効率的な符号化として機能する。
3次元空間で直接3つの手法群を体系的に評価する,最初の大規模ベンチマークを提案する。
結果は、特にシーン固有の制限を緩和する上で、一般化可能なパラダイムの明確な利点を示している。
論文 参考訳(メタデータ) (2025-06-10T11:52:45Z) - RaySt3R: Predicting Novel Depth Maps for Zero-Shot Object Completion [49.933001840775816]
RaySt3Rは、新しいビュー合成問題として、3D形状の完成をリキャストする。
フィードフォワード変換器をトレーニングし、深度マップ、オブジェクトマスク、およびクエリ線に対する画素ごとの信頼スコアを予測する。
RaySt3Rは、これらの予測を複数のクエリビューに融合して、完全な3D形状を再構築する。
論文 参考訳(メタデータ) (2025-06-05T17:43:23Z) - L3GS: Layered 3D Gaussian Splats for Efficient 3D Scene Delivery [10.900680596540377]
3D Gaussian splats (3DGS) は両世界のベストを達成でき、高い視覚的品質とリアルタイムフレームレートの効率的なレンダリングを実現している。
この作業の目的は、3DGSを基盤とした高品質な3Dシーンを基盤となるデータ表現として見ることができる、効率的な3Dコンテンツ配信フレームワークを作ることである。
論文 参考訳(メタデータ) (2025-04-07T21:23:32Z) - Ross3D: Reconstructive Visual Instruction Tuning with 3D-Awareness [73.72335146374543]
本稿では,3次元視覚指導を訓練手順に組み込んだ3次元視覚指導法(Ross3D)について紹介する。
Ross3Dは様々な3Dシーン理解ベンチマークで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-04-02T16:59:55Z) - SceneSplat: Gaussian Splatting-based Scene Understanding with Vision-Language Pretraining [100.23919762298227]
現在、既存のすべてのメソッドは、トレーニング中や推論時に2Dまたはテキストのモダリティに依存している。
我々はSceneSplatを紹介し,3DGSで動作する最初の大規模屋内シーン理解手法について紹介する。
ラベルのないシーンからリッチな3D特徴学習を解放する自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2025-03-23T12:50:25Z) - Next Best Sense: Guiding Vision and Touch with FisherRF for 3D Gaussian Splatting [27.45827655042124]
3Dガウススプレイティングを用いたロボットマニピュレータの能動的次ベストビューとタッチ選択のためのフレームワーク(3DGS)を提案する。
我々はまず,新しい意味深度アライメント法により,数発の3DGSの性能を向上する。
次に、3DGSの次のベストビュー選択方法であるFisherRFを拡張して、奥行きの不確実性に基づいたビューとタッチポーズを選択する。
論文 参考訳(メタデータ) (2024-10-07T01:24:39Z) - Habitat Synthetic Scenes Dataset (HSSD-200): An Analysis of 3D Scene
Scale and Realism Tradeoffs for ObjectGoal Navigation [70.82403156865057]
本研究では,合成3次元シーン・データセット・スケールとリアリズムが,オブジェクトの探索とナビゲートを行う具体的エージェントの訓練作業に与える影響について検討する。
我々の実験によると、我々の小規模データセットで訓練されたエージェントは、はるかに大きなデータセットで訓練されたエージェントと一致するか、より優れています。
論文 参考訳(メタデータ) (2023-06-20T05:07:23Z) - Habitat-Matterport 3D Dataset (HM3D): 1000 Large-scale 3D Environments
for Embodied AI [55.475530452838946]
HM3D は 112.5k m2 の空間を持ち、MP3D や Gibson のような他のビルスケールデータセットよりも1.4-3.7倍大きい。
HM3Dで撮影された画像は、実際のカメラで撮影した画像よりも20~85%高い視力を持つ。
HM3DトレーニングされたPointNavエージェントは、Gibson-testデータセット上で100%のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-09-16T22:01:24Z) - A Novel Unified Stereo Stimuli based Binocular Eye-Tracking System for
Accurate 3D Gaze Estimation [8.730591396227453]
3D立体表示システムは、ユーザーは機器を装着することなく、親しみやすく没入感のある高精細な視聴体験を提供できる。
ユーザーの視点で3D PoGを正確に特定するため、眼球運動データとステレオ刺激映像を入力として回帰ベースの3Dアイトラッキングモデルを構築します。
3D PoGの平均誤差はX軸で0.90cm、Y軸で0.83cm、Z軸で1.48cm$/0.12mであった。
論文 参考訳(メタデータ) (2021-04-25T14:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。