論文の概要: Robust Mesh Saliency GT Acquisition in VR via View Cone Sampling and Geometric Smoothing
- arxiv url: http://arxiv.org/abs/2601.02721v1
- Date: Tue, 06 Jan 2026 05:20:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.805717
- Title: Robust Mesh Saliency GT Acquisition in VR via View Cone Sampling and Geometric Smoothing
- Title(参考訳): ビューコーンサンプリングと幾何学的平滑化によるVRにおけるロバストメッシュサリエンシGTの獲得
- Authors: Guoquan Zheng, Jie Hao, Huiyu Duan, Yongming Han, Liang Yuan, Dong Zhang, Guangtao Zhai,
- Abstract要約: バーチャルリアリティー(VR)における人中心視覚モデリングには3次元メッシュサリエンシ基底真理が不可欠である
現在のVRアイトラッキングパイプラインは、単一線サンプリングとユークリッドのスムース化に依存しており、テクスチャの注意を喚起し、ギャップをまたいだ信号の漏洩を引き起こす。
本稿では,これらの制約に対処する頑健な枠組みを提案する。
- 参考スコア(独自算出の注目度): 59.12032628787018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable 3D mesh saliency ground truth (GT) is essential for human-centric visual modeling in virtual reality (VR). However, current 3D mesh saliency GT acquisition methods are generally consistent with 2D image methods, ignoring the differences between 3D geometry topology and 2D image array. Current VR eye-tracking pipelines rely on single ray sampling and Euclidean smoothing, triggering texture attention and signal leakage across gaps. This paper proposes a robust framework to address these limitations. We first introduce a view cone sampling (VCS) strategy, which simulates the human foveal receptive field via Gaussian-distributed ray bundles to improve sampling robustness for complex topologies. Furthermore, a hybrid Manifold-Euclidean constrained diffusion (HCD) algorithm is developed, fusing manifold geodesic constraints with Euclidean scales to ensure topologically-consistent saliency propagation. By mitigating "topological short-circuits" and aliasing, our framework provides a high-fidelity 3D attention acquisition paradigm that aligns with natural human perception, offering a more accurate and robust baseline for 3D mesh saliency research.
- Abstract(参考訳): GT(Reliable 3D mesh saliency ground truth)は、仮想現実(VR)における人間中心の視覚モデリングに不可欠である。
しかし,現在の3次元メッシュ・サリエンシGT取得法は,3次元形状トポロジと2次元画像アレーの違いを無視した2次元画像手法と概ね一致している。
現在のVRアイトラッキングパイプラインは、単一線サンプリングとユークリッドのスムース化に依存しており、テクスチャの注意を喚起し、ギャップをまたいだ信号の漏洩を引き起こす。
本稿では,これらの制約に対処する頑健な枠組みを提案する。
まず、ビューコーンサンプリング(VCS)戦略を導入する。これは、複雑なトポロジーに対するサンプリングロバスト性を改善するために、ガウス分布光束を介してヒトの胎児受容野をシミュレートするものである。
さらに、ユークリッドスケールと多様体測地的制約を融合させ、トポロジ的に一貫性のある塩分拡散を保証するハイブリッドマニフォールド-ユークリッド制約拡散(HCD)アルゴリズムを開発した。
トポロジカル・ショート・サーキット」の緩和とエイリアシングにより、我々のフレームワークは、人間の自然な知覚と整合した高忠実な3Dアテンション獲得パラダイムを提供し、より正確で堅牢な3Dメッシュサリエンシ研究のベースラインを提供する。
関連論文リスト
- COREA: Coarse-to-Fine 3D Representation Alignment Between Relightable 3D Gaussians and SDF via Bidirectional 3D-to-3D Supervision [15.632917458525851]
我々は,3次元ガウシアンとSDF(Signed Distance Field)を共同で学習し,正確な幾何学的再構成と忠実なリライティングを行う最初の統一フレームワークであるCOREAを提案する。
標準ベンチマークの実験では、COREAは統一されたフレームワーク内での新規ビュー合成、メッシュ再構成、PBRにおいて優れた性能を達成している。
論文 参考訳(メタデータ) (2025-12-08T02:41:42Z) - TriaGS: Differentiable Triangulation-Guided Geometric Consistency for 3D Gaussian Splatting [2.441486089588484]
3次元ガウススプラッティングは、画像のレンダリングの効率と能力のために、リアルタイムな新しいビュー合成に不可欠である。
本稿では,制約付き多視点三角測量による大域的幾何整合を強制することにより,再構成を改善する新しい手法を提案する。
複数のフォトリアリスティックデータセットにまたがって本手法の有効性を示す。
論文 参考訳(メタデータ) (2025-12-06T03:45:39Z) - GauSSmart: Enhanced 3D Reconstruction through 2D Foundation Models and Geometric Filtering [50.675710727721786]
2次元基礎モデルと3次元ガウススプラッティング再構成をブリッジするハイブリッド手法であるGauSSmartを提案する。
提案手法は,凸フィルタリングや意味的特徴監視など,確立した2次元コンピュータビジョン技術を統合している。
GauSSmartは既存のGaussian Splattingよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-10-16T03:38:26Z) - Cross-Modal Geometric Hierarchy Fusion: An Implicit-Submap Driven Framework for Resilient 3D Place Recognition [9.411542547451193]
本稿では,密度に依存しない幾何学的推論により3次元位置認識を再定義するフレームワークを提案する。
具体的には、元のシーンポイント雲密度の干渉に免疫する弾性点に基づく暗黙の3次元表現を導入する。
これら2種類の情報を活用することで,鳥眼視と3Dセグメントの両視点から幾何学的情報を融合する記述子を得る。
論文 参考訳(メタデータ) (2025-06-17T07:04:07Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。