論文の概要: PreSem-Surf: RGB-D Surface Reconstruction with Progressive Semantic Modeling and SG-MLP Pre-Rendering Mechanism
- arxiv url: http://arxiv.org/abs/2508.13228v1
- Date: Sun, 17 Aug 2025 17:00:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.671026
- Title: PreSem-Surf: RGB-D Surface Reconstruction with Progressive Semantic Modeling and SG-MLP Pre-Rendering Mechanism
- Title(参考訳): PreSeem-Surf: プログレッシブセマンティックモデリングとSG-MLPプレレンダリング機構を用いたRGB-D表面再構成
- Authors: Yuyan Ye, Hang Xu, Yanghang Huang, Jiali Huang, Qian Weng,
- Abstract要約: PreSem-SurfはRGB-Dシーケンスから短時間で高品質なシーン表面を再構築することができる。
この手法は、RGB、深さ、意味情報を統合して再構成性能を向上させる。
- 参考スコア(独自算出の注目度): 21.95811195666802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes PreSem-Surf, an optimized method based on the Neural Radiance Field (NeRF) framework, capable of reconstructing high-quality scene surfaces from RGB-D sequences in a short time. The method integrates RGB, depth, and semantic information to improve reconstruction performance. Specifically, a novel SG-MLP sampling structure combined with PR-MLP (Preconditioning Multilayer Perceptron) is introduced for voxel pre-rendering, allowing the model to capture scene-related information earlier and better distinguish noise from local details. Furthermore, progressive semantic modeling is adopted to extract semantic information at increasing levels of precision, reducing training time while enhancing scene understanding. Experiments on seven synthetic scenes with six evaluation metrics show that PreSem-Surf achieves the best performance in C-L1, F-score, and IoU, while maintaining competitive results in NC, Accuracy, and Completeness, demonstrating its effectiveness and practical applicability.
- Abstract(参考訳): 本稿では,RGB-D シーケンスから高品質なシーン表面を短時間で再構築可能な,NeRF フレームワークに基づく最適化手法 PreSem-Surf を提案する。
この手法は、RGB、深さ、意味情報を統合して再構成性能を向上させる。
具体的には,新しいSG-MLPサンプリング構造とPR-MLP(Preconditioning Multilayer Perceptron)を併用したボクセルプレレンダリングを導入し,シーン関連情報を早期にキャプチャし,局所的なディテールとノイズをよりよく区別する。
さらに、プログレッシブ・セマンティック・モデリングを用いて、精度の高い意味情報を抽出し、シーン理解を高めながらトレーニング時間を短縮する。
C-L1, F-score, IoUでは, NC, Accuracy, Completenessの競争結果を維持しながら, 有効性と実用性を示した。
関連論文リスト
- QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization [69.50126552763157]
表面再構成はコンピュータビジョンとグラフィックスの基本であり、3Dモデリング、混合現実、ロボット工学などの応用を可能にする。
レンダリングに基づく既存のアプローチは有望な結果を得るが、シーンごとに最適化されるため、テクスチャレスな領域をモデル化するのに苦労する可能性がある。
大規模屋内シーンの2次元ガウススプラッティング最適化のための高密度初期化を生成するために,データ駆動の先行処理を学習するQuickSplatを紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:43:26Z) - SP-SLAM: Neural Real-Time Dense SLAM With Scene Priors [32.42183561158492]
本稿では,SP-SLAMを提案する。SP-SLAMは,リアルタイムにトラッキングとマッピングを行う新しいRGB-D SLAMシステムである。
SP-SLAMでは,実行中のすべての過去の入力フレームのポーズを連続的に最適化する,マッピングの効果的な最適化戦略を導入する。
その結果, 従来の手法と比較して, 高速に動作しながら, トラッキング精度, 復元精度が向上していることがわかった。
論文 参考訳(メタデータ) (2025-01-11T07:53:58Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z) - InFusionSurf: Refining Neural RGB-D Surface Reconstruction Using Per-Frame Intrinsic Refinement and TSDF Fusion Prior Learning [4.406340836209291]
RGB-Dビデオフレームを用いた3次元表面再構成におけるNeRFフレームワークの革新的拡張であるInFusionSurfを導入する。
InFusionSurfは、フレームごとの固有の精細化スキームを通じて、深度フレーム内のカメラモーションによって引き起こされるぼかしに対処する。
それは、古典的なリアルタイム3D表面再構成法であるTSDF Fusionを事前訓練ツールとして組み込んでいる。
論文 参考訳(メタデータ) (2023-03-08T10:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。