論文の概要: Surf3R: Rapid Surface Reconstruction from Sparse RGB Views in Seconds
- arxiv url: http://arxiv.org/abs/2508.04508v1
- Date: Wed, 06 Aug 2025 14:53:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.775121
- Title: Surf3R: Rapid Surface Reconstruction from Sparse RGB Views in Seconds
- Title(参考訳): Surf3R: スパースRGBビューから秒間高速表面再構成
- Authors: Haodong Zhu, Changbai Li, Yangyang Ren, Zichao Feng, Xuhui Liu, Hanlin Chen, Xiantong Zhen, Baochang Zhang,
- Abstract要約: Surf3Rは、カメラのポーズを見積もることなく、スパースビューから3D表面を再構築するエンドツーエンドのフィードフォワードアプローチである。
提案手法では,複数参照ビューが共同で再構成プロセスをガイドするマルチブランチ・マルチビューデコーディングアーキテクチャを採用している。
- 参考スコア(独自算出の注目度): 34.38496869014632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current multi-view 3D reconstruction methods rely on accurate camera calibration and pose estimation, requiring complex and time-intensive pre-processing that hinders their practical deployment. To address this challenge, we introduce Surf3R, an end-to-end feedforward approach that reconstructs 3D surfaces from sparse views without estimating camera poses and completes an entire scene in under 10 seconds. Our method employs a multi-branch and multi-view decoding architecture in which multiple reference views jointly guide the reconstruction process. Through the proposed branch-wise processing, cross-view attention, and inter-branch fusion, the model effectively captures complementary geometric cues without requiring camera calibration. Moreover, we introduce a D-Normal regularizer based on an explicit 3D Gaussian representation for surface reconstruction. It couples surface normals with other geometric parameters to jointly optimize the 3D geometry, significantly improving 3D consistency and surface detail accuracy. Experimental results demonstrate that Surf3R achieves state-of-the-art performance on multiple surface reconstruction metrics on ScanNet++ and Replica datasets, exhibiting excellent generalization and efficiency.
- Abstract(参考訳): 現在のマルチビュー3D再構成手法は、正確なカメラキャリブレーションとポーズ推定に依存しており、実際の展開を妨げる複雑で時間を要する事前処理を必要とする。
この課題に対処するため、Surf3Rは、カメラのポーズを見積もることなく3次元表面をスパースビューから再構築し、10秒以内に全シーンを完了させる、エンドツーエンドフィードフォワードアプローチである。
提案手法では,複数参照ビューが共同で再構成プロセスをガイドするマルチブランチ・マルチビューデコーディングアーキテクチャを採用している。
提案したブランチワイド処理,クロスビューアテンション,およびブランチ間融合により,カメラキャリブレーションを必要とせず,補完的な幾何学的手がかりを効果的に捉えることができる。
さらに,表面再構成のための3次元ガウス表現に基づくD-Normal regularizerを導入する。
表面正規と他の幾何学的パラメータを結合して3次元幾何を共同最適化し、3次元の整合性と表面の細部精度を大幅に向上させる。
Surf3RはScanNet++およびReplicaデータセット上の複数の表面再構成メトリクスに対して最先端のパフォーマンスを実現し、優れた一般化と効率性を示した。
関連論文リスト
- PMNI: Pose-free Multi-view Normal Integration for Reflective and Textureless Surface Reconstruction [20.667434274495957]
神経表面再構成法PMNI(Pose-free Multi-view Normal Integration)を提案する。
表面の正規と多視点形状の整合性から幾何的制約を強制することにより、PMNIは同時に正確なカメラポーズと高忠実な表面形状を復元する。
合成および実世界のデータセットを用いた実験結果から,反射面の再構成における最先端性能が得られた。
論文 参考訳(メタデータ) (2025-04-11T10:16:55Z) - Fast3R: Towards 3D Reconstruction of 1000+ Images in One Forward Pass [68.78222900840132]
我々は,DUSt3Rに並列に複数のビューを処理することで,効率よくスケーラブルな3D再構成を実現する新しい多視点一般化であるFast3Rを提案する。
Fast3Rは最先端のパフォーマンスを示し、推論速度とエラーの蓄積が大幅に改善された。
論文 参考訳(メタデータ) (2025-01-23T18:59:55Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - Visual SLAM with 3D Gaussian Primitives and Depth Priors Enabling Novel View Synthesis [11.236094544193605]
従来の幾何学に基づくSLAMシステムは、密度の高い3D再構成機能を持たない。
本稿では,新しいビュー合成技術である3次元ガウススプラッティングを組み込んだリアルタイムRGB-D SLAMシステムを提案する。
論文 参考訳(メタデータ) (2024-08-10T21:23:08Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - NoPose-NeuS: Jointly Optimizing Camera Poses with Neural Implicit
Surfaces for Multi-view Reconstruction [0.0]
NoPose-NeuSは、NeuSを拡張して、幾何学とカラーネットワークでカメラポーズを協調的に最適化する、ニューラルネットワークによる暗黙の表面再構成手法である。
提案手法は, 比較的正確なカメラポーズを推定できるが, 表面改質品質は0.89で, チャムファー距離は0.89である。
論文 参考訳(メタデータ) (2023-12-23T12:18:22Z) - UniSDF: Unifying Neural Representations for High-Fidelity 3D Reconstruction of Complex Scenes with Reflections [87.191742674543]
大規模な複雑なシーンをリフレクションで再構成できる汎用3次元再構成手法UniSDFを提案する。
提案手法は,複雑な大規模シーンを細部と反射面で頑健に再構築し,全体的な性能を向上する。
論文 参考訳(メタデータ) (2023-12-20T18:59:42Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。