論文の概要: SwiftNDC: Fast Neural Depth Correction for High-Fidelity 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2602.22565v1
- Date: Thu, 26 Feb 2026 03:07:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.502054
- Title: SwiftNDC: Fast Neural Depth Correction for High-Fidelity 3D Reconstruction
- Title(参考訳): SwiftNDC:高忠実度3D再構成のための高速ニューラルネットワーク深度補正
- Authors: Kang Han, Wei Xiang, Lu Yu, Mathew Wyatt, Gaowen Liu, Ramana Rao Kompella,
- Abstract要約: SwiftNDCは、Neural Depth Correctionフィールドを中心に構築された、高速で一般的なフレームワークである。
バック・プロジェクションとロバスト・リジェクション・エラー・フィルタリングにより高密度の点雲を生成する。
この信頼性の高い密度幾何学はメッシュ再構成のための3Dガウススプレイティング(3DGS)を大幅に加速させる。
メッシュ再構築のための2つのデータセットと、新規ビュー合成のための3つのデータセットを網羅的に調査する。
- 参考スコア(独自算出の注目度): 36.282461368600806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth-guided 3D reconstruction has gained popularity as a fast alternative to optimization-heavy approaches, yet existing methods still suffer from scale drift, multi-view inconsistencies, and the need for substantial refinement to achieve high-fidelity geometry. Here, we propose SwiftNDC, a fast and general framework built around a Neural Depth Correction field that produces cross-view consistent depth maps. From these refined depths, we generate a dense point cloud through back-projection and robust reprojection-error filtering, obtaining a clean and uniformly distributed geometric initialization for downstream reconstruction. This reliable dense geometry substantially accelerates 3D Gaussian Splatting (3DGS) for mesh reconstruction, enabling high-quality surfaces with significantly fewer optimization iterations. For novel-view synthesis, SwiftNDC can also improve 3DGS rendering quality, highlighting the benefits of strong geometric initialization. We conduct a comprehensive study across five datasets, including two for mesh reconstruction, as well as three for novel-view synthesis. SwiftNDC consistently reduces running time for accurate mesh reconstruction and boosts rendering fidelity for view synthesis, demonstrating the effectiveness of combining neural depth refinement with robust geometric initialization for high-fidelity and efficient 3D reconstruction.
- Abstract(参考訳): 奥行き誘導型3D再構成は、最適化に重きを置くアプローチの高速な代替手段として人気を集めているが、既存の手法は、スケールドリフト、マルチビューの不整合、高忠実度幾何を実現するための実質的な改良の必要性に悩まされている。
本稿では,一貫した深度マップを生成するニューラル深度補正フィールドを中心に構築された,高速で汎用的なフレームワークであるSwiftNDCを提案する。
これらの精細な深度から、後方投射と頑健な再投射誤差フィルタリングにより高密度点雲を生成し、下流再構成のための清浄かつ均一に分布した幾何初期化を得る。
この信頼性の高い密度幾何学はメッシュ再構成のための3Dガウススプレイティング(3DGS)を大幅に加速し、最適化の繰り返しを著しく少なくして高品質な曲面を実現する。
ノベルビュー合成では、3DGSレンダリングの品質も向上し、強力な幾何学的初期化のメリットを強調している。
メッシュ再構築のための2つのデータセットと、新規ビュー合成のための3つのデータセットを網羅的に調査する。
SwiftNDCは、正確なメッシュ再構築のランニング時間を一貫して削減し、ビュー合成のためのレンダリングフィディリティを向上し、高忠実で効率的な3D再構成のための堅牢な幾何学的初期化とニューラルディープリファインメントの組み合わせの有効性を実証する。
関連論文リスト
- MetroGS: Efficient and Stable Reconstruction of Geometrically Accurate High-Fidelity Large-Scale Scenes [20.601722393809244]
複雑な都市環境における効率的で堅牢な復興のための新しいフレームワークであるMetroGSを紹介する。
本手法は,分散2次元ガウススプラッティング表現を基本基盤として構築する。
大規模な都市データセットの実験により、MetroGSはより優れた幾何学的精度、レンダリング品質を達成することが示された。
論文 参考訳(メタデータ) (2025-11-24T14:34:19Z) - Wonder3D++: Cross-domain Diffusion for High-fidelity 3D Generation from a Single Image [68.55613894952177]
単一ビュー画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である textbfWonder3D++ を導入する。
マルチビュー正規写像と対応するカラー画像を生成するクロスドメイン拡散モデルを提案する。
最後に,多視点2次元表現から高品質な表面を粗い方法でわずか3ドル程度で駆動するカスケード3次元メッシュ抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-11-03T17:24:18Z) - QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization [69.50126552763157]
表面再構成はコンピュータビジョンとグラフィックスの基本であり、3Dモデリング、混合現実、ロボット工学などの応用を可能にする。
レンダリングに基づく既存のアプローチは有望な結果を得るが、シーンごとに最適化されるため、テクスチャレスな領域をモデル化するのに苦労する可能性がある。
大規模屋内シーンの2次元ガウススプラッティング最適化のための高密度初期化を生成するために,データ駆動の先行処理を学習するQuickSplatを紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:43:26Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - TetSphere Splatting: Representing High-Quality Geometry with Lagrangian Volumetric Meshes [47.47768820192874]
TetSphere は四面体球の集合を変形することによって3次元形状を表す。
不規則三角形、非多様体性、浮動小辞典などの一般的なメッシュ問題に対処する。
画像から3D、テキストから3D生成などの生成モデリングタスクにシームレスに統合される。
論文 参考訳(メタデータ) (2024-05-30T17:35:49Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - FineRecon: Depth-aware Feed-forward Network for Detailed 3D
Reconstruction [13.157400338544177]
ポーズ画像からの3次元再構成に関する最近の研究は、深層ニューラルネットワークを用いてシーンレベルの3次元幾何を直接推定できることを実証している。
推論に基づく3次元再構成の忠実度を改善するための有効な3つの方法を提案する。
提案手法はスムーズかつ高精度な再構成を行い,多深度および3次元再構成の指標において顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-04-04T02:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。