論文の概要: High-Fidelity and Generalizable Neural Surface Reconstruction with Sparse Feature Volumes
- arxiv url: http://arxiv.org/abs/2507.05952v1
- Date: Tue, 08 Jul 2025 12:50:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.055094
- Title: High-Fidelity and Generalizable Neural Surface Reconstruction with Sparse Feature Volumes
- Title(参考訳): 空間的特徴量を有する高忠実で一般化可能なニューラルサーフェス再構成
- Authors: Aoxiang Fan, Corentin Dumery, Nicolas Talabot, Hieu Le, Pascal Fua,
- Abstract要約: 一般化可能なニューラルサーフェス再構成は、シーンごとの最適化なしに、少数の画像から再構成するための魅力的な技術となっている。
本稿では,メモリ効率を最大化し,標準ハードウェア上での高分解能再構成を可能にするスパース表現法を提案する。
- 参考スコア(独自算出の注目度): 50.83282258807327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalizable neural surface reconstruction has become a compelling technique to reconstruct from few images without per-scene optimization, where dense 3D feature volume has proven effective as a global representation of scenes. However, the dense representation does not scale well to increasing voxel resolutions, severely limiting the reconstruction quality. We thus present a sparse representation method, that maximizes memory efficiency and enables significantly higher resolution reconstructions on standard hardware. We implement this through a two-stage approach: First training a network to predict voxel occupancies from posed images and associated depth maps, then computing features and performing volume rendering only in voxels with sufficiently high occupancy estimates. To support this sparse representation, we developed custom algorithms for efficient sampling, feature aggregation, and querying from sparse volumes-overcoming the dense-volume assumptions inherent in existing works. Experiments on public datasets demonstrate that our approach reduces storage requirements by more than 50 times without performance degradation, enabling reconstructions at $512^3$ resolution compared to the typical $128^3$ on similar hardware, and achieving superior reconstruction accuracy over current state-of-the-art methods.
- Abstract(参考訳): 一般化可能なニューラルサーフェス再構成は、シーンごとの最適化なしに少数の画像から再構成するための魅力的な技術となり、密集した3D特徴量がシーンのグローバルな表現として有効であることが証明された。
しかし、密度の強い表現はボクセル分解能の増大に適せず、復元品質を著しく制限する。
そこで本研究では,メモリ効率を最大化し,標準ハードウェア上での高分解能再構成を可能にするスパース表現法を提案する。
まず、提案した画像と関連する深度マップからボクセル占有率を予測するためにネットワークをトレーニングし、次に特徴を計算し、十分に高い占有率のボクセルでのみボリュームレンダリングを行う。
このスパース表現を支援するために,既存の作業に固有の高密度ボリューム仮定を克服するために,スパースボリュームからの効率的なサンプリング,特徴集約,クエリを行うカスタムアルゴリズムを開発した。
公開データセットを用いた実験により,本手法は性能劣化を伴わずに50倍以上のストレージ要求を削減し,従来の128^3$のハードウェアに比べて512^3$のリコンストラクションを実現し,現在の最先端手法よりも優れたリコンストラクション精度を実現する。
関連論文リスト
- QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization [69.50126552763157]
表面再構成はコンピュータビジョンとグラフィックスの基本であり、3Dモデリング、混合現実、ロボット工学などの応用を可能にする。
レンダリングに基づく既存のアプローチは有望な結果を得るが、シーンごとに最適化されるため、テクスチャレスな領域をモデル化するのに苦労する可能性がある。
大規模屋内シーンの2次元ガウススプラッティング最適化のための高密度初期化を生成するために,データ駆動の先行処理を学習するQuickSplatを紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:43:26Z) - HUG: Hierarchical Urban Gaussian Splatting with Block-Based Reconstruction for Large-Scale Aerial Scenes [13.214165748862815]
3DGS法は、過剰なメモリ消費、遅いトレーニング時間、長いパーティショニングプロセス、データボリュームの増加によるレンダリング品質の大幅な低下といった問題に悩まされている。
階層型ニューラルガウス表現を活用することでデータ分割と復元品質を向上させる新しいアプローチである textbfHUG を導入する。
提案手法は,1つの合成データセットと4つの実世界のデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2025-04-23T10:40:40Z) - SparseFlex: High-Resolution and Arbitrary-Topology 3D Shape Modeling [79.56581753856452]
SparseFlexは、新しいスパース構造のアイソサーフェス表現で、レンダリング損失から最大10243ドルの解像度で、差別化可能なメッシュ再構築を可能にする。
SparseFlexは、高解像度で差別化可能なメッシュ再構成とレンダリングロスによる生成を可能にすることで、3D形状の表現とモデリングの最先端性を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-27T17:46:42Z) - SCube: Instant Large-Scale Scene Reconstruction using VoxSplats [55.383993296042526]
SCubeは画像の粗い集合から大規模3次元シーン(幾何学、外観、意味論)を再構成する新しい手法である。
提案手法は,高解像度のスパース・ボクセル・足場上に支持された3次元ガウスの組である,新しい表現VoxSplatを用いて再構成シーンを符号化する。
論文 参考訳(メタデータ) (2024-10-26T00:52:46Z) - High-Resolution Volumetric Reconstruction for Clothed Humans [27.900514732877827]
本稿では,1~6RGB画像のスパース集合から,衣服の人間を再構築する新しい手法を提案する。
提案手法は,P2S法の平均点通過精度を50%以上削減し,約2mmの精度を512容積分解能で達成する。
論文 参考訳(メタデータ) (2023-07-25T06:37:50Z) - Incremental Dense Reconstruction from Monocular Video with Guided Sparse
Feature Volume Fusion [23.984073189849024]
本報告では, TSDF値のリアルタイムな特徴量に基づく高密度再構成手法を提案し, 新たな深部特徴量からTSDF値を推定する。
不確実性を認識したマルチビューステレオネットワークを利用して、スパース特徴量における物理表面の初期ボクセル位置を推定する。
提案手法は,多くの場合において,より細部でより完全な再構築が可能であることを示す。
論文 参考訳(メタデータ) (2023-05-24T09:06:01Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - MonoSDF: Exploring Monocular Geometric Cues for Neural Implicit Surface
Reconstruction [72.05649682685197]
最先端のニューラル暗黙法は、多くの入力ビューから単純なシーンの高品質な再構築を可能にする。
これは主に、十分な制約を提供していないRGB再構築損失の固有の曖昧さによって引き起こされる。
近年の単分子形状予測の分野での進歩に触発され, ニューラルな暗黙的表面再構成の改善にこれらの方法が役立つかを探究する。
論文 参考訳(メタデータ) (2022-06-01T17:58:15Z) - Monocular Real-Time Volumetric Performance Capture [28.481131687883256]
本稿では,モノクロ映像から実時間速度でボリューム・パフォーマンス・キャプチャとノベル・ビュー・レンダリングを行うための最初のアプローチを提案する。
このシステムは,Pixel-Aligned Implicit Function (PIFu)を活用して,各フレームから完全にテクスチャ化された3次元人体を再構成する。
また,オンラインハード・サンプル・マイニング(OHEM)技術を導入し,難題の稀な発生により,障害モードを効果的に抑制する手法を提案する。
論文 参考訳(メタデータ) (2020-07-28T04:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。