論文の概要: SF-Recon: Simplification-Free Lightweight Building Reconstruction via 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2511.13278v1
- Date: Mon, 17 Nov 2025 11:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.192235
- Title: SF-Recon: Simplification-Free Lightweight Building Reconstruction via 3D Gaussian Splatting
- Title(参考訳): SF-Recon : 3次元ガウス平滑化による軽量化
- Authors: Zihan Li, Tengfei Wang, Wentian Gan, Hao Zhan, Xin Wang, Zongqian Zhan,
- Abstract要約: SF-Reconは、ポストホックメッシュを単純化することなく、多視点画像から軽量な建築表面を直接再構築する手法である。
提案したSFデータセットに基づいて,実験結果から,多視点画像から軽量建築モデルを直接再構築できることが実証された。
- 参考スコア(独自算出の注目度): 15.642110732300191
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lightweight building surface models are crucial for digital city, navigation, and fast geospatial analytics, yet conventional multi-view geometry pipelines remain cumbersome and quality-sensitive due to their reliance on dense reconstruction, meshing, and subsequent simplification. This work presents SF-Recon, a method that directly reconstructs lightweight building surfaces from multi-view images without post-hoc mesh simplification. We first train an initial 3D Gaussian Splatting (3DGS) field to obtain a view-consistent representation. Building structure is then distilled by a normal-gradient-guided Gaussian optimization that selects primitives aligned with roof and wall boundaries, followed by multi-view edge-consistency pruning to enhance structural sharpness and suppress non-structural artifacts without external supervision. Finally, a multi-view depth-constrained Delaunay triangulation converts the structured Gaussian field into a lightweight, structurally faithful building mesh. Based on a proposed SF dataset, the experimental results demonstrate that our SF-Recon can directly reconstruct lightweight building models from multi-view imagery, achieving substantially fewer faces and vertices while maintaining computational efficiency. Website:https://lzh282140127-cell.github.io/SF-Recon-project/
- Abstract(参考訳): 軽量建築表面モデルは、デジタル都市、ナビゲーション、高速な地理空間分析に不可欠であるが、従来の多視点幾何学パイプラインは、密集した再構築、メッシュ化、そしてその後の単純化に依存するため、扱いにくい、品質に敏感なままである。
SF-Reconは、ポストホックメッシュを単純化することなく、多視点画像から軽量な建築表面を直接再構築する手法である。
まず3Dガウススティング(3DGS)フィールドをトレーニングし、ビュー一貫性表現を得る。
建築構造は、屋根と壁の境界に整合したプリミティブを選択した正規勾配誘導ガウス最適化により蒸留され、その後、構造的鋭さを高め、外部の監督なしに非構造的アーティファクトを抑制するために、多視点エッジ整合プルーニングが続く。
最後に、多視点深度制約のデラウネー三角測量は、構造化されたガウス場を軽量で構造的に忠実な建築メッシュに変換する。
提案したSFデータセットに基づいて, 実験結果から, SF-Reconは, 多視点画像から直接軽量建築モデルを再構築し, 計算効率を保ちながら, 顔や頂点を著しく減らし得ることを示した。
ウェブサイト:https://lzh282140127-cell.github.io/SF-Recon-project/
関連論文リスト
- Light-SQ: Structure-aware Shape Abstraction with Superquadrics for Generated Meshes [60.92139345612904]
我々は、新しいスーパークワッドリックベースの最適化フレームワークLight-SQを提案する。
本稿では,構造対応ボリューム分解によるブロック再配置戦略を提案する。
実験によると、Light-SQはスーパークワッドリックで効率よく、高忠実で、編集可能な形状の抽象化を可能にする。
論文 参考訳(メタデータ) (2025-09-29T16:18:32Z) - From Restoration to Reconstruction: Rethinking 3D Gaussian Splatting for Underwater Scenes [13.730810237133822]
水中画像復元(UIR)を3次元ガウススプラッティング(DGS)でブリッジする統合フレームワークである textbfR-Splatting を提案する。
提案手法は,多様なUIRモデルによって生成された複数の拡張ビューを1つの再構築パイプラインに統合する。
Seathru-NeRFと新しいBlueCoral3Dデータセットの実験により、R-Splattingはレンダリング品質と幾何学的精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2025-09-22T13:50:20Z) - PanoLAM: Large Avatar Model for Gaussian Full-Head Synthesis from One-shot Unposed Image [43.212662742135954]
本稿では,ガウス全頭部合成のためのフィードフォワード・フレームワークを提案する。
従来のGANインバージョンとテスト時間最適化に依存した作業とは異なり、我々のフレームワークは、1つの未提示画像が1つの前方パスで与えられると、ガウスのフルヘッドモデルを再構築することができる。
論文 参考訳(メタデータ) (2025-09-09T09:42:31Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [100.90743697473232]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
スパースビューからのシーン再構成が可能な3次元ガウススプラッティングに基づくビュー合成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - RelitLRM: Generative Relightable Radiance for Large Reconstruction Models [52.672706620003765]
本稿では,新しい照明下での3Dオブジェクトの高品質なガウススプレイティング表現を生成するためのRelitLRMを提案する。
複雑なキャプチャと遅い最適化を必要とする従来の逆レンダリングとは異なり、RelitLRMはフィードフォワードトランスフォーマーベースのモデルを採用している。
スパースビューフィードフォワードRelitLRMは、最先端の密集ビュー最適化ベースラインに対して、競争力のあるリライティング結果を提供する。
論文 参考訳(メタデータ) (2024-10-08T17:40:01Z) - GS-Octree: Octree-based 3D Gaussian Splatting for Robust Object-level 3D Reconstruction Under Strong Lighting [4.255847344539736]
我々はオクツリーに基づく暗黙的な表面表現とガウススプラッティングを組み合わせた新しいアプローチを導入する。
SDFによる3次元ガウス分布を利用した本手法は,特に高輝度光による特徴強調画像において,より正確な形状を再構成する。
論文 参考訳(メタデータ) (2024-06-26T09:29:56Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。