論文の概要: Urban Neural Surface Reconstruction from Constrained Sparse Aerial Imagery with 3D SAR Fusion
- arxiv url: http://arxiv.org/abs/2601.22045v1
- Date: Thu, 29 Jan 2026 17:47:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:50.059001
- Title: Urban Neural Surface Reconstruction from Constrained Sparse Aerial Imagery with 3D SAR Fusion
- Title(参考訳): 3次元SAR核融合による空間空間画像からの都市神経表面の再構成
- Authors: Da Li, Chen Yao, Tong Mao, Jiacheng Bao, Houjun Sun,
- Abstract要約: 本研究では,3次元合成開口レーダ点雲と空中画像とを融合させた最初のフレームワークを提案する。
本フレームワークは,SDFをベースとしたNSRバックボーンにレーダーによる空間制約を組み込んで,構造認識光線選択と適応サンプリングを誘導し,安定かつ効率的な最適化を実現する。
- 参考スコア(独自算出の注目度): 5.462159447632879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural surface reconstruction (NSR) has recently shown strong potential for urban 3D reconstruction from multi-view aerial imagery. However, existing NSR methods often suffer from geometric ambiguity and instability, particularly under sparse-view conditions. This issue is critical in large-scale urban remote sensing, where aerial image acquisition is limited by flight paths, terrain, and cost. To address this challenge, we present the first urban NSR framework that fuses 3D synthetic aperture radar (SAR) point clouds with aerial imagery for high-fidelity reconstruction under constrained, sparse-view settings. 3D SAR can efficiently capture large-scale geometry even from a single side-looking flight path, providing robust priors that complement photometric cues from images. Our framework integrates radar-derived spatial constraints into an SDF-based NSR backbone, guiding structure-aware ray selection and adaptive sampling for stable and efficient optimization. We also construct the first benchmark dataset with co-registered 3D SAR point clouds and aerial imagery, facilitating systematic evaluation of cross-modal 3D reconstruction. Extensive experiments show that incorporating 3D SAR markedly enhances reconstruction accuracy, completeness, and robustness compared with single-modality baselines under highly sparse and oblique-view conditions, highlighting a viable route toward scalable high-fidelity urban reconstruction with advanced airborne and spaceborne optical-SAR sensing.
- Abstract(参考訳): ニューラルサーフェス・リコンストラクション (NSR) は近年, 多視点空中画像による都市3次元再構成の可能性を示している。
しかし、既存のNSR法は幾何学的曖昧さや不安定性に悩まされることが多い。
この問題は、航空画像の取得が飛行経路、地形、コストによって制限される大規模な都市リモートセンシングにおいて重要である。
この課題に対処するために,3次元合成開口レーダ(SAR)点雲と空中画像とを融合した都市型NSRフレームワークを提案する。
3D SARは、片面の飛行経路からでも効率よく大規模な幾何学を捉え、画像からの測光的手がかりを補完する堅牢な先行手段を提供する。
本フレームワークは,SDFをベースとしたNSRバックボーンにレーダーによる空間制約を組み込んで,構造認識光線選択と適応サンプリングを誘導し,安定かつ効率的な最適化を実現する。
また,3次元SAR点雲と空中画像とを同時登録した最初のベンチマークデータセットを構築し,クロスモーダル3次元再構成の体系的評価を容易にする。
広汎な実験により、3D SARを組み込むことで、高度に疎度で斜めな条件下での単一モードのベースラインと比較して、再現精度、完全性、堅牢性を著しく向上し、高度空中および空中光SARセンシングによるスケーラブルな高忠実度都市再建への道のりが明らかとなった。
関連論文リスト
- SVRecon: Sparse Voxel Rasterization for Surface Reconstruction [60.92372415355283]
我々は最近提案されたスパースボキセル化パラダイムをSVReconの統合により高忠実度表面再構成の課題に拡張する。
本手法は, 常に高速な収束を保ちながら, 強い復元精度を実現する。
論文 参考訳(メタデータ) (2025-11-21T16:32:01Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - Deep Learning-based Cross-modal Reconstruction of Vehicle Target from Sparse 3D SAR Image [6.499547636078961]
本稿では,光学情報を融合させることで,車両のスパース3D SAR画像の高精細化を実現する3D-SAR再構成ネットワーク(CMAR-Net)を提案する。
CMAR-Netは、高度にスパースな観察から得られたスパース3次元SAR画像を視覚的に構造化された3次元車両画像に再構成し、効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2024-06-06T15:18:59Z) - Reconstructing Satellites in 3D from Amateur Telescope Images [44.20773507571372]
本稿では,ハイブリッド画像前処理パイプラインを統合することで,障害を克服する新しい計算イメージングフレームワークを提案する。
我々は,中国の江東宇宙ステーションと国際宇宙ステーションの合成衛星データセットとオンスキー観測の両方にアプローチを検証した。
我々のフレームワークは地球からの高忠実度3D衛星監視を可能にし、宇宙状況認識のためのコスト効率の良い代替手段を提供する。
論文 参考訳(メタデータ) (2024-04-29T03:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。