論文の概要: From Orbit to Ground: Generative City Photogrammetry from Extreme Off-Nadir Satellite Images
- arxiv url: http://arxiv.org/abs/2512.07527v2
- Date: Tue, 09 Dec 2025 06:52:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 14:12:23.025621
- Title: From Orbit to Ground: Generative City Photogrammetry from Extreme Off-Nadir Satellite Images
- Title(参考訳): 軌道から地上へ:極端にオフ・ナディル衛星画像からの都市撮影
- Authors: Fei Yu, Yu Liu, Luyang Tang, Mingchao Sun, Zengye Ge, Rui Bu, Yuchao Jin, Haisen Zhao, He Sun, Yangyan Li, Mu Xu, Wenzheng Chen, Baoquan Chen,
- Abstract要約: 衛星画像からの都市規模の3D再構成は、極端視点外挿の課題を示す。
これにより、画像ソースから90ドル近い視点ギャップを推測する必要がある。
都市構造と衛星入力に適した2つの設計選択を提案する。
- 参考スコア(独自算出の注目度): 31.421617684580834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: City-scale 3D reconstruction from satellite imagery presents the challenge of extreme viewpoint extrapolation, where our goal is to synthesize ground-level novel views from sparse orbital images with minimal parallax. This requires inferring nearly $90^\circ$ viewpoint gaps from image sources with severely foreshortened facades and flawed textures, causing state-of-the-art reconstruction engines such as NeRF and 3DGS to fail. To address this problem, we propose two design choices tailored for city structures and satellite inputs. First, we model city geometry as a 2.5D height map, implemented as a Z-monotonic signed distance field (SDF) that matches urban building layouts from top-down viewpoints. This stabilizes geometry optimization under sparse, off-nadir satellite views and yields a watertight mesh with crisp roofs and clean, vertically extruded facades. Second, we paint the mesh appearance from satellite images via differentiable rendering techniques. While the satellite inputs may contain long-range, blurry captures, we further train a generative texture restoration network to enhance the appearance, recovering high-frequency, plausible texture details from degraded inputs. Our method's scalability and robustness are demonstrated through extensive experiments on large-scale urban reconstruction. For example, in our teaser figure, we reconstruct a $4\,\mathrm{km}^2$ real-world region from only a few satellite images, achieving state-of-the-art performance in synthesizing photorealistic ground views. The resulting models are not only visually compelling but also serve as high-fidelity, application-ready assets for downstream tasks like urban planning and simulation. Project page can be found at https://pku-vcl-geometry.github.io/Orbit2Ground/.
- Abstract(参考訳): 衛星画像からの都市規模の3D再構成は、極端視点外挿の課題を示し、我々のゴールは、小さな軌道画像から最小の視差で地上レベルの新しいビューを合成することである。
これにより、画像ソースから90^\circ$の視界ギャップを推定し、ファサードとテクスチャに欠陥があり、NeRFや3DGSのような最先端の再構築エンジンが故障する。
この問題に対処するために,都市構造と衛星入力に適した2つの設計選択を提案する。
まず, 都市形状を2.5Dの高さマップとしてモデル化し, トップダウン視点から都市建物のレイアウトをマッチングするZモノトニック符号距離場 (SDF) として実装した。
これにより、疎外衛星視界下での幾何最適化を安定化し、クロップ屋根とクリーンで垂直に押出されたファサードを備えた防水メッシュを得る。
次に,衛星画像からメッシュの外観を識別可能なレンダリング技術を用いて表現する。
衛星入力には長距離のぼやけたキャプチャーを含む可能性があるが、我々はさらに生成テクスチャ復元ネットワークを訓練して外観を高め、劣化した入力から高周波で可視的なテクスチャの詳細を復元する。
本手法のスケーラビリティとロバスト性は,大規模都市再建に関する広範な実験を通じて実証された。
例えば、我々のティーザー図では、ごく少数の衛星画像から4,\mathrm{km}^2$の現実世界領域を再構成し、フォトリアリスティックグラウンドビューの合成において最先端のパフォーマンスを達成する。
結果として得られるモデルは、視覚的に魅力的なだけでなく、都市計画やシミュレーションのような下流タスクのための高忠実でアプリケーション対応の資産としても機能する。
プロジェクトページはhttps://pku-vcl-geometry.github.io/Orbit2Ground/で見ることができる。
関連論文リスト
- Skyfall-GS: Synthesizing Immersive 3D Urban Scenes from Satellite Imagery [13.938311471105303]
コストのかかる3Dアノテーションを伴わない最初の都市ブロックスケール3Dシーン作成フレームワークである textbfSkyfall-GS を提案する。
我々は、幾何的およびフォトリアリスティックなテクスチャを徐々に強化するために、カリキュラム駆動の反復的洗練戦略を調整する。
論文 参考訳(メタデータ) (2025-10-17T17:59:51Z) - Sat2City: 3D City Generation from A Single Satellite Image with Cascaded Latent Diffusion [18.943643720564996]
Sat2Cityは、スパースボクセルグリッドの表現能力を潜在拡散モデルと相乗化する新しいフレームワークである。
衛星視高マップと組み合わせた大規模3D都市を合成したデータセットを提案する。
本フレームワークは, 衛星画像から詳細な3次元構造を生成し, 既存の都市モデルに比べ, 忠実度に優れていた。
論文 参考訳(メタデータ) (2025-07-06T14:30:08Z) - CityGo: Lightweight Urban Modeling and Rendering with Proxy Buildings and Residual Gaussians [48.22146326647521]
CityGoは、テクスチャ化されたプロキシ幾何と周囲の3Dガウスアンを組み合わせたハイブリッドフレームワークで、空から見た都市景観のレンダリングを行う。
我々の表現はトレーニング時間を大幅に短縮し、平均1.4倍のスピードアップを実現し、純粋な3次元ガウススプラッティングアプローチに匹敵する視覚的忠実度を提供する。
論文 参考訳(メタデータ) (2025-05-27T11:24:08Z) - AerialMegaDepth: Learning Aerial-Ground Reconstruction and View Synthesis [57.249817395828174]
本研究では,3次元都市規模のメッシュからの擬似合成レンダリングと,実地レベルでのクラウドソース画像を組み合わせたスケーラブルなフレームワークを提案する。
擬似合成データは、幅広い空中視点をシミュレートする一方、実際のクラウドソース画像は、地上レベルの画像の視覚的忠実度を改善するのに役立つ。
このハイブリッドデータセットを使用して、いくつかの最先端のアルゴリズムを微調整し、実世界のゼロショット地上作業において大幅な改善を実現する。
論文 参考訳(メタデータ) (2025-04-17T17:57:05Z) - SuperCarver: Texture-Consistent 3D Geometry Super-Resolution for High-Fidelity Surface Detail Generation [70.76810765911499]
粗いメッシュ上にテクスチャ一貫性のある表面の詳細を補うための3次元幾何学的超解像パイプラインであるSuperCarverを紹介する。
実験により、私たちのSuperCarverは実際のテクスチャの外観によって描写された現実的で表現力のある表面の詳細を生成することができることが示された。
論文 参考訳(メタデータ) (2025-03-12T14:38:45Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - ImpliCity: City Modeling from Satellite Images with Deep Implicit
Occupancy Fields [20.00737387884824]
ImpliCityは、3Dシーンを暗黙的かつ連続的な占有領域として表現し、ポイント・クラウドとステレオ・フォトの組込みによって駆動される。
画像解像度0.5$,$mのImpliCityは、$approx,$0.7$,$mの平均的な高さ誤差に達し、競合するメソッドを上回っている。
論文 参考訳(メタデータ) (2022-01-24T21:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。