論文の概要: Seeing through Satellite Images at Street Views
- arxiv url: http://arxiv.org/abs/2505.17001v1
- Date: Thu, 22 May 2025 17:57:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.547608
- Title: Seeing through Satellite Images at Street Views
- Title(参考訳): 衛星画像から見るストリートビュー
- Authors: Ming Qian, Bin Tan, Qiuyu Wang, Xianwei Zheng, Hanjiang Xiong, Gui-Song Xia, Yujun Shen, Nan Xue,
- Abstract要約: 衛星と路面から撮影したペア画像からニューラルラジアンス場を定式化する。
課題は、街路ビュー特有の要素(空や照明効果など)が街路ビューパノラマでしか見えないという課題に対処する。
本稿では,写真リアルなストリートビューパノラマレンダリングを実現するために,Sat2Density++を提案する。
- 参考スコア(独自算出の注目度): 46.96799097647916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the task of SatStreet-view synthesis, which aims to render photorealistic street-view panorama images and videos given any satellite image and specified camera positions or trajectories. We formulate to learn neural radiance field from paired images captured from satellite and street viewpoints, which comes to be a challenging learning problem due to the sparse-view natural and the extremely-large viewpoint changes between satellite and street-view images. We tackle the challenges based on a task-specific observation that street-view specific elements, including the sky and illumination effects are only visible in street-view panoramas, and present a novel approach Sat2Density++ to accomplish the goal of photo-realistic street-view panoramas rendering by modeling these street-view specific in neural networks. In the experiments, our method is testified on both urban and suburban scene datasets, demonstrating that Sat2Density++ is capable of rendering photorealistic street-view panoramas that are consistent across multiple views and faithful to the satellite image.
- Abstract(参考訳): 本稿では, サテライト画像や特定のカメラ位置, トラジェクトリーが与えられたストリートビューパノラマ画像や映像をリアルに描画することを目的とした, SatStreet-view 合成の課題について検討する。
衛星とストリートビューの両面から取得した画像からニューラルラディアンス場を学習することが定式化されており、これは衛星とストリートビューの視界が狭く、また、衛星とストリートビューの視界が極端に大きく変化するため、難しい学習問題となっている。
本研究では,街路ビュー特有の要素である空や照明効果がストリートビューパノラマでのみ見られるという課題に取り組み,Sat2Density++を用いて,これらのストリートビューをニューラルネットワークでモデル化することで,写真リアルなストリートビューパノラマレンダリングの目標を達成する。
実験では,Sat2Density++が複数のビューに一貫性があり,衛星画像に忠実な写実的ストリートビューパノラマを描画できることを実証した。
関連論文リスト
- CrossViewDiff: A Cross-View Diffusion Model for Satellite-to-Street View Synthesis [54.852701978617056]
CrossViewDiffは、衛星間ビュー合成のためのクロスビュー拡散モデルである。
ビュー間の大きな相違による課題に対処するため、衛星シーン構造推定とクロスプラットフォームテクスチャマッピングモジュールを設計する。
合成結果のより包括的な評価を実現するため,GPTに基づくスコアリング手法を設計する。
論文 参考訳(メタデータ) (2024-08-27T03:41:44Z) - Leveraging BEV Paradigm for Ground-to-Aerial Image Synthesis [14.492759165786364]
地上から地上への画像合成は、対応する地上の景観画像から現実的な空中画像を生成することに焦点を当てている。
本研究では,ストリートビュー画像から航空画像を合成する新しいクロスビュー生成手法であるSkyDiffusionを紹介する。
地上から地上までの多様な画像合成用途のために設計された新しいデータセット「Ground2Aerial-3」を紹介した。
論文 参考訳(メタデータ) (2024-08-03T15:43:56Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - SUNDIAL: 3D Satellite Understanding through Direct, Ambient, and Complex
Lighting Decomposition [17.660328148833134]
SUNDIALは、ニューラルネットワークを用いた衛星画像の3次元再構成のための包括的アプローチである。
我々はこの単一モデルアプローチで衛星シーンの幾何学、照明成分、太陽方向を学習する。
衛星シーンモデリングのための既存のNeRF技術に対するSUNDIALの性能評価を行った。
論文 参考訳(メタデータ) (2023-12-24T02:46:44Z) - Urban Radiance Fields [77.43604458481637]
本研究では,都市屋外環境における世界地図作成によく利用されるスキャニングプラットフォームによって収集されたデータから3次元再構成と新しいビュー合成を行う。
提案手法は、制御された環境下での小さなシーンのための現実的な新しい画像の合成を実証したニューラルラジアンス場を拡張している。
これら3つのエクステンションはそれぞれ、ストリートビューデータの実験において、大幅なパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2021-11-29T15:58:16Z) - Coming Down to Earth: Satellite-to-Street View Synthesis for
Geo-Localization [9.333087475006003]
クロスビュー画像に基づくジオローカライズは,この2つの領域間の視野と外観の違いから,非常に困難である。
衛星入力からリアルなストリートビューを合成することで,この不一致を明示的に解決できることを示す。
本稿では,画像合成と検索を共同で行うマルチタスクアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-11T17:40:59Z) - Geometry-Guided Street-View Panorama Synthesis from Satellite Imagery [80.6282101835164]
オーバヘッド衛星画像から新しいストリートビューパノラマを合成するための新しいアプローチを提案する。
本手法は,googleの全方位ストリートビュー型パノラマを,衛星パッチの中央と同じ地理的位置から取得したかのように生成する。
論文 参考訳(メタデータ) (2021-03-02T10:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。