論文の概要: Street-view Panoramic Video Synthesis from a Single Satellite Image
- arxiv url: http://arxiv.org/abs/2012.06628v2
- Date: Thu, 17 Dec 2020 08:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 04:35:59.869048
- Title: Street-view Panoramic Video Synthesis from a Single Satellite Image
- Title(参考訳): 単一衛星画像からのストリートビューパノラマ映像合成
- Authors: Zuoyue Li, Zhaopeng Cui, Martin R. Oswald, Marc Pollefeys
- Abstract要約: 時間的および幾何学的に一貫したストリートビューパノラマビデオの両方を合成する新しい方法を提示する。
既存のクロスビュー合成アプローチは画像に重点を置いているが、そのような場合のビデオ合成はまだ十分な注目を集めていない。
- 参考スコア(独自算出の注目度): 92.26826861266784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel method for synthesizing both temporally and geometrically
consistent street-view panoramic video from a given single satellite image and
camera trajectory. Existing cross-view synthesis approaches focus more on
images, while video synthesis in such a case has not yet received enough
attention. Single image synthesis approaches are not well suited for video
synthesis since they lack temporal consistency which is a crucial property of
videos. To this end, our approach explicitly creates a 3D point cloud
representation of the scene and maintains dense 3D-2D correspondences across
frames that reflect the geometric scene configuration inferred from the
satellite view. We implement a cascaded network architecture with two hourglass
modules for successive coarse and fine generation for colorizing the point
cloud from the semantics and per-class latent vectors. By leveraging computed
correspondences, the produced street-view video frames adhere to the 3D
geometric scene structure and maintain temporal consistency. Qualitative and
quantitative experiments demonstrate superior results compared to other
state-of-the-art cross-view synthesis approaches that either lack temporal or
geometric consistency. To the best of our knowledge, our work is the first work
to synthesize cross-view images to video.
- Abstract(参考訳): 本研究では,1つの衛星画像とカメラ軌道から時間的および幾何学的に一貫したストリートビューパノラマ映像を合成する方法を提案する。
既存のクロスビュー合成アプローチは画像にフォーカスしているが、このような場合のビデオ合成はまだ十分に注目されていない。
単一画像合成アプローチは、ビデオの重要な特性である時間的一貫性が欠如しているため、ビデオ合成には適していない。
この目的のために,我々は3dポイントクラウド表現を明示的に作成し,衛星画像から推定した幾何学的シーン構成を反映したフレーム間の密接な3d-2d対応を維持する。
我々は,セマンティクスとクラス毎の潜在ベクトルからポイントクラウドを色分けするために,2つの時間ガラスモジュールを備えたカスケードネットワークアーキテクチャを実装した。
生成したストリートビュービデオフレームは3次元の幾何学的シーン構造に従属し,時間的一貫性を維持する。
定性的かつ定量的な実験は、時間的あるいは幾何学的整合性に欠ける他の最先端のクロスビュー合成手法よりも優れた結果を示す。
私たちの知る限りでは、クロスビュー画像をビデオに合成する最初の作品です。
関連論文リスト
- MultiDiff: Consistent Novel View Synthesis from a Single Image [60.04215655745264]
MultiDiffは、単一のRGB画像からシーンを一貫した新しいビュー合成のための新しいアプローチである。
以上の結果から,MultiDiffは,課題の多いリアルタイムデータセットであるRealEstate10KとScanNetにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-26T17:53:51Z) - Learning to Render Novel Views from Wide-Baseline Stereo Pairs [26.528667940013598]
本稿では,単一の広線ステレオ画像ペアのみを付与した新しいビュー合成手法を提案する。
スパース観測による新しいビュー合成への既存のアプローチは、誤った3次元形状の復元によって失敗する。
対象光線に対する画像特徴を組み立てるための,効率的な画像空間のエピポーラ線サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-04-17T17:40:52Z) - WALDO: Future Video Synthesis using Object Layer Decomposition and
Parametric Flow Prediction [82.79642869586587]
WALDOは、過去のビデオフレームを予測するための新しいアプローチである。
個々の画像は、オブジェクトマスクと小さなコントロールポイントのセットを組み合わせた複数の層に分解される。
レイヤ構造は、各ビデオ内のすべてのフレーム間で共有され、フレーム間の密接な接続を構築する。
論文 参考訳(メタデータ) (2022-11-25T18:59:46Z) - Condensing a Sequence to One Informative Frame for Video Recognition [113.3056598548736]
本稿では,まず映像シーケンスを情報的「フレーム」に凝縮する2段階の代替手法について検討する。
有効な疑問は、どのように「有用な情報」を定義し、シーケンスから1つの合成フレームに蒸留するかである。
IFSは画像ベースの2Dネットワークとクリップベースの3Dネットワークを一貫して改善している。
論文 参考訳(メタデータ) (2022-01-11T16:13:43Z) - Geometry-Guided Street-View Panorama Synthesis from Satellite Imagery [80.6282101835164]
オーバヘッド衛星画像から新しいストリートビューパノラマを合成するための新しいアプローチを提案する。
本手法は,googleの全方位ストリートビュー型パノラマを,衛星パッチの中央と同じ地理的位置から取得したかのように生成する。
論文 参考訳(メタデータ) (2021-03-02T10:27:05Z) - Deep View Synthesis via Self-Consistent Generative Network [41.34461086700849]
ビュー合成は、2つ以上のカメラが異なる位置で捉えた一連のビューから目に見えないビューを生成することを目的としている。
この問題に対処するために、ほとんどの既存の方法はピクセルに一致する幾何学的情報を利用しようとします。
本稿では,幾何学的情報を明示的に活用することなく,新たなビューを合成する自己持続生成ネットワーク(SCGN)を提案する。
論文 参考訳(メタデータ) (2021-01-19T10:56:00Z) - Stable View Synthesis [100.86844680362196]
安定ビュー合成(SVS)について紹介する。
SVSは、自由に分散された視点からシーンを描写するソースイメージのセットを与えられた場合、シーンの新たなビューを合成する。
SVSは3つの異なる実世界のデータセットに対して定量的かつ質的に、最先端のビュー合成手法より優れている。
論文 参考訳(メタデータ) (2020-11-14T07:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。