論文の概要: Remote Sensing Novel View Synthesis with Implicit Multiplane
Representations
- arxiv url: http://arxiv.org/abs/2205.08908v1
- Date: Wed, 18 May 2022 13:03:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 13:31:02.891339
- Title: Remote Sensing Novel View Synthesis with Implicit Multiplane
Representations
- Title(参考訳): 入射多面体表現を用いたリモートセンシング新しいビュー合成
- Authors: Yongchang Wu, Zhengxia Zou, Zhenwei Shi
- Abstract要約: 暗黙的ニューラル表現の最近の進歩を活用して,新しいリモートセンシングビュー合成法を提案する。
リモートセンシング画像のオーバーヘッドと遠距離イメージングを考慮し,暗黙のマルチプレーン画像(MPI)表現とディープニューラルネットワークを組み合わせることで,3次元空間を表現する。
任意の新規ビューの画像は、再構成されたモデルに基づいて自由にレンダリングすることができる。
- 参考スコア(独自算出の注目度): 26.33490094119609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novel view synthesis of remote sensing scenes is of great significance for
scene visualization, human-computer interaction, and various downstream
applications. Despite the recent advances in computer graphics and
photogrammetry technology, generating novel views is still challenging
particularly for remote sensing images due to its high complexity, view
sparsity and limited view-perspective variations. In this paper, we propose a
novel remote sensing view synthesis method by leveraging the recent advances in
implicit neural representations. Considering the overhead and far depth imaging
of remote sensing images, we represent the 3D space by combining implicit
multiplane images (MPI) representation and deep neural networks. The 3D scene
is reconstructed under a self-supervised optimization paradigm through a
differentiable multiplane renderer with multi-view input constraints. Images
from any novel views thus can be freely rendered on the basis of the
reconstructed model. As a by-product, the depth maps corresponding to the given
viewpoint can be generated along with the rendering output. We refer to our
method as Implicit Multiplane Images (ImMPI). To further improve the view
synthesis under sparse-view inputs, we explore the learning-based
initialization of remote sensing 3D scenes and proposed a neural network based
Prior extractor to accelerate the optimization process. In addition, we propose
a new dataset for remote sensing novel view synthesis with multi-view
real-world google earth images. Extensive experiments demonstrate the
superiority of the ImMPI over previous state-of-the-art methods in terms of
reconstruction accuracy, visual fidelity, and time efficiency. Ablation
experiments also suggest the effectiveness of our methodology design. Our
dataset and code can be found at https://github.com/wyc-Chang/ImMPI
- Abstract(参考訳): リモートセンシングシーンの新しいビュー合成は、シーンの可視化、人間とコンピュータのインタラクション、および様々な下流アプリケーションにとって非常に重要である。
近年のコンピュータグラフィックスとフォトグラム技術の発展にもかかわらず、特にリモートセンシング画像では、その複雑さ、ビューの空間性、ビューパースペクティブなバリエーションが制限されているため、新しいビューの生成は依然として困難である。
本稿では,暗黙的ニューラル表現の最近の進歩を活用して,新しいリモートセンシングビュー合成手法を提案する。
リモートセンシング画像のオーバーヘッドと遠距離イメージングを考慮し,暗黙のマルチプレーン画像(MPI)表現とディープニューラルネットワークを組み合わせることで,3次元空間を表現する。
3Dシーンは、多視点入力制約を持つ微分可能な多面体レンダラーにより、自己監督最適化パラダイムの下で再構成される。
したがって、任意の新しいビューの画像は、再構成されたモデルに基づいて自由にレンダリングすることができる。
副産物として、所定の視点に対応する深度マップをレンダリング出力と共に生成することができる。
提案手法をImMPI(Imlicit Multiplane Images)と呼ぶ。
スパースビュー入力下での視点合成をさらに改善するために,リモートセンシングによる3dシーンの学習に基づく初期化を探索し,最適化プロセスを高速化するニューラルネットワークに基づく事前抽出器を提案する。
さらに,マルチビュー実世界のGoogle Earth画像を用いたリモートセンシングノベルビュー合成のための新しいデータセットを提案する。
広汎な実験は、再建精度、視覚的忠実度、時間効率の観点から、過去の最先端手法よりもImMPIの方が優れていることを示す。
アブレーション実験は,方法論設計の有効性も示唆する。
私たちのデータセットとコードはhttps://github.com/wyc-Chang/ImMPIで参照できます。
関連論文リスト
- Multi-Plane Neural Radiance Fields for Novel View Synthesis [5.478764356647437]
新しいビュー合成は、新しいカメラの視点からシーンのフレームを描画する、長年にわたる問題である。
本研究では, 単面多面体ニューラル放射場の性能, 一般化, 効率について検討する。
合成結果の改善と視聴範囲の拡大のために,複数のビューを受理する新しい多面体NeRFアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-03T06:32:55Z) - DINER: Depth-aware Image-based NEural Radiance fields [45.63488428831042]
我々はDINER(Depth-aware Image-based NEural Radiance Field)を提案する。
RGB入力ビューの粗いセットが与えられた場合、シーン表現の再構築を導くために深度と特徴マップを予測する。
特徴融合と効率的なシーンサンプリングに深度情報を組み込む新しい手法を提案する。
論文 参考訳(メタデータ) (2022-11-29T23:22:44Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Scene Representation Transformer: Geometry-Free Novel View Synthesis
Through Set-Latent Scene Representations [48.05445941939446]
コンピュータビジョンにおける古典的な問題は、インタラクティブなレートで新しいビューを描画するのに使用できる少数の画像から3Dシーン表現を推論することである。
SRT(Scene Representation Transformer)は,新しい領域のRGB画像のポーズ処理やアンポーズ処理を行う手法である。
本手法は,PSNRおよび合成データセットの速度において,最近のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-25T16:18:56Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - IBRNet: Learning Multi-View Image-Based Rendering [67.15887251196894]
本稿では,近接ビューの疎集合を補間することにより,複雑なシーンの新しいビューを合成する手法を提案する。
レンダリング時にソースビューを描画することで、画像ベースのレンダリングに関する古典的な作業に戻ります。
論文 参考訳(メタデータ) (2021-02-25T18:56:21Z) - Neural Body: Implicit Neural Representations with Structured Latent
Codes for Novel View Synthesis of Dynamic Humans [56.63912568777483]
本稿では,人間の演奏者に対する新しい視点合成の課題について,カメラビューの少なさから考察する。
異なるフレームで学習されたニューラルネットワーク表現が、変形可能なメッシュにアンカーされた同じ遅延コードセットを共有することを前提とした新しい人体表現であるNeural Bodyを提案する。
ZJU-MoCapの実験により、我々の手法は、新規なビュー合成品質において、先行研究よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-12-31T18:55:38Z) - NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis [78.5281048849446]
本稿では,複雑なシーンの新たなビューを合成する手法を提案する。
提案アルゴリズムは,完全接続型(非畳み込み型)深層ネットワークを用いたシーンを表現する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
論文 参考訳(メタデータ) (2020-03-19T17:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。