論文の概要: Self-improving Multiplane-to-layer Images for Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2210.01602v1
- Date: Tue, 4 Oct 2022 13:27:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 15:18:31.222107
- Title: Self-improving Multiplane-to-layer Images for Novel View Synthesis
- Title(参考訳): 新しい視点合成のための自己改善型多面層画像
- Authors: Pavel Solovev, Taras Khakhulin, Denis Korzhenkov
- Abstract要約: 本稿では,任意の前向きシーンに一般化する軽量ノベルビュー合成法を提案する。
まず、フロント並列半透明平面を用いてシーンを表現し、その後、エンド・ツー・エンドで変形可能なレイヤに変換する。
本手法では,新しいシーンが処理された場合の微調整を必要とせず,制限なく任意の数のビューを処理できる。
- 参考スコア(独自算出の注目度): 3.9901365062418312
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a new method for lightweight novel-view synthesis that generalizes
to an arbitrary forward-facing scene. Recent approaches are computationally
expensive, require per-scene optimization, or produce a memory-expensive
representation. We start by representing the scene with a set of
fronto-parallel semitransparent planes and afterward convert them to deformable
layers in an end-to-end manner. Additionally, we employ a feed-forward
refinement procedure that corrects the estimated representation by aggregating
information from input views. Our method does not require fine-tuning when a
new scene is processed and can handle an arbitrary number of views without
restrictions. Experimental results show that our approach surpasses recent
models in terms of common metrics and human evaluation, with the noticeable
advantage in inference speed and compactness of the inferred layered geometry,
see https://samsunglabs.github.io/MLI
- Abstract(参考訳): 本稿では,任意の前方シーンに一般化した,軽量な新規視点合成手法を提案する。
最近の手法は計算コストが高く、シーンごとの最適化を必要とする。
まず、フロント並列半透明平面を用いてシーンを表現し、その後、エンドツーエンドで変形可能なレイヤに変換する。
また,入力ビューから情報を集約することで推定表現を補正するフィードフォワード補正手法を採用する。
新しいシーンが処理された場合の微調整は不要で、任意の数のビューを制限なく処理できる。
実験結果から,提案手法は実測値と人的評価の点で近年のモデルを超えており,推定層形状の推論速度とコンパクト性に顕著な優位性があることが示唆された。
関連論文リスト
- Efficient Depth-Guided Urban View Synthesis [52.841803876653465]
高速フィードフォワード推論とシーンごとのファインチューニングのための効率的な深層誘導型都市ビュー合成(EDUS)を提案する。
EDUSは、粗い入力画像から一般化可能な都市ビュー合成を可能にするためのガイダンスとして、ノイズの多い幾何学的先行情報を利用する。
その結果,EDUSは高速なテスト時間最適化と組み合わせることで,スパース・ビュー・セッティングにおける最先端性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T08:16:25Z) - UpFusion: Novel View Diffusion from Unposed Sparse View Observations [66.36092764694502]
UpFusionは、参照画像のスパースセットが与えられたオブジェクトに対して、新しいビュー合成と3D表現を推論することができる。
本研究では,この機構により,付加された(未提示)画像の合成品質を向上しつつ,高忠実度な新規ビューを生成することができることを示す。
論文 参考訳(メタデータ) (2023-12-11T18:59:55Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z) - Fast Non-Rigid Radiance Fields from Monocularized Data [66.74229489512683]
本稿では,不規則に変形するシーンを360度内向きに合成する新しい手法を提案する。
提案手法のコアとなるのは, 空間情報と時間情報の処理を分離し, 訓練と推論を高速化する効率的な変形モジュール, 2) 高速ハッシュ符号化ニューラルラジオアンスフィールドとしての標準シーンを表す静的モジュールである。
どちらの場合も,本手法は従来の手法よりもはるかに高速で,7分未満で収束し,1K解像度でリアルタイムのフレームレートを実現するとともに,生成した新規なビューに対して高い視覚的精度が得られる。
論文 参考訳(メタデータ) (2022-12-02T18:51:10Z) - Generalizable Patch-Based Neural Rendering [46.41746536545268]
未知のシーンの新たなビューを合成できるモデル学習のための新しいパラダイムを提案する。
本手法は,シーンから採取したパッチの集合からのみ,新規シーンにおける対象光線の色を直接予測することができる。
本手法は,従来よりも少ないデータでトレーニングされた場合であっても,目立たないシーンの新たなビュー合成において,最先端のビュー合成よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-21T17:57:04Z) - Stereo Magnification with Multi-Layer Images [7.20447989181373]
シーン適応幾何を用いた複数の半透明層に基づく新しいビュー合成手法を提案する。
提案手法は2段階のステレオ対からそのような表現を推論する。
実験では,正規空間層の利用に対する提案手法の利点を実証する。
論文 参考訳(メタデータ) (2022-01-13T15:19:46Z) - Free View Synthesis [100.86844680362196]
本稿では,シーンの周囲に自由に分布する入力画像から新規なビュー合成手法を提案する。
本手法は,入力ビューの規則的な配置に依存しず,シーンを通して自由なカメラ運動のための画像の合成が可能であり,制約のない幾何学的レイアウトの一般的な場面で機能する。
論文 参考訳(メタデータ) (2020-08-12T18:16:08Z) - NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis [78.5281048849446]
本稿では,複雑なシーンの新たなビューを合成する手法を提案する。
提案アルゴリズムは,完全接続型(非畳み込み型)深層ネットワークを用いたシーンを表現する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
論文 参考訳(メタデータ) (2020-03-19T17:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。