論文の概要: Appearance Editing with Free-viewpoint Neural Rendering
- arxiv url: http://arxiv.org/abs/2110.07674v1
- Date: Thu, 14 Oct 2021 19:14:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 08:43:18.021805
- Title: Appearance Editing with Free-viewpoint Neural Rendering
- Title(参考訳): 自由視点ニューラルレンダリングによる外観編集
- Authors: Pulkit Gera, Aakash KT, Dhawal Sirikonda, Parikshit Sakurikar, P.J.
Narayanan
- Abstract要約: 多視点画像からのシーンの同時合成と外観編集のためのフレームワークを提案する。
当社のアプローチでは、外観を明示的に切り離し、それとは独立して照明表現を学ぶ。
実際のシーンの外観を編集する結果を示し,提案手法が妥当な外観編集を実現することを示す。
- 参考スコア(独自算出の注目度): 6.3417651529192005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a neural rendering framework for simultaneous view synthesis and
appearance editing of a scene from multi-view images captured under known
environment illumination. Existing approaches either achieve view synthesis
alone or view synthesis along with relighting, without direct control over the
scene's appearance. Our approach explicitly disentangles the appearance and
learns a lighting representation that is independent of it. Specifically, we
independently estimate the BRDF and use it to learn a lighting-only
representation of the scene. Such disentanglement allows our approach to
generalize to arbitrary changes in appearance while performing view synthesis.
We show results of editing the appearance of a real scene, demonstrating that
our approach produces plausible appearance editing. The performance of our view
synthesis approach is demonstrated to be at par with state-of-the-art
approaches on both real and synthetic data.
- Abstract(参考訳): 環境照明下で撮影された多視点画像からシーンの同時合成と外観編集のためのニューラルネットワークレンダリングフレームワークを提案する。
既存のアプローチは、シーンの外観を直接制御することなく、ビュー合成のみを達成するか、ライティングとともにビュー合成を達成する。
当社のアプローチでは、外観を明示的に切り離し、それとは独立して照明表現を学ぶ。
具体的には、BRDFを独立に推定し、それを用いてシーンの照明のみの表現を学習する。
このような絡み合いは、ビュー合成を行いながら外観の任意の変化に一般化することができる。
実際のシーンの外観を編集する結果を示し,提案手法が妥当な外観編集を実現することを示す。
ビュー合成手法の性能は, 実データと合成データの両方に対する最先端の手法と同等であることが実証された。
関連論文リスト
- Adjustable Visual Appearance for Generalizable Novel View Synthesis [12.901033240320725]
一般化可能な新規ビュー合成法を提案する。
これにより、観測されたシーンの視覚的な外観を変更でき、レンダリングされたビューがターゲットの天気や照明条件にマッチする。
提案手法は,事前訓練された一般化可能な変圧器アーキテクチャに基づいて,合成されたシーンを微調整する。
論文 参考訳(メタデータ) (2023-06-02T08:17:04Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Non-Rigid Neural Radiance Fields: Reconstruction and Novel View
Synthesis of a Dynamic Scene From Monocular Video [76.19076002661157]
Non-Rigid Neural Radiance Fields (NR-NeRF) は、一般的な非剛体動的シーンに対する再構成および新しいビュー合成手法である。
一つのコンシューマ級カメラでさえ、新しい仮想カメラビューからダイナミックシーンの洗練されたレンダリングを合成するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-12-22T18:46:12Z) - Neural Scene Graphs for Dynamic Scenes [57.65413768984925]
動的シーンをシーングラフに分解する最初のニューラルレンダリング手法を提案する。
我々は暗黙的に符号化されたシーンと、単一の暗黙の関数でオブジェクトを記述するために共同で学習された潜在表現を組み合わせる。
論文 参考訳(メタデータ) (2020-11-20T12:37:10Z) - Semantic View Synthesis [56.47999473206778]
我々はセマンティック・ビュー・シンセサイザーの新たな課題に取り組み、セマンティック・ラベル・マップを入力として、合成シーンの自由視点レンダリングを生成する。
まず,3次元映像の視覚面の色と深度を合成することに焦点を当てた。
次に、合成色と深度を用いて、多面画像(MPI)表現予測プロセスに明示的な制約を課す。
論文 参考訳(メタデータ) (2020-08-24T17:59:46Z) - Neural Light Transport for Relighting and View Synthesis [70.39907425114302]
シーンの光輸送(LT)は、異なる照明と視界の方向の下でどのように見えるかを記述する。
本研究では、既知の幾何学的性質のテクスチャアトラスに埋め込まれたLTの神経表現を学習するための半パラメトリック手法を提案する。
照明条件下では,従来観測されていた照度と視界を融合させて,同じシーンの新たなイメージを合成する方法を示す。
論文 参考訳(メタデータ) (2020-08-09T20:13:15Z) - NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis [78.5281048849446]
本稿では,複雑なシーンの新たなビューを合成する手法を提案する。
提案アルゴリズムは,完全接続型(非畳み込み型)深層ネットワークを用いたシーンを表現する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
論文 参考訳(メタデータ) (2020-03-19T17:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。