論文の概要: Deep Relighting Networks for Image Light Source Manipulation
- arxiv url: http://arxiv.org/abs/2008.08298v2
- Date: Thu, 15 Oct 2020 04:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 12:26:07.733262
- Title: Deep Relighting Networks for Image Light Source Manipulation
- Title(参考訳): 画像光源マニピュレーションのためのディープリライトネットワーク
- Authors: Li-Wen Wang, Wan-Chi Siu, Zhi-Song Liu, Chu-Tak Li, Daniel P.K. Lun
- Abstract要約: 本研究では,1)シーンの再現,2)影の事前推定,3)再レンダリングの3つの部分からなる新しいDeep Relighting Network(DRN)を提案する。
実験の結果,提案手法は質的,定量的に,他の方法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 37.15283682572421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manipulating the light source of given images is an interesting task and
useful in various applications, including photography and cinematography.
Existing methods usually require additional information like the geometric
structure of the scene, which may not be available for most images. In this
paper, we formulate the single image relighting task and propose a novel Deep
Relighting Network (DRN) with three parts: 1) scene reconversion, which aims to
reveal the primary scene structure through a deep auto-encoder network, 2)
shadow prior estimation, to predict light effect from the new light direction
through adversarial learning, and 3) re-renderer, to combine the primary
structure with the reconstructed shadow view to form the required estimation
under the target light source. Experimental results show that the proposed
method outperforms other possible methods, both qualitatively and
quantitatively. Specifically, the proposed DRN has achieved the best PSNR in
the "AIM2020 - Any to one relighting challenge" of the 2020 ECCV conference.
- Abstract(参考訳): 与えられた画像の光源を操作することは興味深い作業であり、写真や撮影など様々な用途で有用である。
既存の手法は通常、シーンの幾何学的構造のような追加情報を必要とするが、ほとんどの画像では利用できない。
本稿では,1つの画像リライトタスクを定式化し,3つの部分からなる新しいDeep Relighting Network(DRN)を提案する。
1)ディープオートエンコーダネットワークを通じてシーン構造を明らかにすることを目的としたシーン再構成。
2)逆学習による新しい光方向からの光効果予測のための影先行推定
3) 一次構造を再構成したシャドウビューと組み合わせて, 目標光源下で必要な推定を行う再レンダリング装置。
実験の結果,提案手法は質的および定量的に他の手法よりも優れていることがわかった。
具体的には、提案されたDRNは、2020 ECCVカンファレンスの"AIM2020 - Any to one relighting Challenge"で最高のPSNRを達成した。
関連論文リスト
- GS-Phong: Meta-Learned 3D Gaussians for Relightable Novel View Synthesis [63.5925701087252]
本稿では,3次元ガウス点の集合を用いて,点光で照らされたシーンを表現する手法を提案する。
Blinn-Phongモデルにインスパイアされた我々の手法は、シーンを周囲、拡散、および特異成分に分解する。
照明条件に依存しない幾何学的情報の分解を容易にするため,新しい二段階最適化に基づくメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-31T13:48:54Z) - Reconstructing Continuous Light Field From Single Coded Image [7.937367109582907]
本研究では,対象シーンの連続光場を単一観測画像から再構成する手法を提案する。
カメラに実装された共同開口露光符号化により、3次元シーン情報の観察画像への効果的な埋め込みが可能となる。
NeRFベースのニューラルレンダリングは、連続的な視点から3Dシーンの高品質なビュー合成を可能にする。
論文 参考訳(メタデータ) (2023-11-16T07:59:01Z) - Factored-NeuS: Reconstructing Surfaces, Illumination, and Materials of
Possibly Glossy Objects [46.04357263321969]
提案する多視点画像からシーンの表面, 材料, 照明を復元する手法を開発した。
追加のデータは必要ないし、光沢のあるオブジェクトや明るい照明も扱える。
論文 参考訳(メタデータ) (2023-05-29T07:44:19Z) - Learning to Relight Portrait Images via a Virtual Light Stage and
Synthetic-to-Real Adaptation [76.96499178502759]
Relightingは、イメージ内の人物を、ターゲットの照明のある環境に現れたかのように再照らすことを目的としている。
最近の手法は、高品質な結果を得るためにディープラーニングに依存している。
そこで本研究では,光ステージを必要とせずに,SOTA(State-of-the-art Relighting Method)と同等に動作可能な新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T17:15:58Z) - Designing An Illumination-Aware Network for Deep Image Relighting [69.750906769976]
本稿では、階層的なサンプリングから1つの画像からシーンを段階的にリライトするためのガイダンスに従うイルミネーション・アウェア・ネットワーク(IAN)を提案する。
さらに、物理レンダリングプロセスの近似として、イルミネーション・アウェア・残留ブロック(IARB)が設計されている。
実験の結果,提案手法は従来の最先端手法よりも定量的,定性的な照準結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-07-21T16:21:24Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - NVS-MonoDepth: Improving Monocular Depth Prediction with Novel View
Synthesis [74.4983052902396]
単眼深度推定を改善するために,3つの主要なステップに分割した新しいトレーニング手法を提案する。
実験により,KITTIおよびNYU-Depth-v2データセット上での最先端ないし同等の性能が得られた。
論文 参考訳(メタデータ) (2021-12-22T12:21:08Z) - Physically Inspired Dense Fusion Networks for Relighting [45.66699760138863]
物理的洞察でニューラルネットワークを豊かにするモデルを提案する。
2つの異なる戦略により、新しい照明設定でリライト画像を生成します。
提案手法は,よく知られた忠実度指標と知覚的損失の点で,最先端手法を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-05-05T17:33:45Z) - Bridge the Vision Gap from Field to Command: A Deep Learning Network
Enhancing Illumination and Details [17.25188250076639]
我々は,明るさを調整し,細部を同時に強化する2ストリームフレームワークNEIDを提案する。
提案手法は,光強調 (LE), 細粒化 (DR), 特徴拡散 (FF) モジュールの3つの部分から構成される。
論文 参考訳(メタデータ) (2021-01-20T09:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。