論文の概要: Scene relighting with illumination estimation in the latent space on an
encoder-decoder scheme
- arxiv url: http://arxiv.org/abs/2006.02333v1
- Date: Wed, 3 Jun 2020 15:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 18:12:13.349366
- Title: Scene relighting with illumination estimation in the latent space on an
encoder-decoder scheme
- Title(参考訳): エンコーダ・デコーダ方式による潜在空間の照明推定によるシーンリライト
- Authors: Alexandre Pierre Dherse, Martin Nicolas Everaert, Jakub Jan
Gwizda{\l}a
- Abstract要約: 本報告では,その目的を達成するための手法について述べる。
我々のモデルは、シーン内容、光源位置、色温度の異なる、人工的な場所のレンダリングデータセットに基づいて訓練されている。
本データセットでは,被写体の潜在空間表現における光条件の推測と置き換えを目的とした照明推定成分を用いたネットワークを用いた。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The image relighting task of transferring illumination conditions between two
images offers an interesting and difficult challenge with potential
applications in photography, cinematography and computer graphics. In this
report we present methods that we tried to achieve that goal. Our models are
trained on a rendered dataset of artificial locations with varied scene
content, light source location and color temperature. With this dataset, we
used a network with illumination estimation component aiming to infer and
replace light conditions in the latent space representation of the concerned
scenes.
- Abstract(参考訳): 2つの画像間で照明条件を転送する画像リライト作業は、写真、撮影、コンピュータグラフィックスの潜在的な応用において、興味深い、そして困難な課題となる。
本報告では,その目標を達成するための手法を提案する。
我々のモデルは、シーン内容、光源位置、色温度の異なる人工的な場所のレンダリングデータセットに基づいて訓練されている。
このデータセットでは,対象場面の潜在空間表現における光条件の推測と置換を目的とした照明推定成分を備えたネットワークを用いた。
関連論文リスト
- Neural Light Field Estimation for Street Scenes with Differentiable
Virtual Object Insertion [129.52943959497665]
既存の屋外照明推定の作業は通常、シーン照明を環境マップに単純化する。
単一画像から5次元HDR光場を推定するニューラルネットワークを提案する。
自律運転アプリケーションにおけるARオブジェクト挿入の利点を示す。
論文 参考訳(メタデータ) (2022-08-19T17:59:16Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Spatio-Temporal Outdoor Lighting Aggregation on Image Sequences using
Transformer Networks [23.6427456783115]
本研究は,画像からのノイズ推定を集約した屋外照明推定に焦点をあてる。
ディープニューラルネットワークに基づく最近の研究は、単一画像の照明推定に有望な結果を示しているが、堅牢性に悩まされている。
画像シーケンスの角領域と時間領域でサンプリングされた複数の画像ビューからの照明推定値を組み合わせることで、この問題に対処する。
論文 参考訳(メタデータ) (2022-02-18T14:11:16Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - Relighting Images in the Wild with a Self-Supervised Siamese
Auto-Encoder [62.580345486483886]
本研究では,野生の単一ビュー画像の自己教師付きリライティング手法を提案する。
この方法は、イメージを2つの別々のエンコーディングに分解するオートエンコーダに基づいている。
Youtube 8MやCelebAなどの大規模データセットでモデルをトレーニングします。
論文 参考訳(メタデータ) (2020-12-11T16:08:50Z) - Illumination Normalization by Partially Impossible Encoder-Decoder Cost
Function [13.618797548020462]
本稿では,エンコーダデコーダネットワークのコスト関数定式化のための新しい手法を提案する。
本手法は,異なる照明条件と環境条件下での同一シーンの可利用性を利用した。
適用性は3つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-11-06T15:25:26Z) - Light Stage Super-Resolution: Continuous High-Frequency Relighting [58.09243542908402]
光ステージから採取した人間の顔の「超解像」を学習ベースで解析する手法を提案する。
本手法では,ステージ内の隣接する照明に対応する撮像画像を集約し,ニューラルネットワークを用いて顔の描画を合成する。
我々の学習モデルは、リアルな影と特異なハイライトを示す任意の光方向のレンダリングを生成することができる。
論文 参考訳(メタデータ) (2020-10-17T23:40:43Z) - Light Direction and Color Estimation from Single Image with Deep
Regression [25.45529007045549]
単一画像からシーン光源の方向と色を推定する手法を提案する。
a)SIDデータセットと同様の制約で強い影効果を持つ新しい合成データセットを使用し、(b)上記データセットに基づいてトレーニングされた深層アーキテクチャを定義し、シーン光源の方向と色を推定する。
論文 参考訳(メタデータ) (2020-09-18T17:33:49Z) - Towards Geometry Guided Neural Relighting with Flash Photography [26.511476565209026]
本稿では,深層学習を用いた深度マップを用いた1枚のフラッシュ写真から画像のリライティングを行うフレームワークを提案する。
本研究は,本質的な画像分解と画像リライティングにおける最先端の画像ベースアプローチに対する幾何学的アプローチの利点を実験的に検証する。
論文 参考訳(メタデータ) (2020-08-12T08:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。