論文の概要: A New Dimension in Testimony: Relighting Video with Reflectance Field
Exemplars
- arxiv url: http://arxiv.org/abs/2104.02773v1
- Date: Tue, 6 Apr 2021 20:29:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:54:21.858336
- Title: A New Dimension in Testimony: Relighting Video with Reflectance Field
Exemplars
- Title(参考訳): 新たな証言の次元:反射場実験によるビデオのリライティング
- Authors: Loc Huynh, Bipin Kishore, Paul Debevec
- Abstract要約: 本研究では,同じ被験者の平坦な環境下で照らされた映像の4次元反射場を推定する学習手法を提案する。
入力映像の照明環境を推定し、被写体の反射場を用いて入力照明環境によって照らされた被写体の合成画像を作成する。
本手法はホロコーストの生存者の映像上で評価し,現実性と速度の両面で最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 1.069384486725302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a learning-based method for estimating 4D reflectance field of a
person given video footage illuminated under a flat-lit environment of the same
subject. For training data, we use one light at a time to illuminate the
subject and capture the reflectance field data in a variety of poses and
viewpoints. We estimate the lighting environment of the input video footage and
use the subject's reflectance field to create synthetic images of the subject
illuminated by the input lighting environment. We then train a deep
convolutional neural network to regress the reflectance field from the
synthetic images. We also use a differentiable renderer to provide feedback for
the network by matching the relit images with the input video frames. This
semi-supervised training scheme allows the neural network to handle unseen
poses in the dataset as well as compensate for the lighting estimation error.
We evaluate our method on the video footage of the real Holocaust survivors and
show that our method outperforms the state-of-the-art methods in both realism
and speed.
- Abstract(参考訳): 本研究では,同じ被験者の平坦な環境下で照らされた映像の4次元反射場を推定する学習手法を提案する。
トレーニングデータには、被写体を照らし、様々なポーズや視点で反射場データを取得するために、一度に1つの光を使用する。
入力映像の照明環境を推定し、被写体の反射場を用いて入力照明環境によって照らされた被写体の合成画像を作成する。
次に、深層畳み込みニューラルネットワークを訓練し、合成画像から反射場を回帰させる。
また、画像と入力されたビデオフレームをマッチングすることで、ネットワークに対するフィードバックを提供するために、微分可能なレンダラを使用する。
この半教師付きトレーニングスキームにより、ニューラルネットワークはデータセットの見えないポーズを処理でき、照明推定誤差を補うことができる。
本手法はホロコーストの生存者の映像上で評価し,現実性と速度の両面で最先端の手法よりも優れていることを示す。
関連論文リスト
- WildLight: In-the-wild Inverse Rendering with a Flashlight [77.31815397135381]
本研究では、未知の環境光下での逆レンダリングのための実用的な測光ソリューションを提案する。
本システムは,スマートフォンで撮影した多視点画像のみを用いて,シーン形状と反射率を復元する。
提案手法は実装が容易で,セットアップも容易で,既存の逆レンダリング技術よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-03-24T17:59:56Z) - Neural Point Catacaustics for Novel-View Synthesis of Reflections [3.5348690973777]
曲面反射板を用いたシーンの新規なビュー合成を可能にするニューラルポイント音響計算のための新しいポイントベース表現を提案する。
ソースコードやその他の補足資料をhttps://repo-sam.inria.fr/ fungraph/neural_catacaustics/で提供します。
論文 参考訳(メタデータ) (2023-01-03T13:28:10Z) - Learning to Relight Portrait Images via a Virtual Light Stage and
Synthetic-to-Real Adaptation [76.96499178502759]
Relightingは、イメージ内の人物を、ターゲットの照明のある環境に現れたかのように再照らすことを目的としている。
最近の手法は、高品質な結果を得るためにディープラーニングに依存している。
そこで本研究では,光ステージを必要とせずに,SOTA(State-of-the-art Relighting Method)と同等に動作可能な新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T17:15:58Z) - Neural Light Field Estimation for Street Scenes with Differentiable
Virtual Object Insertion [129.52943959497665]
既存の屋外照明推定の作業は通常、シーン照明を環境マップに単純化する。
単一画像から5次元HDR光場を推定するニューラルネットワークを提案する。
自律運転アプリケーションにおけるARオブジェクト挿入の利点を示す。
論文 参考訳(メタデータ) (2022-08-19T17:59:16Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Spatio-Temporal Outdoor Lighting Aggregation on Image Sequences using
Transformer Networks [23.6427456783115]
本研究は,画像からのノイズ推定を集約した屋外照明推定に焦点をあてる。
ディープニューラルネットワークに基づく最近の研究は、単一画像の照明推定に有望な結果を示しているが、堅牢性に悩まされている。
画像シーケンスの角領域と時間領域でサンプリングされた複数の画像ビューからの照明推定値を組み合わせることで、この問題に対処する。
論文 参考訳(メタデータ) (2022-02-18T14:11:16Z) - Free-viewpoint Indoor Neural Relighting from Multi-view Stereo [5.306819482496464]
本稿では,対話型自由視点ナビゲーションが可能な屋内シーンを撮影するためのニューラルリライティングアルゴリズムを提案する。
本手法では, 鋳造影や複雑な光沢物質を連続的にレンダリングしながら, 照明を合成的に変化させることができる。
論文 参考訳(メタデータ) (2021-06-24T20:09:40Z) - Neural Ray-Tracing: Learning Surfaces and Reflectance for Relighting and
View Synthesis [28.356700318603565]
シーン間の光輸送を明示的にモデル化し、従来の統合スキームとレンダリング方程式に頼ってシーンを再構成します。
従来のレンダリング法で確立された表面表現による分解輸送を学習することにより、自然に形状、反射性、照明、シーン構成の編集が容易になる。
提案手法は,NERVデータセットのサブセットの合成およびキャプチャビューから得られたシーン編集,リライティング,リフレクタンス推定に有効である。
論文 参考訳(メタデータ) (2021-04-28T03:47:48Z) - Relighting Images in the Wild with a Self-Supervised Siamese
Auto-Encoder [62.580345486483886]
本研究では,野生の単一ビュー画像の自己教師付きリライティング手法を提案する。
この方法は、イメージを2つの別々のエンコーディングに分解するオートエンコーダに基づいている。
Youtube 8MやCelebAなどの大規模データセットでモデルをトレーニングします。
論文 参考訳(メタデータ) (2020-12-11T16:08:50Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。