論文の概要: StyLitGAN: Prompting StyleGAN to Produce New Illumination Conditions
- arxiv url: http://arxiv.org/abs/2205.10351v2
- Date: Mon, 1 May 2023 17:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 20:07:04.003392
- Title: StyLitGAN: Prompting StyleGAN to Produce New Illumination Conditions
- Title(参考訳): StyLitGAN:新しい照明条件を創出するスタイルGAN
- Authors: Anand Bhattad and D.A. Forsyth
- Abstract要約: 本稿では,ラベル付きデータがない場合に生成した画像をリライトし,再提示するための新しい手法であるStyLitGANを提案する。
提案手法では,ペアデータやCGIデータを必要とせず,キャストシャドウ,ソフトシャドウ,反射間効果,光沢効果などのリアルな照明効果を持つ画像を生成する。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method, StyLitGAN, for relighting and resurfacing
generated images in the absence of labeled data. Our approach generates images
with realistic lighting effects, including cast shadows, soft shadows,
inter-reflections, and glossy effects, without the need for paired or CGI data.
StyLitGAN uses an intrinsic image method to decompose an image, followed by a
search of the latent space of a pre-trained StyleGAN to identify a set of
directions. By prompting the model to fix one component (e.g., albedo) and vary
another (e.g., shading), we generate relighted images by adding the identified
directions to the latent style codes. Quantitative metrics of change in albedo
and lighting diversity allow us to choose effective directions using a forward
selection process. Qualitative evaluation confirms the effectiveness of our
method.
- Abstract(参考訳): そこで本稿では,ラベル付きデータがない場合に生成画像の表示と修正を行う新しい手法であるスタイリタンを提案する。
提案手法では,ペアやCGIデータを必要としない,キャストシャドウ,ソフトシャドウ,反射間効果,光沢効果などのリアルな照明効果を持つ画像を生成する。
StyLitGANは画像の分解に固有の画像法を使用し、続いて事前訓練されたStyleGANの潜伏空間を探索して方向の集合を特定する。
モデルに1つのコンポーネント(例えばアルベド)を修正させ、別のコンポーネント(例えばシェーディング)を変更させることで、特定した方向を潜在スタイルコードに追加することで、リライトされた画像を生成する。
アルベドと照明の多様性の変化の定量的指標は、前方選択プロセスを用いて効果的な方向を選択することができる。
定性評価は,本手法の有効性を確認する。
関連論文リスト
- CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Revealing Shadows: Low-Light Image Enhancement Using Self-Calibrated
Illumination [4.913568097686369]
自己校正イルミネーション(Self-Calibrated Illumination, SCI)は、当初RGB画像向けに開発された戦略である。
我々はSCI法を用いて、低照度条件下で通常失われる詳細を強調・明らかにする。
この選択的照明強調方法は、色情報をそのまま残し、画像の色整合性を保つ。
論文 参考訳(メタデータ) (2023-12-23T08:49:19Z) - Layered Rendering Diffusion Model for Zero-Shot Guided Image Synthesis [60.260724486834164]
本稿では,テキストクエリに依存する拡散モデルにおける空間制御性向上のための革新的な手法を提案する。
視覚誘導(Vision Guidance)とレイヤーレンダリング拡散(Layered Rendering Diffusion)フレームワーク(Layered Diffusion)という2つの重要なイノベーションを提示します。
本稿では,ボックス・ツー・イメージ,セマンティック・マスク・ツー・イメージ,画像編集の3つの実践的応用に適用する。
論文 参考訳(メタデータ) (2023-11-30T10:36:19Z) - NeFII: Inverse Rendering for Reflectance Decomposition with Near-Field
Indirect Illumination [48.42173911185454]
逆レンダリング手法は、多視点RGB画像から幾何学、材料、照明を推定することを目的としている。
本稿では,多視点画像から材料と照明を分解するエンドツーエンドの逆レンダリングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-29T12:05:19Z) - Designing An Illumination-Aware Network for Deep Image Relighting [69.750906769976]
本稿では、階層的なサンプリングから1つの画像からシーンを段階的にリライトするためのガイダンスに従うイルミネーション・アウェア・ネットワーク(IAN)を提案する。
さらに、物理レンダリングプロセスの近似として、イルミネーション・アウェア・残留ブロック(IARB)が設計されている。
実験の結果,提案手法は従来の最先端手法よりも定量的,定性的な照準結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-07-21T16:21:24Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Shed Various Lights on a Low-Light Image: Multi-Level Enhancement Guided
by Arbitrary References [17.59529931863947]
本稿では,マルチレベル低光度画像強調のためのニューラルネットワークを提案する。
スタイル転送にインスパイアされたこの手法は,潜在空間内の2つの低結合機能コンポーネントにイメージを分解する。
このようにして、ネットワークは一連の画像対からシーン不変および明るさ固有情報を抽出することを学ぶ。
論文 参考訳(メタデータ) (2021-01-04T07:38:51Z) - Style Intervention: How to Achieve Spatial Disentanglement with
Style-based Generators? [100.60938767993088]
任意の入力画像に適応し、フレキシブルな目的の下で自然な翻訳効果をレンダリングできる軽量な最適化アルゴリズムを提案する。
フォトリアリズムと一貫性の両方を必要とする高解像度画像の顔属性編集において,提案するフレームワークの性能を検証する。
論文 参考訳(メタデータ) (2020-11-19T07:37:31Z) - Light Direction and Color Estimation from Single Image with Deep
Regression [25.45529007045549]
単一画像からシーン光源の方向と色を推定する手法を提案する。
a)SIDデータセットと同様の制約で強い影効果を持つ新しい合成データセットを使用し、(b)上記データセットに基づいてトレーニングされた深層アーキテクチャを定義し、シーン光源の方向と色を推定する。
論文 参考訳(メタデータ) (2020-09-18T17:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。