論文の概要: Copy and Paste GAN: Face Hallucination from Shaded Thumbnails
- arxiv url: http://arxiv.org/abs/2002.10650v3
- Date: Thu, 19 Mar 2020 07:31:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:47:33.000732
- Title: Copy and Paste GAN: Face Hallucination from Shaded Thumbnails
- Title(参考訳): ganのコピー&ペースト:シェードサムネイルからの顔幻覚
- Authors: Yang Zhang, Ivor Tsang, Yawei Luo, Changhui Hu, Xiaobo Lu, Xin Yu
- Abstract要約: 本稿では,CPGAN (Copy and Paste Generative Adversarial Network) を提案する。
本手法は,一様照明条件下での真正なHR顔画像を示し,定性的かつ定量的に最先端の手法に優れる。
- 参考スコア(独自算出の注目度): 45.98561483932554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing face hallucination methods based on convolutional neural networks
(CNN) have achieved impressive performance on low-resolution (LR) faces in a
normal illumination condition. However, their performance degrades dramatically
when LR faces are captured in low or non-uniform illumination conditions. This
paper proposes a Copy and Paste Generative Adversarial Network (CPGAN) to
recover authentic high-resolution (HR) face images while compensating for low
and non-uniform illumination. To this end, we develop two key components in our
CPGAN: internal and external Copy and Paste nets (CPnets). Specifically, our
internal CPnet exploits facial information residing in the input image to
enhance facial details; while our external CPnet leverages an external HR face
for illumination compensation. A new illumination compensation loss is thus
developed to capture illumination from the external guided face image
effectively. Furthermore, our method offsets illumination and upsamples facial
details alternately in a coarse-to-fine fashion, thus alleviating the
correspondence ambiguity between LR inputs and external HR inputs. Extensive
experiments demonstrate that our method manifests authentic HR face images in a
uniform illumination condition and outperforms state-of-the-art methods
qualitatively and quantitatively.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)に基づく既存の顔幻覚法は、通常の照明条件下での低分解能(LR)面において優れた性能を発揮する。
しかし、LR面が低あるいは一様でない照明条件下で捕捉されると、その性能は劇的に低下する。
本稿では、高解像度(HR)顔画像の高解像度化を図り、低域および非均一な照明を補正するコピー・ペースト生成支援ネットワーク(CPGAN)を提案する。
この目的のために,CPGANには内部および外部のコピーとペーストネット(CPnet)という2つの重要なコンポーネントを開発している。
特に、我々の内部cpnetは、入力画像に存在する顔情報を利用して顔の詳細を高め、外部cpnetは、照明補償のために外部hr顔を利用する。
これにより、外部誘導顔画像からの照明を効果的に捉えるために、新たな照明補償損失が生じる。
さらに,本手法は照明をオフセットし,粗い方法で顔の詳細を交互にアップサンプリングすることにより,LR入力と外部HR入力との一致の曖昧さを軽減する。
広汎な実験により,本手法は一様照明条件下で真正のHR顔像を呈示し,定性的かつ定量的に最先端の手法より優れていることが示された。
関連論文リスト
- Photometric Inverse Rendering: Shading Cues Modeling and Surface Reflectance Regularization [46.146783750386994]
本稿では,ニューラル・リバース・レンダリングの新しい手法を提案する。
画像の自己陰影を考慮した光源位置の最適化を行う。
表面反射率の分解性を高めるために,新しい正則化を導入する。
論文 参考訳(メタデータ) (2024-08-13T11:39:14Z) - SIRe-IR: Inverse Rendering for BRDF Reconstruction with Shadow and
Illumination Removal in High-Illuminance Scenes [51.50157919750782]
本稿では,環境マップ,アルベド,粗さにシーンを分解する暗黙のニューラルレンダリング逆アプローチSIRe-IRを提案する。
間接放射場、通常光、可視光、および直接光を同時に正確にモデル化することにより、影と間接光の両方を除去することができる。
強い照明の存在下でも,影の干渉を伴わずに高品質なアルベドと粗さを回収する。
論文 参考訳(メタデータ) (2023-10-19T10:44:23Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Pro-UIGAN: Progressive Face Hallucination from Occluded Thumbnails [53.080403912727604]
Inpainting Generative Adversarial Network, Pro-UIGANを提案する。
顔の形状を利用して、隠された小さな顔の補充とアップサンプリング(8*)を行う。
Pro-UIGANは、HR面を視覚的に満足させ、下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-02T02:29:24Z) - Intrinsic Image Transfer for Illumination Manipulation [1.2387676601792899]
本稿では,照明操作のための固有画像転送(IIT)アルゴリズムを提案する。
2つの照明面間の局所的な画像変換を生成する。
本報告では,本質的な画像分解を行うことなく,全ての損失を低減できることを示す。
論文 参考訳(メタデータ) (2021-07-01T19:12:24Z) - Learning Flow-based Feature Warping for Face Frontalization with
Illumination Inconsistent Supervision [73.18554605744842]
Flow-based Feature Warping Model (FFWM) は、正面画像を保存するフォトリアリスティックおよび照明の合成を学ぶ。
Illumination Preserving Module (IPM) を提案する。
Warp Attention Module (WAM) は、機能レベルでのポーズの相違を低減するために導入された。
論文 参考訳(メタデータ) (2020-08-16T06:07:00Z) - Recurrent Exposure Generation for Low-Light Face Detection [113.25331155337759]
本稿では,Recurrent Exposure Generation (REG) モジュールと Multi-Exposure Detection (MED) モジュールを提案する。
REGは、様々な露光設定に対応する段階的かつ効率的な中間画像を生成する。
このような擬似露光はMEDによって融合され、異なる照明条件で顔を検出する。
論文 参考訳(メタデータ) (2020-07-21T17:30:51Z) - Adaptive Multiscale Illumination-Invariant Feature Representation for
Undersampled Face Recognition [29.002873450422083]
本稿では,アンダーサンプ型顔認識における照明特性の変動を解消するために,照明不変の特徴表現手法を提案する。
入力画像の照明レベルを判定するために,Singular Value Decomposition (SVD)に基づく新しい照明レベル分類手法を提案する。
実験の結果,JLEF-featureとAJLEF-faceは,様々な照明下でのアンダーサンプル顔認識において,他の関連手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-07T06:48:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。