論文の概要: StyleRetoucher: Generalized Portrait Image Retouching with GAN Priors
- arxiv url: http://arxiv.org/abs/2312.14389v1
- Date: Fri, 22 Dec 2023 02:32:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 16:27:32.199593
- Title: StyleRetoucher: Generalized Portrait Image Retouching with GAN Priors
- Title(参考訳): StyleRetoucher:GANプリミティブによる一般的なポートレートイメージのリタッチ
- Authors: Wanchao Su, Can Wang, Chen Liu, Hangzhou Han, Hongbo Fu, Jing Liao
- Abstract要約: StyleRetoucherは、新しい自動ポートレートイメージリタッチフレームワークである。
本手法は,顔の詳細を保存しながら,入力像の皮膚状態を改善する。
そこで本研究では,皮膚のブレンディッシュを効果的に識別し,除去するための新規なブレンディッシュ認識機能選択機構を提案する。
- 参考スコア(独自算出の注目度): 30.000584682643183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating fine-retouched portrait images is tedious and time-consuming even
for professional artists. There exist automatic retouching methods, but they
either suffer from over-smoothing artifacts or lack generalization ability. To
address such issues, we present StyleRetoucher, a novel automatic portrait
image retouching framework, leveraging StyleGAN's generation and generalization
ability to improve an input portrait image's skin condition while preserving
its facial details. Harnessing the priors of pretrained StyleGAN, our method
shows superior robustness: a). performing stably with fewer training samples
and b). generalizing well on the out-domain data. Moreover, by blending the
spatial features of the input image and intermediate features of the StyleGAN
layers, our method preserves the input characteristics to the largest extent.
We further propose a novel blemish-aware feature selection mechanism to
effectively identify and remove the skin blemishes, improving the image skin
condition. Qualitative and quantitative evaluations validate the great
generalization capability of our method. Further experiments show
StyleRetoucher's superior performance to the alternative solutions in the image
retouching task. We also conduct a user perceptive study to confirm the
superior retouching performance of our method over the existing
state-of-the-art alternatives.
- Abstract(参考訳): ポートレート画像の微調整は、プロのアーティストにとっても退屈で時間がかかります。
自動リタッチは存在するが、過度にスムースなアーティファクトに悩まされるか、一般化能力に欠ける。
そこで本研究では,styleganの生成と一般化を活かし,顔の細部を保ちつつ入力画像の肌状態を改善するための,新しい自動ポートレート画像リタッチフレームワークであるstyleretoucherを提案する。
事前訓練したStyleGANの先行性から,本手法はより優れた堅牢性を示す。
a)。
少ないトレーニングサンプルで安定して実行し
b)。
ドメイン外のデータでうまく一般化する。
さらに,入力画像の空間的特徴とStyleGAN層の中間特徴を混合することにより,入力特性を最大に保持する。
さらに,スキンブレミッシュを効果的に識別し除去し,画像皮膚状態を改善する新しいブレミッシュ認識特徴選択機構を提案する。
定性的かつ定量的な評価は,本手法の大きな一般化能力を検証する。
さらなる実験により、styleretoucherはイメージリタッチタスクの代替ソリューションよりも優れたパフォーマンスを示している。
また,既存手法よりも優れた修正性能を確認するために,利用者の意識調査を実施している。
関連論文リスト
- AuthFace: Towards Authentic Blind Face Restoration with Face-oriented Generative Diffusion Prior [13.27748226506837]
ブラインドフェイス修復(BFR)は、コンピュータビジョンにおける基本的な問題である。
最近の研究は、強力な事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルによる顔画像の先行性に依存している。
本稿では,顔指向生成拡散を先行して探索することにより,顔復元の精度を高めるAuthFaceを提案する。
論文 参考訳(メタデータ) (2024-10-13T14:56:13Z) - Overcoming False Illusions in Real-World Face Restoration with Multi-Modal Guided Diffusion Model [55.46927355649013]
本稿では,新しいマルチモーダル・リアル・ワールド・フェイス・リカバリ技術を紹介する。
MGFRは偽の顔の特徴とアイデンティティの生成を緩和することができる。
5000のアイデンティティにまたがる23,000以上の高解像度の顔画像からなるReface-HQデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-05T13:46:56Z) - Realistic and Efficient Face Swapping: A Unified Approach with Diffusion Models [69.50286698375386]
フェース・スワッピングのための拡散モデルを改善する新しい手法を提案する。
インペイントトレーニング中にマスクシャッフル技術を導入し、スワップのためのいわゆるユニバーサルモデルを作成することができる。
私たちのアプローチは比較的統一されたアプローチなので、他のオフザシェルフモデルのエラーに対して耐性があります。
論文 参考訳(メタデータ) (2024-09-11T13:43:53Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - MagiCapture: High-Resolution Multi-Concept Portrait Customization [34.131515004434846]
MagiCaptureは、高解像度のポートレート画像を生成するために、主題とスタイルの概念を統合するパーソナライズ方法である。
本稿では,この弱教師付き学習環境内での頑健な学習を支援する,補助的先行学習と組み合わせた注意再焦点損失について紹介する。
私たちのパイプラインには、非常に現実的なアウトプットの生成を保証するための、追加のプロセス後ステップも含まれています。
論文 参考訳(メタデータ) (2023-09-13T11:37:04Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - Retrieve in Style: Unsupervised Facial Feature Transfer and Retrieval [17.833454714281757]
Retrieve in Style (RIS) は、実際の画像におけるきめ細かい顔の特徴の伝達と検索のための教師なしのフレームワークである。
RISは、高忠実な特徴伝達と、実画像上の精密な精細な検索の両方を実現する。
論文 参考訳(メタデータ) (2021-07-13T17:31:34Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。