論文の概要: CA-GAN: Weakly Supervised Color Aware GAN for Controllable Makeup
Transfer
- arxiv url: http://arxiv.org/abs/2008.10298v1
- Date: Mon, 24 Aug 2020 10:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 08:57:23.141819
- Title: CA-GAN: Weakly Supervised Color Aware GAN for Controllable Makeup
Transfer
- Title(参考訳): CA-GAN:制御可能なメイクアップ転送のためのカラーアウェアGAN
- Authors: Robin Kips, Pietro Gori, Matthieu Perrot, Isabelle Bloch
- Abstract要約: 色制御可能な化粧スタイル合成の学習を目的とした化粧スタイル伝達タスクの新しい定式化を提案する。
画像中の特定の物体の色を任意のターゲット色に修正する学習モデルであるCA-GANを紹介する。
メイクスタイルの転写と色制御性能の定量的解析を初めて行った。
- 参考スコア(独自算出の注目度): 10.086015702323971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While existing makeup style transfer models perform an image synthesis whose
results cannot be explicitly controlled, the ability to modify makeup color
continuously is a desirable property for virtual try-on applications. We
propose a new formulation for the makeup style transfer task, with the
objective to learn a color controllable makeup style synthesis. We introduce
CA-GAN, a generative model that learns to modify the color of specific objects
(e.g. lips or eyes) in the image to an arbitrary target color while preserving
background. Since color labels are rare and costly to acquire, our method
leverages weakly supervised learning for conditional GANs. This enables to
learn a controllable synthesis of complex objects, and only requires a weak
proxy of the image attribute that we desire to modify. Finally, we present for
the first time a quantitative analysis of makeup style transfer and color
control performance.
- Abstract(参考訳): 既存のメイクスタイル転送モデルは、結果を明示的に制御できない画像合成を行うが、メイクスタイルを連続的に修正することは仮想トライオンアプリケーションにとって望ましい特性である。
色制御可能な化粧スタイル合成の学習を目的とした化粧スタイル伝達タスクの新しい定式化を提案する。
画像中の特定の物体(例えば唇や目)の色を、背景を保ちながら任意のターゲット色に変化させることを学習する生成モデルであるCA-GANを紹介する。
カラーラベルは稀で,取得に費用がかかるため,条件付きGANに対して弱い教師付き学習を利用する。
これにより、複雑なオブジェクトの制御可能な合成を学ぶことができ、修正したい画像属性の弱いプロキシのみを必要とする。
最後に,メイクスタイルの転写と色制御性能の定量的解析を行った。
関連論文リスト
- Stable Flow: Vital Layers for Training-Free Image Editing [74.52248787189302]
拡散モデルはコンテンツ合成と編集の分野に革命をもたらした。
最近のモデルでは、従来のUNetアーキテクチャをDiffusion Transformer (DiT)に置き換えている。
画像形成に欠かせないDiT内の「硝子層」を自動同定する手法を提案する。
次に、実画像編集を可能にするために、フローモデルのための改良された画像反転手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T18:59:51Z) - IReNe: Instant Recoloring of Neural Radiance Fields [54.94866137102324]
我々は、NeRFにおける高速、ほぼリアルタイムな色編集を可能にするIReNeを紹介する。
トレーニング済みのNeRFモデルとユーザ対応カラー編集によるトレーニングイメージを併用する。
この調整により、モデルはトレーニング画像からの色変化を正確に表現して、新しいシーンビューを生成することができる。
論文 参考訳(メタデータ) (2024-05-30T09:30:28Z) - Automatic Controllable Colorization via Imagination [55.489416987587305]
本稿では,反復的な編集と修正が可能な自動色付けフレームワークを提案する。
グレースケール画像内のコンテンツを理解することにより、トレーニング済みの画像生成モデルを用いて、同じコンテンツを含む複数の画像を生成する。
これらの画像は、人間の専門家の過程を模倣して、色付けの参考となる。
論文 参考訳(メタデータ) (2024-04-08T16:46:07Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Diffusing Colors: Image Colorization with Text Guided Diffusion [11.727899027933466]
粒状テキストプロンプトを用いた画像拡散技術を利用した新しい画像カラー化フレームワークを提案する。
本手法は,視覚的品質とセマンティック・コヒーレンスの観点から,既存の技術よりも優れた自動化と制御のバランスを与える。
我々のアプローチは、特に色強調と歴史的イメージのカラー化の可能性を秘めている。
論文 参考訳(メタデータ) (2023-12-07T08:59:20Z) - Incorporating Ensemble and Transfer Learning For An End-To-End
Auto-Colorized Image Detection Model [0.0]
本稿では,移動学習とアンサンブル学習の利点を組み合わせた新たな手法を提案する。
提案したモデルは、94.55%から99.13%の精度で有望な結果を示す。
論文 参考訳(メタデータ) (2023-09-25T19:22:57Z) - Dequantization and Color Transfer with Diffusion Models [5.228564799458042]
量子化されたイメージは、パッチベースの編集とパレット転送を簡単に抽象化する。
提案モデルでは,ユーザが求めているカラーパレットを尊重する自然な画像を生成できることが示される。
本手法は,画像のテクスチャを尊重しながら,画像のパッチを塗り替えることによって,別の実用的な編集に拡張することができる。
論文 参考訳(メタデータ) (2023-07-06T00:07:32Z) - Towards Vivid and Diverse Image Colorization with Generative Color Prior [17.087464490162073]
最近のディープラーニングベースの手法は、画像のカラー化を低コストで行うことができる。
我々は,事前学習されたGAN(Generative Adversarial Networks)にカプセル化されている,豊かで多様な色を活かして鮮やかな色を復元することを目的としている。
先進的なデザインと繊細なデザインの強力な生成色のおかげで、我々の手法は1つの前進パスで鮮やかな色を作り出すことができた。
論文 参考訳(メタデータ) (2021-08-19T17:49:21Z) - HistoGAN: Controlling Colors of GAN-Generated and Real Images via Color
Histograms [52.77252727786091]
HistoGANは、GAN生成画像の色を制御するための色ヒストグラムに基づく方法である。
我々は、HistoGANを拡張して、実画像を再色する方法を示す。
論文 参考訳(メタデータ) (2020-11-23T21:14:19Z) - Semantic Photo Manipulation with a Generative Image Prior [86.01714863596347]
GANは、ユーザスケッチ、テキスト、セマンティックラベルなどの入力に条件付きイメージを合成することができる。
GANが入力画像を正確に再現することは困難である。
本稿では,GANが以前に学んだイメージを個々の画像の統計に適応させることにより,これらの問題に対処する。
提案手法は,入力画像の外観と一致して,入力画像を正確に再構成し,新たなコンテンツを合成することができる。
論文 参考訳(メタデータ) (2020-05-15T18:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。