論文の概要: CA-GAN: Weakly Supervised Color Aware GAN for Controllable Makeup
Transfer
- arxiv url: http://arxiv.org/abs/2008.10298v1
- Date: Mon, 24 Aug 2020 10:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 08:57:23.141819
- Title: CA-GAN: Weakly Supervised Color Aware GAN for Controllable Makeup
Transfer
- Title(参考訳): CA-GAN:制御可能なメイクアップ転送のためのカラーアウェアGAN
- Authors: Robin Kips, Pietro Gori, Matthieu Perrot, Isabelle Bloch
- Abstract要約: 色制御可能な化粧スタイル合成の学習を目的とした化粧スタイル伝達タスクの新しい定式化を提案する。
画像中の特定の物体の色を任意のターゲット色に修正する学習モデルであるCA-GANを紹介する。
メイクスタイルの転写と色制御性能の定量的解析を初めて行った。
- 参考スコア(独自算出の注目度): 10.086015702323971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While existing makeup style transfer models perform an image synthesis whose
results cannot be explicitly controlled, the ability to modify makeup color
continuously is a desirable property for virtual try-on applications. We
propose a new formulation for the makeup style transfer task, with the
objective to learn a color controllable makeup style synthesis. We introduce
CA-GAN, a generative model that learns to modify the color of specific objects
(e.g. lips or eyes) in the image to an arbitrary target color while preserving
background. Since color labels are rare and costly to acquire, our method
leverages weakly supervised learning for conditional GANs. This enables to
learn a controllable synthesis of complex objects, and only requires a weak
proxy of the image attribute that we desire to modify. Finally, we present for
the first time a quantitative analysis of makeup style transfer and color
control performance.
- Abstract(参考訳): 既存のメイクスタイル転送モデルは、結果を明示的に制御できない画像合成を行うが、メイクスタイルを連続的に修正することは仮想トライオンアプリケーションにとって望ましい特性である。
色制御可能な化粧スタイル合成の学習を目的とした化粧スタイル伝達タスクの新しい定式化を提案する。
画像中の特定の物体(例えば唇や目)の色を、背景を保ちながら任意のターゲット色に変化させることを学習する生成モデルであるCA-GANを紹介する。
カラーラベルは稀で,取得に費用がかかるため,条件付きGANに対して弱い教師付き学習を利用する。
これにより、複雑なオブジェクトの制御可能な合成を学ぶことができ、修正したい画像属性の弱いプロキシのみを必要とする。
最後に,メイクスタイルの転写と色制御性能の定量的解析を行った。
関連論文リスト
- Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Diffusing Colors: Image Colorization with Text Guided Diffusion [11.727899027933466]
粒状テキストプロンプトを用いた画像拡散技術を利用した新しい画像カラー化フレームワークを提案する。
本手法は,視覚的品質とセマンティック・コヒーレンスの観点から,既存の技術よりも優れた自動化と制御のバランスを与える。
我々のアプローチは、特に色強調と歴史的イメージのカラー化の可能性を秘めている。
論文 参考訳(メタデータ) (2023-12-07T08:59:20Z) - Incorporating Ensemble and Transfer Learning For An End-To-End
Auto-Colorized Image Detection Model [0.0]
本稿では,移動学習とアンサンブル学習の利点を組み合わせた新たな手法を提案する。
提案したモデルは、94.55%から99.13%の精度で有望な結果を示す。
論文 参考訳(メタデータ) (2023-09-25T19:22:57Z) - Flexible Portrait Image Editing with Fine-Grained Control [12.32304366243904]
我々は,1つのニューラルネットワークモデルを用いて,ジオメトリ,色,光,影のきめ細かい編集を支援する肖像画編集法を開発した。
生成者は、エッジマップ、カラーパレット、スライダー、マスクなどの変換された条件入力をユーザが直接編集できる。
本手法の有効性をCelebAMask-HQデータセット上で評価し,色/色/影/光の編集,手描きのスケッチから画像への変換,色変換など,幅広いタスクで検証した。
論文 参考訳(メタデータ) (2022-04-04T08:39:37Z) - Towards Vivid and Diverse Image Colorization with Generative Color Prior [17.087464490162073]
最近のディープラーニングベースの手法は、画像のカラー化を低コストで行うことができる。
我々は,事前学習されたGAN(Generative Adversarial Networks)にカプセル化されている,豊かで多様な色を活かして鮮やかな色を復元することを目的としている。
先進的なデザインと繊細なデザインの強力な生成色のおかげで、我々の手法は1つの前進パスで鮮やかな色を作り出すことができた。
論文 参考訳(メタデータ) (2021-08-19T17:49:21Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - HistoGAN: Controlling Colors of GAN-Generated and Real Images via Color
Histograms [52.77252727786091]
HistoGANは、GAN生成画像の色を制御するための色ヒストグラムに基づく方法である。
我々は、HistoGANを拡張して、実画像を再色する方法を示す。
論文 参考訳(メタデータ) (2020-11-23T21:14:19Z) - Semantic-driven Colorization [78.88814849391352]
最近の着色は、白黒画像の着色を学習しながら意味情報を暗黙的に予測する。
そこで本研究では,まず,人間の動作をシミュレートして,画像の理解を学習し,色づけする。
論文 参考訳(メタデータ) (2020-06-13T08:13:30Z) - Semantic Photo Manipulation with a Generative Image Prior [86.01714863596347]
GANは、ユーザスケッチ、テキスト、セマンティックラベルなどの入力に条件付きイメージを合成することができる。
GANが入力画像を正確に再現することは困難である。
本稿では,GANが以前に学んだイメージを個々の画像の統計に適応させることにより,これらの問題に対処する。
提案手法は,入力画像の外観と一致して,入力画像を正確に再構成し,新たなコンテンツを合成することができる。
論文 参考訳(メタデータ) (2020-05-15T18:22:05Z) - Supervised and Unsupervised Learning of Parameterized Color Enhancement [112.88623543850224]
我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
論文 参考訳(メタデータ) (2019-12-30T13:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。