論文の概要: PrefGen: Preference Guided Image Generation with Relative Attributes
- arxiv url: http://arxiv.org/abs/2304.00185v1
- Date: Sat, 1 Apr 2023 00:41:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 19:20:06.216422
- Title: PrefGen: Preference Guided Image Generation with Relative Attributes
- Title(参考訳): PrefGen: 相対属性による参照ガイド画像生成
- Authors: Alec Helbling, Christopher J. Rozell, Matthew O'Shaughnessy, Kion
Fallah
- Abstract要約: 深層生成モデルには、人間の顔のようなコンテンツの忠実度の高い画像をレンダリングする能力がある。
我々は、ユーザが生成した画像の相対属性を制御できる$textitPrefGen$システムを開発した。
本稿では,人間の顔編集作業において,StyleGAN2ジェネレータを用いたアプローチの成功例を示す。
- 参考スコア(独自算出の注目度): 5.0741409008225755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep generative models have the capacity to render high fidelity images of
content like human faces. Recently, there has been substantial progress in
conditionally generating images with specific quantitative attributes, like the
emotion conveyed by one's face. These methods typically require a user to
explicitly quantify the desired intensity of a visual attribute. A limitation
of this method is that many attributes, like how "angry" a human face looks,
are difficult for a user to precisely quantify. However, a user would be able
to reliably say which of two faces seems "angrier". Following this premise, we
develop the $\textit{PrefGen}$ system, which allows users to control the
relative attributes of generated images by presenting them with simple paired
comparison queries of the form "do you prefer image $a$ or image $b$?" Using
information from a sequence of query responses, we can estimate user
preferences over a set of image attributes and perform preference-guided image
editing and generation. Furthermore, to make preference localization feasible
and efficient, we apply an active query selection strategy. We demonstrate the
success of this approach using a StyleGAN2 generator on the task of human face
editing. Additionally, we demonstrate how our approach can be combined with
CLIP, allowing a user to edit the relative intensity of attributes specified by
text prompts. Code at https://github.com/helblazer811/PrefGen.
- Abstract(参考訳): 深層生成モデルには、人間の顔のようなコンテンツの忠実度の高い画像をレンダリングする能力がある。
近年,顔に伝達される感情など,特定の量的属性を持つ条件付き画像の生成が著しく進展している。
これらのメソッドは通常、視覚属性の所望の強度を明示的に定量化する必要がある。
この方法の限界は、人間の顔の「怒り」のような多くの属性が、ユーザが正確に定量化することが難しいことである。
しかし、ユーザーは2つの顔のうちどれが「危険」であるかを確実に話すことができる。
この前提に従って$\textit{PrefGen}$システムを開発し、ユーザーは生成した画像の相対属性を「画像$a$か画像$b$か」という形式で単純なペア比較クエリで表示できる。
クエリ応答のシーケンスからの情報を用いて、画像属性のセットよりもユーザの好みを推定し、優先誘導画像編集および生成を行う。
さらに,好みの局所化を可能かつ効率的に行うために,アクティブなクエリ選択戦略を適用する。
人間の顔編集作業において,StyleGAN2ジェネレータを用いたこのアプローチの成功例を示す。
さらに,このアプローチをクリップと組み合わせることで,テキストプロンプトによって指定された属性の相対的な強度をユーザが編集できることを示す。
コード: https://github.com/helblazer811/prefgen。
関連論文リスト
- ManiCLIP: Multi-Attribute Face Manipulation from Text [104.30600573306991]
テキスト記述に基づく新しい多属性顔操作法を提案する。
本手法は,テキスト関連属性の編集を最小限に抑えた自然な顔を生成する。
論文 参考訳(メタデータ) (2022-10-02T07:22:55Z) - FaceController: Controllable Attribute Editing for Face in the Wild [74.56117807309576]
単純なフィードフォワードネットワークを提案し、高忠実度な顔を生成する。
本手法では,既存かつ容易に把握可能な事前情報を利用することで,野生の多様な顔属性の制御,転送,編集を行うことができる。
本手法では,3Dプリミティブを用いてアイデンティティ,表現,ポーズ,イルミネーションを分離し,地域別スタイルコードを用いてテクスチャとカラーを分離する。
論文 参考訳(メタデータ) (2021-02-23T02:47:28Z) - Attributes Aware Face Generation with Generative Adversarial Networks [133.44359317633686]
AFGANと呼ばれる生成対向ネットワークを用いた新しい属性認識顔画像生成法を提案する。
3つの積み重ねたジェネレータは、それぞれ64ドル640ドル、128ドル128ドル、256ドル256ドルの解像度の顔画像を生成する。
さらに、生成した画像と入力属性の相関性を高めるために、画像-属性マッチング損失を提案する。
論文 参考訳(メタデータ) (2020-12-03T09:25:50Z) - S2FGAN: Semantically Aware Interactive Sketch-to-Face Translation [11.724779328025589]
本稿では,S2FGANと呼ばれるスケッチ・ツー・イメージ生成フレームワークを提案する。
我々は2つの潜在空間を用いて顔の外観を制御し、生成した顔の所望の属性を調整する。
提案手法は,属性強度の制御性を高めることで,属性操作における最先端の手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-11-30T13:42:39Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - Describe What to Change: A Text-guided Unsupervised Image-to-Image
Translation Approach [84.22327278486846]
本稿では,画像から画像への変換に基づく新しい教師なしの手法を提案する。
本モデルは視覚的属性から画像内容を切り離し,テキスト記述を用いて後者を変更することを学習する。
実験により,提案モデルが2つの大規模公開データセットに対して有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2020-08-10T15:40:05Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z) - Conditional Image Generation and Manipulation for User-Specified Content [6.6081578501076494]
テキスト・画像生成と操作のための単一パイプラインを提案する。
パイプラインの前半では、テキストで条件付けされたモデルである textStyleGAN を導入しています。
パイプラインの第2部では、事前にトレーニングされたtextStyleGANの重みを利用して、セマンティックな顔画像操作を行います。
論文 参考訳(メタデータ) (2020-05-11T08:05:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。