論文の概要: Prominent Attribute Modification using Attribute Dependent Generative
Adversarial Network
- arxiv url: http://arxiv.org/abs/2005.02122v1
- Date: Fri, 24 Apr 2020 13:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 04:02:01.021035
- Title: Prominent Attribute Modification using Attribute Dependent Generative
Adversarial Network
- Title(参考訳): Attribute Dependent Generative Adversarial Network を用いた属性修正
- Authors: Naeem Ul Islam, Sungmin Lee, and Jaebyung Park
- Abstract要約: 提案手法は,2つのジェネレータと2つの識別器を基本とし,2つの属性の実際の表現と2つのバイナリを利用する。
CelebAデータセットを用いた実験により,他の顔の細部を無傷に保存し,複数の属性の編集を効果的に行うことができた。
- 参考スコア(独自算出の注目度): 4.654937118111992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modifying the facial images with desired attributes is important, though
challenging tasks in computer vision, where it aims to modify single or
multiple attributes of the face image. Some of the existing methods are either
based on attribute independent approaches where the modification is done in the
latent representation or attribute dependent approaches. The attribute
independent methods are limited in performance as they require the desired
paired data for changing the desired attributes. Secondly, the attribute
independent constraint may result in the loss of information and, hence, fail
in generating the required attributes in the face image. In contrast, the
attribute dependent approaches are effective as these approaches are capable of
modifying the required features along with preserving the information in the
given image. However, attribute dependent approaches are sensitive and require
a careful model design in generating high-quality results. To address this
problem, we propose an attribute dependent face modification approach. The
proposed approach is based on two generators and two discriminators that
utilize the binary as well as the real representation of the attributes and, in
return, generate high-quality attribute modification results. Experiments on
the CelebA dataset show that our method effectively performs the multiple
attribute editing with preserving other facial details intactly.
- Abstract(参考訳): 所望の属性で顔画像を変更することは重要であるが、コンピュータビジョンでは、顔画像の単一または複数の属性を変更することを目的としている。
既存の手法のいくつかは属性に依存しないアプローチに基づいており、修正は潜在表現や属性依存のアプローチで行われる。
属性独立メソッドは、所望の属性を変更するために、所望のペアデータを必要とするため、パフォーマンスが制限される。
第二に、属性独立制約は情報の喪失をもたらす可能性があり、従って、顔画像に要求される属性を生成することに失敗する。
対照的に、属性依存のアプローチは、与えられた画像内の情報を保存しながら必要な機能を変更することができるため、効果的である。
しかし、属性依存アプローチは感度が高く、高品質な結果を生成するには慎重なモデル設計が必要である。
この問題に対処するため,属性依存型顔修正手法を提案する。
提案手法は2つのジェネレータと2つの識別器をベースとして,2つの属性の実際の表現と,その代わりに高品質な属性修正結果を生成する。
celebaデータセットを用いた実験では、複数の属性の編集を他の顔の詳細をそのまま保存して効果的に行うことができる。
関連論文リスト
- Exploring Attribute Variations in Style-based GANs using Diffusion
Models [48.98081892627042]
属性編集の多次元的性質をモデル化し,テキスト多元属性編集のタスクを定式化する。
我々は、事前訓練されたGANの非絡み合った潜伏空間を利用して、様々な編集のための潜伏分布を学習するために、Denoising Diffusion Probabilistic Model (DDPM)を訓練する。
論文 参考訳(メタデータ) (2023-11-27T18:14:03Z) - A Solution to Co-occurrence Bias: Attributes Disentanglement via Mutual
Information Minimization for Pedestrian Attribute Recognition [10.821982414387525]
そこで本研究では,現在の手法が,データセット分布のシーンやアイデンティティに適合する属性の相互依存性の一般化に実際に苦慮していることを示す。
現実的な場面で頑健なモデルをレンダリングするために,属性不整形特徴学習を提案し,属性の認識が他者の存在に依存しないことを保証する。
論文 参考訳(メタデータ) (2023-07-28T01:34:55Z) - ManiCLIP: Multi-Attribute Face Manipulation from Text [104.30600573306991]
テキスト記述に基づく新しい多属性顔操作法を提案する。
本手法は,テキスト関連属性の編集を最小限に抑えた自然な顔を生成する。
論文 参考訳(メタデータ) (2022-10-02T07:22:55Z) - Supervised Attribute Information Removal and Reconstruction for Image
Manipulation [15.559224431459551]
本稿では,そのような情報の隠蔽を防止する属性情報除去・再構築ネットワークを提案する。
我々は,DeepFashion Synthesis,DeepFashion Fine-fine Attribute,CelebA,CelebA-HQなど,さまざまな属性を持つ4つの多様なデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-13T23:30:44Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - Attributes Aware Face Generation with Generative Adversarial Networks [133.44359317633686]
AFGANと呼ばれる生成対向ネットワークを用いた新しい属性認識顔画像生成法を提案する。
3つの積み重ねたジェネレータは、それぞれ64ドル640ドル、128ドル128ドル、256ドル256ドルの解像度の顔画像を生成する。
さらに、生成した画像と入力属性の相関性を高めるために、画像-属性マッチング損失を提案する。
論文 参考訳(メタデータ) (2020-12-03T09:25:50Z) - CAFE-GAN: Arbitrary Face Attribute Editing with Complementary Attention
Feature [31.425326840578098]
本稿では,対象属性に関連する顔の部分のみを編集する新しいGANモデルを提案する。
CAFEは、目的属性と相補属性の両方を考慮し、変換すべき顔領域を特定する。
論文 参考訳(メタデータ) (2020-11-24T05:21:03Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - MU-GAN: Facial Attribute Editing based on Multi-attention Mechanism [12.762892831902349]
MU-GAN(Multi-attention U-Net-based Generative Adversarial Network)を提案する。
まず,従来の畳み込みエンコーダデコーダを対称なU-Net構造に置き換える。
第二に、長距離およびマルチレベルの依存関係をモデリングするための畳み込み層に自己注意機構が組み込まれている。
論文 参考訳(メタデータ) (2020-09-09T09:25:04Z) - Attribute Mix: Semantic Data Augmentation for Fine Grained Recognition [102.45926816660665]
本研究では属性レベルのデータ拡張戦略であるAttribute Mixを提案する。
その原則は、属性の特徴が細粒度のサブカテゴリ間で共有され、画像間でシームレスに転送可能であることである。
論文 参考訳(メタデータ) (2020-04-06T14:06:47Z) - MulGAN: Facial Attribute Editing by Exemplar [2.272764591035106]
遅延特徴空間の予め定義された領域に画像の属性関連情報をエンコードする手法では、逆の属性を持つ一対の画像を列車モデルへの入力として利用する。
それらには、3つの制限がある:(1)モデルが入力として反対の属性を持つ一対のイメージを使用して訓練されなければならない;(2)複数の属性を例によって編集する能力の弱い;(3)画像生成の質が悪い。
論文 参考訳(メタデータ) (2019-12-28T04:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。