論文の概要: MulGAN: Facial Attribute Editing by Exemplar
- arxiv url: http://arxiv.org/abs/1912.12396v1
- Date: Sat, 28 Dec 2019 04:02:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 12:53:33.835568
- Title: MulGAN: Facial Attribute Editing by Exemplar
- Title(参考訳): MulGAN: 顔の属性編集はExemplarが担当
- Authors: Jingtao Guo, Zhenzhen Qian, Zuowei Zhou and Yi Liu
- Abstract要約: 遅延特徴空間の予め定義された領域に画像の属性関連情報をエンコードする手法では、逆の属性を持つ一対の画像を列車モデルへの入力として利用する。
それらには、3つの制限がある:(1)モデルが入力として反対の属性を持つ一対のイメージを使用して訓練されなければならない;(2)複数の属性を例によって編集する能力の弱い;(3)画像生成の質が悪い。
- 参考スコア(独自算出の注目度): 2.272764591035106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies on face attribute editing by exemplars have achieved promising
results due to the increasing power of deep convolutional networks and
generative adversarial networks. These methods encode attribute-related
information in images into the predefined region of the latent feature space by
employing a pair of images with opposite attributes as input to train model,
the face attribute transfer between the input image and the exemplar can be
achieved by exchanging their attribute-related latent feature region. However,
they suffer from three limitations: (1) the model must be trained using a pair
of images with opposite attributes as input; (2) weak capability of editing
multiple attributes by exemplars; (3) poor quality of generating image. Instead
of imposing opposite-attribute constraints on the input image in order to make
the attribute information of images be encoded in the predefined region of the
latent feature space, in this work we directly apply the attribute labels
constraint to the predefined region of the latent feature space. Meanwhile, an
attribute classification loss is employed to make the model learn to extract
the attribute-related information of images into the predefined latent feature
region of the corresponding attribute, which enables our method to transfer
multiple attributes of the exemplar simultaneously. Besides, a novel model
structure is designed to enhance attribute transfer capabilities by exemplars
while improve the quality of the generated image. Experiments demonstrate the
effectiveness of our model on overcoming the above three limitations by
comparing with other methods on the CelebA dataset.
- Abstract(参考訳): 近年の顔属性編集の研究は, 深層畳み込みネットワークと生成対向ネットワークの力の増大により, 有望な成果を上げている。
これらの手法は、列車モデルに入力として反対属性を持つ一対の画像を使用することで、画像中の属性関連情報を潜在特徴空間の予め定義された領域にエンコードし、その属性関連潜在特徴領域を交換することにより、入力画像とexemplar間の顔属性転送を実現する。
しかし、3つの制約がある:(1)モデルが入力として反対の属性を持つ一対のイメージを用いて訓練されなければならない、(2)複数の属性を例によって編集する能力の弱い、(3)画像生成の質が悪い。
画像の属性情報を潜在特徴空間の予め定義された領域にエンコードさせるため、入力画像に反対属性制約を課す代わりに、本研究では、潜在特徴空間の予め定義された領域に属性ラベル制約を直接適用する。
一方、属性分類損失を用いて、画像の属性関連情報を対応する属性の予め定義された潜在特徴領域に抽出し、複数の属性を同時に転送できるようにする。
また, 画像の画質を向上しつつ, 特性伝達能力の向上を図るために, 新たなモデル構造を考案した。
celebaデータセット上の他の手法との比較により,上記の3つの制約を克服するモデルの有効性を実証した。
関連論文リスト
- SAT3D: Image-driven Semantic Attribute Transfer in 3D [31.087615253643975]
参照画像からセマンティック属性を編集し,画像駆動型セマンティック属性変換法を3D(SAT3D)で提案する。
指導のために、各属性をフレーズベースの記述子群に関連付け、定量測定モジュール(QMM)を開発する。
本稿では,複数の領域にまたがる3次元属性変換結果について述べるとともに,従来の2次元画像編集手法との比較を行う。
論文 参考訳(メタデータ) (2024-08-03T04:41:46Z) - Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - Leveraging Off-the-shelf Diffusion Model for Multi-attribute Fashion
Image Manipulation [27.587905673112473]
ファッション属性編集は、無関係な領域を保存しながら、所定のファッション画像の意味的属性を変換することを目的としたタスクである。
以前の作業では、ジェネレータがターゲット属性を明示的に学習し、変換を直接実行する条件付きGANを使用していた。
画像ネットのような一般的な視覚的セマンティクスに基づいて事前訓練されたオフザシェルフ拡散モデルを利用する分類器誘導拡散について検討する。
論文 参考訳(メタデータ) (2022-10-12T02:21:18Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Attributes Aware Face Generation with Generative Adversarial Networks [133.44359317633686]
AFGANと呼ばれる生成対向ネットワークを用いた新しい属性認識顔画像生成法を提案する。
3つの積み重ねたジェネレータは、それぞれ64ドル640ドル、128ドル128ドル、256ドル256ドルの解像度の顔画像を生成する。
さらに、生成した画像と入力属性の相関性を高めるために、画像-属性マッチング損失を提案する。
論文 参考訳(メタデータ) (2020-12-03T09:25:50Z) - CAFE-GAN: Arbitrary Face Attribute Editing with Complementary Attention
Feature [31.425326840578098]
本稿では,対象属性に関連する顔の部分のみを編集する新しいGANモデルを提案する。
CAFEは、目的属性と相補属性の両方を考慮し、変換すべき顔領域を特定する。
論文 参考訳(メタデータ) (2020-11-24T05:21:03Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - MU-GAN: Facial Attribute Editing based on Multi-attention Mechanism [12.762892831902349]
MU-GAN(Multi-attention U-Net-based Generative Adversarial Network)を提案する。
まず,従来の畳み込みエンコーダデコーダを対称なU-Net構造に置き換える。
第二に、長距離およびマルチレベルの依存関係をモデリングするための畳み込み層に自己注意機構が組み込まれている。
論文 参考訳(メタデータ) (2020-09-09T09:25:04Z) - Prominent Attribute Modification using Attribute Dependent Generative
Adversarial Network [4.654937118111992]
提案手法は,2つのジェネレータと2つの識別器を基本とし,2つの属性の実際の表現と2つのバイナリを利用する。
CelebAデータセットを用いた実験により,他の顔の細部を無傷に保存し,複数の属性の編集を効果的に行うことができた。
論文 参考訳(メタデータ) (2020-04-24T13:38:05Z) - Attribute-based Regularization of Latent Spaces for Variational
Auto-Encoders [79.68916470119743]
本稿では,変分オートエンコーダ(VAE)の潜時空間を,連続値の異なる属性を明示的に符号化する新しい手法を提案する。
これは属性の正規化損失を使用して、属性値と属性が符号化される次元の潜在符号との単調な関係を強制する。
論文 参考訳(メタデータ) (2020-04-11T20:53:13Z) - Attribute Mix: Semantic Data Augmentation for Fine Grained Recognition [102.45926816660665]
本研究では属性レベルのデータ拡張戦略であるAttribute Mixを提案する。
その原則は、属性の特徴が細粒度のサブカテゴリ間で共有され、画像間でシームレスに転送可能であることである。
論文 参考訳(メタデータ) (2020-04-06T14:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。