論文の概要: MU-GAN: Facial Attribute Editing based on Multi-attention Mechanism
- arxiv url: http://arxiv.org/abs/2009.04177v1
- Date: Wed, 9 Sep 2020 09:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 11:57:53.818801
- Title: MU-GAN: Facial Attribute Editing based on Multi-attention Mechanism
- Title(参考訳): MU-GAN:マルチアテンション機構に基づく顔属性編集
- Authors: Ke Zhang, Yukun Su, Xiwang Guo, Liang Qi, and Zhenbing Zhao
- Abstract要約: MU-GAN(Multi-attention U-Net-based Generative Adversarial Network)を提案する。
まず,従来の畳み込みエンコーダデコーダを対称なU-Net構造に置き換える。
第二に、長距離およびマルチレベルの依存関係をモデリングするための畳み込み層に自己注意機構が組み込まれている。
- 参考スコア(独自算出の注目度): 12.762892831902349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial attribute editing has mainly two objectives: 1) translating image from
a source domain to a target one, and 2) only changing the facial regions
related to a target attribute and preserving the attribute-excluding details.
In this work, we propose a Multi-attention U-Net-based Generative Adversarial
Network (MU-GAN). First, we replace a classic convolutional encoder-decoder
with a symmetric U-Net-like structure in a generator, and then apply an
additive attention mechanism to build attention-based U-Net connections for
adaptively transferring encoder representations to complement a decoder with
attribute-excluding detail and enhance attribute editing ability. Second, a
self-attention mechanism is incorporated into convolutional layers for modeling
long-range and multi-level dependencies across image regions. experimental
results indicate that our method is capable of balancing attribute editing
ability and details preservation ability, and can decouple the correlation
among attributes. It outperforms the state-of-the-art methods in terms of
attribute manipulation accuracy and image quality.
- Abstract(参考訳): 顔属性編集は主に2つの目的がある。
1)ソースドメインからターゲットドメインへの画像変換、及び
2) 対象属性に関連する顔領域の変更と属性を除く詳細の保存のみ。
本研究では,マルチアテンション型U-Netベース生成適応ネットワーク(MU-GAN)を提案する。
まず,従来の畳み込みエンコーダ・デコーダを対称なU-Netライクな構造に置き換えた上で,アテンションベースのU-Net接続を構築して,エンコーダ表現を適応的に転送することで,デコーダを属性非依存で補完し,属性編集能力を向上させる。
第二に、画像領域にまたがる長距離および多レベル依存関係をモデリングするための畳み込み層に自己注意機構が組み込まれている。
実験の結果,属性編集能力と細部保存能力のバランスをとることができ,属性間の相関関係を分離できることがわかった。
属性操作精度と画質の点で最先端の手法より優れている。
関連論文リスト
- DreamMix: Decoupling Object Attributes for Enhanced Editability in Customized Image Inpainting [63.01425442236011]
本研究では,DreamMixを提案する。DreamMixは,ユーザが指定した場所のシーンに対象オブジェクトを挿入できる拡散型生成モデルである。
テキストベースの属性ガイダンスの多様性と識別能力を向上させるために,属性分離機構 (ADM) とテキスト属性置換 (TAS) モジュールを提案する。
論文 参考訳(メタデータ) (2024-11-26T08:44:47Z) - Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - Leveraging Off-the-shelf Diffusion Model for Multi-attribute Fashion
Image Manipulation [27.587905673112473]
ファッション属性編集は、無関係な領域を保存しながら、所定のファッション画像の意味的属性を変換することを目的としたタスクである。
以前の作業では、ジェネレータがターゲット属性を明示的に学習し、変換を直接実行する条件付きGANを使用していた。
画像ネットのような一般的な視覚的セマンティクスに基づいて事前訓練されたオフザシェルフ拡散モデルを利用する分類器誘導拡散について検討する。
論文 参考訳(メタデータ) (2022-10-12T02:21:18Z) - Supervised Attribute Information Removal and Reconstruction for Image
Manipulation [15.559224431459551]
本稿では,そのような情報の隠蔽を防止する属性情報除去・再構築ネットワークを提案する。
我々は,DeepFashion Synthesis,DeepFashion Fine-fine Attribute,CelebA,CelebA-HQなど,さまざまな属性を持つ4つの多様なデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-13T23:30:44Z) - Context-Aware Layout to Image Generation with Enhanced Object Appearance [123.62597976732948]
レイアウト・トゥ・イメージ(l2i)生成モデルの目的は、自然背景(スタフ)に対して複数のオブジェクト(もの)を含む複雑な画像を生成することである。
既存のL2Iモデルは大きな進歩を遂げているが、オブジェクト間とオブジェクト間の関係はしばしば壊れている。
これらの原因は、ジェネレータにコンテキスト認識オブジェクトや機能エンコーディングがないことと、識別装置に位置依存の外観表現がないことにあります。
論文 参考訳(メタデータ) (2021-03-22T14:43:25Z) - Unpaired Image Enhancement with Quality-Attention Generative Adversarial
Network [92.01145655155374]
品質の注意を払わないデータに基づいて訓練された生成敵対ネットワーク(QAGAN)を提案する。
提案されたQAGANの重要な新規性は、ジェネレータの注入されたQAMにある。
提案手法は客観的評価と主観評価の両方において良好な性能を実現する。
論文 参考訳(メタデータ) (2020-12-30T05:57:20Z) - CAFE-GAN: Arbitrary Face Attribute Editing with Complementary Attention
Feature [31.425326840578098]
本稿では,対象属性に関連する顔の部分のみを編集する新しいGANモデルを提案する。
CAFEは、目的属性と相補属性の両方を考慮し、変換すべき顔領域を特定する。
論文 参考訳(メタデータ) (2020-11-24T05:21:03Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - PA-GAN: Progressive Attention Generative Adversarial Network for Facial
Attribute Editing [67.94255549416548]
顔属性編集のためのプログレッシブアテンションGAN(PA-GAN)を提案する。
提案手法は,非関連情報による属性の正確な編集を,最先端技術と比較してはるかによく保存する。
論文 参考訳(メタデータ) (2020-07-12T03:04:12Z) - Prominent Attribute Modification using Attribute Dependent Generative
Adversarial Network [4.654937118111992]
提案手法は,2つのジェネレータと2つの識別器を基本とし,2つの属性の実際の表現と2つのバイナリを利用する。
CelebAデータセットを用いた実験により,他の顔の細部を無傷に保存し,複数の属性の編集を効果的に行うことができた。
論文 参考訳(メタデータ) (2020-04-24T13:38:05Z) - MulGAN: Facial Attribute Editing by Exemplar [2.272764591035106]
遅延特徴空間の予め定義された領域に画像の属性関連情報をエンコードする手法では、逆の属性を持つ一対の画像を列車モデルへの入力として利用する。
それらには、3つの制限がある:(1)モデルが入力として反対の属性を持つ一対のイメージを使用して訓練されなければならない;(2)複数の属性を例によって編集する能力の弱い;(3)画像生成の質が悪い。
論文 参考訳(メタデータ) (2019-12-28T04:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。