論文の概要: Shape-aware Generative Adversarial Networks for Attribute Transfer
- arxiv url: http://arxiv.org/abs/2010.05259v1
- Date: Sun, 11 Oct 2020 14:52:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-10-08 13:42:16.873210
- Title: Shape-aware Generative Adversarial Networks for Attribute Transfer
- Title(参考訳): 属性転送のための形状認識型生成逆ネットワーク
- Authors: Lei Luo, William Hsu, and Shangxian Wang
- Abstract要約: 属性の転送時に形状を保存できる形状認識型GANモデルを提案する。
我々の提案するモデルでは、他の最先端のGANのイメージ・ツー・イメージ翻訳モデルと比較して、より視覚的に魅力的な結果を生成することができる。
- 参考スコア(独自算出の注目度): 10.786099674296986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) have been successfully applied to
transfer visual attributes in many domains, including that of human face
images. This success is partly attributable to the facts that human faces have
similar shapes and the positions of eyes, noses, and mouths are fixed among
different people. Attribute transfer is more challenging when the source and
target domain share different shapes. In this paper, we introduce a shape-aware
GAN model that is able to preserve shape when transferring attributes, and
propose its application to some real-world domains. Compared to other
state-of-art GANs-based image-to-image translation models, the model we propose
is able to generate more visually appealing results while maintaining the
quality of results from transfer learning.
- Abstract(参考訳): generative adversarial networks (gans) は、人間の顔画像を含む多くの領域における視覚的属性の転送に成功している。
この成功は、人間の顔の形状が似ており、目、鼻、口の位置が異なる人々の間で固定されているという事実に起因する。
ソースとターゲットドメインが異なる形状を共有する場合、属性転送はより難しい。
本稿では,属性の転送時に形状を保存できる形状認識ganモデルを提案し,その実世界領域への応用を提案する。
従来のgansベースの画像から画像への変換モデルと比較すると,トランスファー学習の結果の質を維持しつつ,視覚的に魅力的な結果を生成することができる。
関連論文リスト
- Face Identity-Aware Disentanglement in StyleGAN [15.753131748318335]
StyleGANのプラグインであるPluGeN4Facesを導入する。
実験の結果,PluGeN4Facesによる顔属性の修正は,既存の最先端モデルに比べて画像の残像特性が有意に低侵襲であることがわかった。
論文 参考訳(メタデータ) (2023-09-21T12:54:09Z) - Face Transformer: Towards High Fidelity and Accurate Face Swapping [54.737909435708936]
Face swappingは、ソース顔の同一性とターゲット顔の属性を融合させるスワップ画像を生成することを目的としている。
本稿では,顔の同一性と対象属性を同時に正確に保存できる新しい顔交換ネットワークであるFace Transformerを提案する。
論文 参考訳(メタデータ) (2023-04-05T15:51:44Z) - Polymorphic-GAN: Generating Aligned Samples across Multiple Domains with
Learned Morph Maps [94.10535575563092]
本稿では,複数の関連ドメインから一貫した画像サンプルを同時に生成できる生成逆ネットワークを提案する。
各ドメインにまたがる共有特徴を学習するポリモルフィックGANと、各ドメインに応じて共有特徴を共有化するためのドメインごとのモルフィック層を提案する。
論文 参考訳(メタデータ) (2022-06-06T21:03:02Z) - Transferring Knowledge with Attention Distillation for Multi-Domain
Image-to-Image Translation [28.272982411879845]
画像から画像への翻訳作業のための教師-学生パラダイムにおいて、勾配に基づく注意が伝達する知識としてどのように使われるかを示す。
また、教員と学生のネットワークが異なるドメインでトレーニングされている場合、トレーニング中に「疑似意識」が適用可能であることも示している。
論文 参考訳(メタデータ) (2021-08-17T06:47:04Z) - Generating Furry Cars: Disentangling Object Shape & Appearance across
Multiple Domains [46.55517346455773]
多領域にまたがる物体の形状と外観の非絡み合い表現を学習する新しいタスクを検討する。
私たちは、各ドメインからプロパティのサブセットを借りる中間分布を学習する生成モデルを学びます。
この課題は、各ドメインのオブジェクト形状、外観、背景の正確な異方性を必要とする。
論文 参考訳(メタデータ) (2021-04-05T17:59:15Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。