論文の概要: Local Facial Attribute Transfer through Inpainting
- arxiv url: http://arxiv.org/abs/2002.03040v2
- Date: Mon, 12 Oct 2020 09:07:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 05:13:07.635654
- Title: Local Facial Attribute Transfer through Inpainting
- Title(参考訳): 着色による局所的顔面属性伝達
- Authors: Ricard Durall, Franz-Josef Pfreundt, Janis Keuper
- Abstract要約: 属性転送という用語は、与えられた入力画像の意味的解釈を意図した方向にシフトさせるような方法で画像を変更するタスクを指す。
属性伝達の最近の進歩は、主に生成的なディープニューラルネットワークに基づいており、ジェネレータの潜時空間における画像を操作する様々な技術を用いている。
本稿では,局所的な属性伝達の共通サブタスクに対して,意味的変化を実現するために,顔の一部のみを変更する必要がある新しい手法を提案する。
- 参考スコア(独自算出の注目度): 3.4376560669160394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The term attribute transfer refers to the tasks of altering images in such a
way, that the semantic interpretation of a given input image is shifted towards
an intended direction, which is quantified by semantic attributes. Prominent
example applications are photo realistic changes of facial features and
expressions, like changing the hair color, adding a smile, enlarging the nose
or altering the entire context of a scene, like transforming a summer landscape
into a winter panorama. Recent advances in attribute transfer are mostly based
on generative deep neural networks, using various techniques to manipulate
images in the latent space of the generator.
In this paper, we present a novel method for the common sub-task of local
attribute transfers, where only parts of a face have to be altered in order to
achieve semantic changes (e.g. removing a mustache). In contrast to previous
methods, where such local changes have been implemented by generating new
(global) images, we propose to formulate local attribute transfers as an
inpainting problem. Removing and regenerating only parts of images, our
Attribute Transfer Inpainting Generative Adversarial Network (ATI-GAN) is able
to utilize local context information to focus on the attributes while keeping
the background unmodified resulting in visually sound results.
- Abstract(参考訳): 属性転送という用語は、与えられた入力画像の意味解釈が意図された方向に移動され、意味属性によって定量化されるような方法で画像を変更するタスクを指す。
例えば、髪の色を変えたり、笑顔を追加したり、鼻を大きくしたり、夏の風景を冬のパノラマに変えたりといった、顔の特徴や表情のリアルな変化です。
属性転送の最近の進歩は、主に生成的ディープニューラルネットワークに基づいており、様々な技術を使ってジェネレータの潜在空間で画像を操作する。
本稿では,局所的な属性伝達の共通サブタスクに対して,意味的変化(口ひげの除去など)を実現するために,顔の一部だけを変更する必要がある新しい手法を提案する。
従来の手法とは対照的に,新たな(グローバルな)画像を生成することで局所的な変化が実現されているため,局所的な属性移動を着色問題として定式化することを提案する。
画像の一部だけを取り除いて再生するので、Attribute Transfer Inpainting Generative Adversarial Network (ATI-GAN) は、ローカルコンテキスト情報を利用して、背景を修正せずに属性に集中することができる。
関連論文リスト
- When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - FacialGAN: Style Transfer and Attribute Manipulation on Synthetic Faces [9.664892091493586]
FacialGANは、リッチなスタイル転送と対話的な顔属性操作を可能にする新しいフレームワークである。
モデルが視覚的に説得力のある結果を生み出す能力は,スタイル伝達,属性操作,多様性,顔認証などである。
論文 参考訳(メタデータ) (2021-10-18T15:53:38Z) - Context-Aware Image Inpainting with Learned Semantic Priors [100.99543516733341]
欠落した内容を推定するために意味的に意味のある前文タスクを導入する。
本研究では,グローバルなセマンティクスと局所的な特徴を適応的に統合した文脈認識型画像インパインティングモデルを提案する。
論文 参考訳(メタデータ) (2021-06-14T08:09:43Z) - Unsupervised Image Transformation Learning via Generative Adversarial
Networks [40.84518581293321]
GAN(Generative Adversarial Networks)を用いた画像集合から基底変換を学習して画像変換問題を研究する。
本稿では,生成元と識別器が共有する変換空間に画像を投影する,教師なし学習フレームワークTrGANを提案する。
論文 参考訳(メタデータ) (2021-03-13T17:08:19Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - CAFE-GAN: Arbitrary Face Attribute Editing with Complementary Attention
Feature [31.425326840578098]
本稿では,対象属性に関連する顔の部分のみを編集する新しいGANモデルを提案する。
CAFEは、目的属性と相補属性の両方を考慮し、変換すべき顔領域を特定する。
論文 参考訳(メタデータ) (2020-11-24T05:21:03Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - Semantic Image Manipulation Using Scene Graphs [105.03614132953285]
本稿では,星座変更や画像編集を直接監督する必要のないシーングラフネットワークを提案する。
これにより、追加のアノテーションを使わずに、既存の実世界のデータセットからシステムをトレーニングすることができる。
論文 参考訳(メタデータ) (2020-04-07T20:02:49Z) - Steering Self-Supervised Feature Learning Beyond Local Pixel Statistics [60.92229707497999]
画像の特定の変換の識別に基づく自己教師型特徴学習の新しい原理を提案する。
実験により,LCI,画像ワープ,回転などの変換を識別する学習が,技術一般化能力の状態を特徴付けることを示した。
論文 参考訳(メタデータ) (2020-04-05T22:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。