論文の概要: Face Attribute Editing with Disentangled Latent Vectors
- arxiv url: http://arxiv.org/abs/2301.04628v1
- Date: Wed, 11 Jan 2023 18:32:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 17:01:09.744884
- Title: Face Attribute Editing with Disentangled Latent Vectors
- Title(参考訳): 差動ベクトルを用いた顔属性編集
- Authors: Yusuf Dalva, Hamza Pehlivan, Cansu Moran, \"Oyk\"u Irmak
Hatipo\u{g}lu, Ay\c{s}eg\"ul D\"undar
- Abstract要約: 顔属性編集のための画像から画像への変換フレームワークを提案する。
固定事前学習されたGANの潜在空間因子化作業にインスパイアされ、潜在空間因子化による属性編集を設計する。
意味的に整理された潜在空間に画像を投影するために,注意に基づくスキップ接続を備えたエンコーダデコーダアーキテクチャを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an image-to-image translation framework for facial attribute
editing with disentangled interpretable latent directions. Facial attribute
editing task faces the challenges of targeted attribute editing with
controllable strength and disentanglement in the representations of attributes
to preserve the other attributes during edits. For this goal, inspired by the
latent space factorization works of fixed pretrained GANs, we design the
attribute editing by latent space factorization, and for each attribute, we
learn a linear direction that is orthogonal to the others. We train these
directions with orthogonality constraints and disentanglement losses. To
project images to semantically organized latent spaces, we set an
encoder-decoder architecture with attention-based skip connections. We
extensively compare with previous image translation algorithms and editing with
pretrained GAN works. Our extensive experiments show that our method
significantly improves over the state-of-the-arts. Project page:
https://yusufdalva.github.io/vecgan
- Abstract(参考訳): 本稿では,顔属性編集のための画像から画像への変換フレームワークを提案する。
顔属性編集タスクは、他の属性を編集中に保存するために属性の表現に制御可能な強みと絡み合いを持つ、ターゲット属性編集の課題に直面している。
この目的のために, 固定事前学習されたganの潜在空間分解に触発されて, 潜在空間分解による属性編集をデザインし, それぞれの属性に対して, 他方と直交する線形方向を学習する。
我々はこれらの方向を直交制約と歪曲損失で訓練する。
意味的に整理された潜在空間に画像を投影するために,注意に基づくスキップ接続を備えたエンコーダデコーダアーキテクチャを構築した。
従来の画像翻訳アルゴリズムと比較し,事前学習したGAN作品の編集を行う。
広範な実験により,本手法は最先端の手法よりも大幅に改善することが示された。
プロジェクトページ: https://yusufdalva.github.io/vecgan
関連論文リスト
- EVA: Zero-shot Accurate Attributes and Multi-Object Video Editing [62.15822650722473]
現在のビデオ編集方法は、元のレイアウトを維持しながら、前景と背景を同時に編集することができない。
複雑な動きを持つ人間中心のビデオに合わせた、textbfzero-shot と textbfmulti-attribute ビデオ編集フレームワークである EVA を紹介する。
EVAは、複数のオブジェクトの編集シナリオに容易に一般化でき、正確なIDマッピングを実現する。
論文 参考訳(メタデータ) (2024-03-24T12:04:06Z) - Spatial Steerability of GANs via Self-Supervision from Discriminator [123.27117057804732]
本稿では,GANの空間的ステアビリティを向上させるための自己教師型アプローチを提案する。
具体的には、空間帰納バイアスとして生成モデルの中間層に符号化されるランダムなガウス熱マップを設計する。
推論中、ユーザは直感的に空間のヒートマップと対話し、シーンのレイアウトを調整したり、移動したり、オブジェクトを削除したりすることで、出力画像を編集することができる。
論文 参考訳(メタデータ) (2023-01-20T07:36:29Z) - VecGAN: Image-to-Image Translation with Interpretable Latent Directions [4.7590051176368915]
VecGANは、画像から画像への変換フレームワークで、顔属性を解釈可能な潜在方向で編集する。
VecGANは、ローカルとグローバルの両方の編集の最先端よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-07-07T16:31:05Z) - Towards Counterfactual Image Manipulation via CLIP [106.94502632502194]
既存の方法は、顔画像の年齢や性別など、さまざまな視覚特性をリアルに編集することができる。
コントラスト・ランゲージ・イメージ・プレトレーニング(CLIP)を用いたテキスト駆動方式でこの問題を考察する。
定義済みのCLIP空間の方向を利用して、異なる視点から所望の方向に向けて編集を誘導する新しいコントラスト損失を設計する。
論文 参考訳(メタデータ) (2022-07-06T17:02:25Z) - Semantic Unfolding of StyleGAN Latent Space [0.7646713951724012]
GAN(Generative Adversarial Network)は、入力された実画像に対応する潜伏符号を反転操作することによって、画像編集において驚くほど効率的であることが証明されている。
この編集性は、潜在空間の非絡み合いの性質から生じる。
本稿では, 顔属性のアンタングル化が最適ではないことを確認し, 線形属性分離に依存する顔の編集に欠陥があることを示す。
論文 参考訳(メタデータ) (2022-06-29T20:22:10Z) - Each Attribute Matters: Contrastive Attention for Sentence-based Image
Editing [13.321782757637303]
文ベースの画像編集(SIE)は、画像の編集に自然言語をデプロイすることを目的としている。
既存の方法では、クエリ文が複数の編集可能な属性を持つ場合、正確な編集がほとんどできない。
本稿では,Contrastive Attention Generative Adversarial Network (CA-GAN) と呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-10-21T14:06:20Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Towards Disentangling Latent Space for Unsupervised Semantic Face
Editing [21.190437168936764]
修正属性の編集には注釈付きトレーニングデータが必要で、編集可能な属性をラベル付き属性に制限する。
本稿では、重み分解と直交正規化(STIA-WO)を用いた構造テクスチュア独立アーキテクチャ(Structure-Texture Independent Architecture)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-11-05T03:29:24Z) - PA-GAN: Progressive Attention Generative Adversarial Network for Facial
Attribute Editing [67.94255549416548]
顔属性編集のためのプログレッシブアテンションGAN(PA-GAN)を提案する。
提案手法は,非関連情報による属性の正確な編集を,最先端技術と比較してはるかによく保存する。
論文 参考訳(メタデータ) (2020-07-12T03:04:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。