論文の概要: A recurrent cycle consistency loss for progressive face-to-face
synthesis
- arxiv url: http://arxiv.org/abs/2004.07165v1
- Date: Tue, 14 Apr 2020 16:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 09:59:18.391426
- Title: A recurrent cycle consistency loss for progressive face-to-face
synthesis
- Title(参考訳): 進行的対面合成のための繰り返しサイクル整合損失
- Authors: Enrique Sanchez, Michel Valstar
- Abstract要約: 本稿では, 対面合成領域における入力の出現を保ちつつ, サイクル整合損失の重大な欠陥に対処する。
この損失を用いてトレーニングされたネットワークが生成した画像は、ノイズを隠蔽し、さらなるタスクに使用を妨げていることを示す。
出力画像間の距離を最小化する「繰り返しサイクル整合損失」を提案する。
- 参考スコア(独自算出の注目度): 5.71097144710995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses a major flaw of the cycle consistency loss when used to
preserve the input appearance in the face-to-face synthesis domain. In
particular, we show that the images generated by a network trained using this
loss conceal a noise that hinders their use for further tasks. To overcome this
limitation, we propose a ''recurrent cycle consistency loss" which for
different sequences of target attributes minimises the distance between the
output images, independent of any intermediate step. We empirically validate
not only that our loss enables the re-use of generated images, but that it also
improves their quality. In addition, we propose the very first network that
covers the task of unconstrained landmark-guided face-to-face synthesis.
Contrary to previous works, our proposed approach enables the transfer of a
particular set of input features to a large span of poses and expressions,
whereby the target landmarks become the ground-truth points. We then evaluate
the consistency of our proposed approach to synthesise faces at the target
landmarks. To the best of our knowledge, we are the first to propose a loss to
overcome the limitation of the cycle consistency loss, and the first to propose
an ''in-the-wild'' landmark guided synthesis approach. Code and models for this
paper can be found in https://github.com/ESanchezLozano/GANnotation
- Abstract(参考訳): 本稿では, 対面合成領域における入力外観を維持するために, サイクル整合損失の重大な欠陥について述べる。
特に,この損失を訓練したネットワークが生成した画像はノイズを隠蔽し,さらなる作業に使用するのを妨げていることを示す。
To overcome this limitation, we propose a ''recurrent cycle consistency loss" which for different sequences of target attributes minimises the distance between the output images, independent of any intermediate step. We empirically validate not only that our loss enables the re-use of generated images, but that it also improves their quality. In addition, we propose the very first network that covers the task of unconstrained landmark-guided face-to-face synthesis. Contrary to previous works, our proposed approach enables the transfer of a particular set of input features to a large span of poses and expressions, whereby the target landmarks become the ground-truth points. We then evaluate the consistency of our proposed approach to synthesise faces at the target landmarks. To the best of our knowledge, we are the first to propose a loss to overcome the limitation of the cycle consistency loss, and the first to propose an ''in-the-wild'' landmark guided synthesis approach.
この論文のコードとモデルはhttps://github.com/ESanchezLozano/GANnotationにある。
関連論文リスト
- Occlusion Resilient 3D Human Pose Estimation [52.49366182230432]
排除は、シングルカメラビデオシーケンスからの3Dボディポーズ推定における重要な課題の1つとして残されている。
単一カメラシーケンスからポーズを推測する最先端技術と比較して,このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-16T19:29:43Z) - Robustness-Guided Image Synthesis for Data-Free Quantization [15.91924736452861]
合成画像のセマンティクスを強化し,画像の多様性を向上させるために,ロバストネス誘導画像合成(RIS)を提案する。
RISは、合成画像のセマンティクスを強化し、画像の多様性を改善するための、シンプルだが効果的な方法である。
我々は、データフリーな量子化の様々な設定に対して最先端の性能を実現し、他のデータフリーな圧縮タスクにも拡張できる。
論文 参考訳(メタデータ) (2023-10-05T16:39:14Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - SD-GAN: Semantic Decomposition for Face Image Synthesis with Discrete
Attribute [0.0]
本稿では,SD-GANと呼ばれる意味的分解による顔の離散属性合成に挑戦する革新的な枠組みを提案する。
融合ネットワークは、より優れたアイデンティティ保存と離散属性合成のために3D埋め込みを統合する。
既存のデータセットにおける離散属性の欠如を解消するための,大規模で価値のあるデータセットMEGNを構築した。
論文 参考訳(メタデータ) (2022-07-12T04:23:38Z) - Gait Cycle Reconstruction and Human Identification from Occluded
Sequences [2.198430261120653]
我々は,歩行認識を行う前に,隠蔽されたフレームを入力シーケンスで再構築する有効なニューラルネットワークモデルを提案する。
我々はLSTMネットワークを用いて,前向きと後向きの両方から隠蔽フレームの埋め込みを予測する。
LSTMは平均二乗損失を最小限に抑えるために訓練されるが、核融合ネットワークは、接地構造と再構成されたサンプルの間の画素単位のクロスエントロピー損失を最適化するために訓練される。
論文 参考訳(メタデータ) (2022-06-20T16:04:31Z) - Fine-grained Identity Preserving Landmark Synthesis for Face Reenactment [30.062379710262068]
ランドマーク合成ネットワークは、より詳細できめ細かいランドマーク顔を生成するように設計されている。
ネットワークは、操作されたランドマークを洗練し、良好なID保存能力を備えたスムーズで徐々に変化する顔ランドマークシーケンスを生成する。
自作の BeautySelfie と公開の VoxCeleb1 データセットで実験を行った。
論文 参考訳(メタデータ) (2021-10-10T05:25:23Z) - Learned Spatial Representations for Few-shot Talking-Head Synthesis [68.3787368024951]
複数発話頭合成のための新しいアプローチを提案する。
この異方性表現は,従来の手法よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2021-04-29T17:59:42Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z) - Exploiting Semantics for Face Image Deblurring [121.44928934662063]
本稿では,深層畳み込みニューラルネットワークによる意味的手がかりを利用して,効果的かつ効率的な顔分解アルゴリズムを提案する。
顔のセマンティックラベルを入力先として組み込んで,顔の局所構造を正規化するための適応的構造損失を提案する。
提案手法は、より正確な顔の特徴と細部を持つシャープ画像を復元する。
論文 参考訳(メタデータ) (2020-01-19T13:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。