論文の概要: US-GAN: On the importance of Ultimate Skip Connection for Facial
Expression Synthesis
- arxiv url: http://arxiv.org/abs/2112.13002v1
- Date: Fri, 24 Dec 2021 08:56:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 16:46:46.507274
- Title: US-GAN: On the importance of Ultimate Skip Connection for Facial
Expression Synthesis
- Title(参考訳): US-GAN:表情合成における究極のスキップ接続の重要性について
- Authors: Arbish Akram and Nazar Khan
- Abstract要約: US-GANは、特に小さなデータセットを用いて可塑性表現を合成する、より小さく効果的な方法である。
最先端の表情合成法に比べて3倍少ないパラメータを持つ。
- 参考スコア(独自算出の注目度): 2.132096006921048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown impressive results in multi-domain image-to-image
translation for facial expression synthesis. While effective, these methods
require a large number of labelled samples for plausible results. Their
performance significantly degrades when we train them on smaller datasets. To
address this limitation, in this work, we present US-GAN, a smaller and
effective method for synthesizing plausible expressions by employing notably
smaller datasets. The proposed method comprises of encoding layers, single
residual block, decoding layers and an ultimate skip connection that links the
input image to an output image. It has three times lesser parameters as
compared to state-of-the-art facial expression synthesis methods. Experimental
results demonstrate the quantitative and qualitative effectiveness of our
proposed method. In addition, we also show that an ultimate skip connection is
sufficient for recovering rich facial and overall color details of the input
face image that a larger state-of-the-art model fails to recover.
- Abstract(参考訳): 近年の研究では、顔表情合成のための多領域画像・画像翻訳において顕著な結果が示されている。
これらの手法は有効であるが, 多数のラベル付きサンプルが必要である。
より小さなデータセットでトレーニングすると、パフォーマンスが大幅に低下します。
この制限に対処するため,本研究では,us-ganという,より小さなデータセットを用いることで,実用的な表現を合成する手法を提案する。
提案手法は,1つの残差ブロック,復号層,および入力画像と出力画像とを接続する究極のスキップ接続を符号化する。
最先端の表情合成法に比べて3倍少ないパラメータを持つ。
実験により,提案手法の定量的,定性的な有効性を示した。
また,入力顔画像の鮮やかな顔と全体色の詳細を復元するのには,最終的なスキップ接続が十分であることを示す。
関連論文リスト
- CLR-Face: Conditional Latent Refinement for Blind Face Restoration Using
Score-Based Diffusion Models [57.9771859175664]
最近の生成優先法は、有望なブラインドフェイス修復性能を示している。
入力に忠実なきめ細かい顔の詳細を生成することは、依然として難しい問題である。
本稿では,VQGANアーキテクチャの内部に拡散型プライマーを導入し,非破壊な潜伏埋め込みにおける分布の学習に重点を置いている。
論文 参考訳(メタデータ) (2024-02-08T23:51:49Z) - Efficient Verification-Based Face Identification [50.616875565173274]
効率の良いニューラルモデルで顔認証を行う際の問題点を$f$で検討する。
我々のモデルは、23kパラメータと5M浮動小数点演算(FLOPS)しか必要としない、かなり小さな$f$に導かれる。
我々は、6つの顔認証データセットを用いて、我々の手法が最先端のモデルよりも同等か優れていることを示す。
論文 参考訳(メタデータ) (2023-12-20T18:08:02Z) - Federated Learning with Differential Privacy for End-to-End Speech
Recognition [41.53948098243563]
フェデレートラーニング(FL)は、機械学習モデルをトレーニングするための有望なアプローチとして登場した。
自動音声認識(ASR)のための差分プライバシー(DP)をFLに適用する。
ユーザレベル(7.2$, 10-9$)-$textbfDP$(resp.$4.5$, 10-9$)-$textbfDP$(resp.$4.5$, 10-9$)-$textbfDP$は1.3%(resp.4.6%)で、ASRのDPを持つ$textbfFLの高(resp.low)集団スケールに対する外挿のための単語エラー率を絶対的に低下させる。
論文 参考訳(メタデータ) (2023-09-29T19:11:49Z) - SD-GAN: Semantic Decomposition for Face Image Synthesis with Discrete
Attribute [0.0]
本稿では,SD-GANと呼ばれる意味的分解による顔の離散属性合成に挑戦する革新的な枠組みを提案する。
融合ネットワークは、より優れたアイデンティティ保存と離散属性合成のために3D埋め込みを統合する。
既存のデータセットにおける離散属性の欠如を解消するための,大規模で価値のあるデータセットMEGNを構築した。
論文 参考訳(メタデータ) (2022-07-12T04:23:38Z) - FA-GAN: Feature-Aware GAN for Text to Image Synthesis [7.0168039268464]
本稿では,2つの手法を統合した高品質な画像合成のためのGAN(Generative Adversarial Network)を提案する。
まず、補助デコーダを用いた自己教師型識別器を設計し、識別器がより良い表現を抽出できるようにする。
第2に,自己監督型識別器からの特徴表現を利用することにより,ジェネレータにより直接的な監督を与える特徴認識損失を導入する。
論文 参考訳(メタデータ) (2021-09-02T13:05:36Z) - Pro-UIGAN: Progressive Face Hallucination from Occluded Thumbnails [53.080403912727604]
Inpainting Generative Adversarial Network, Pro-UIGANを提案する。
顔の形状を利用して、隠された小さな顔の補充とアップサンプリング(8*)を行う。
Pro-UIGANは、HR面を視覚的に満足させ、下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-02T02:29:24Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z) - SuperFront: From Low-resolution to High-resolution Frontal Face
Synthesis [65.35922024067551]
本稿では,前頭前頭部を保存した高品質なアイデンティティを生成できるGANモデルを提案する。
具体的には,高分解能(HR)面を1対多のLR面から様々なポーズで合成するSuperFront-GANを提案する。
超高解像度のサイドビューモジュールをSF-GANに統合し、人事空間におけるアイデンティティ情報とサイドビューの詳細を保存します。
論文 参考訳(メタデータ) (2020-12-07T23:30:28Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。