論文の概要: US-GAN: On the importance of Ultimate Skip Connection for Facial
Expression Synthesis
- arxiv url: http://arxiv.org/abs/2112.13002v2
- Date: Sat, 8 Apr 2023 01:42:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 00:11:58.448434
- Title: US-GAN: On the importance of Ultimate Skip Connection for Facial
Expression Synthesis
- Title(参考訳): US-GAN:表情合成における究極のスキップ接続の重要性について
- Authors: Arbish Akram and Nazar Khan
- Abstract要約: GAN(Generative Adversarial Network)を用いた表情合成における究極のスキップ(US)接続の利点を実証する。
直接接続は、アーティファクトを抑えながら、入力から出力へアイデンティティ、顔、色の詳細を転送する。
これにより、符号化層、単一の残差ブロック、復号層、入力から出力への究極のスキップ接続で構成される軽量なUS-GANモデルが実現される。
- 参考スコア(独自算出の注目度): 1.7056768055368383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate the benefit of using an ultimate skip (US) connection for
facial expression synthesis using generative adversarial networks (GAN). A
direct connection transfers identity, facial, and color details from input to
output while suppressing artifacts. The intermediate layers can therefore focus
on expression generation only. This leads to a light-weight US-GAN model
comprised of encoding layers, a single residual block, decoding layers, and an
ultimate skip connection from input to output. US-GAN has $3\times$ fewer
parameters than state-of-the-art models and is trained on $2$ orders of
magnitude smaller dataset. It yields $7\%$ increase in face verification score
(FVS) and $27\%$ decrease in average content distance (ACD). Based on a
randomized user-study, US-GAN outperforms the state of the art by $25\%$ in
face realism, $43\%$ in expression quality, and $58\%$ in identity
preservation.
- Abstract(参考訳): 本稿では,GAN (Generative Adversarial Network) を用いた表情合成における究極のスキップ(US)接続の利点を示す。
直接接続は、アーティファクトを抑えながら、入力から出力へアイデンティティ、顔、色の詳細を転送する。
したがって中間層は表現生成のみに集中することができる。
これにより、エンコーディング層、単一残差ブロック、復号層、入力から出力への究極のスキップ接続からなる軽量us-ganモデルが作成される。
US-GANは、最先端のモデルよりもパラメータが3ドル以下で、桁違いに小さなデータセットで訓練されている。
顔認証スコア (fvs) は$7\%$上昇し、平均コンテンツ距離 (acd) は$7\%$低下する。
ランダム化されたユーザスタディに基づいて、us-ganは、face realismで$25\%、expression qualityで$43\%、id保存で$8\%という、アートの状態を上回っている。
関連論文リスト
- CLR-Face: Conditional Latent Refinement for Blind Face Restoration Using
Score-Based Diffusion Models [57.9771859175664]
最近の生成優先法は、有望なブラインドフェイス修復性能を示している。
入力に忠実なきめ細かい顔の詳細を生成することは、依然として難しい問題である。
本稿では,VQGANアーキテクチャの内部に拡散型プライマーを導入し,非破壊な潜伏埋め込みにおける分布の学習に重点を置いている。
論文 参考訳(メタデータ) (2024-02-08T23:51:49Z) - Efficient Verification-Based Face Identification [50.616875565173274]
効率の良いニューラルモデルで顔認証を行う際の問題点を$f$で検討する。
我々のモデルは、23kパラメータと5M浮動小数点演算(FLOPS)しか必要としない、かなり小さな$f$に導かれる。
我々は、6つの顔認証データセットを用いて、我々の手法が最先端のモデルよりも同等か優れていることを示す。
論文 参考訳(メタデータ) (2023-12-20T18:08:02Z) - Federated Learning with Differential Privacy for End-to-End Speech
Recognition [41.53948098243563]
フェデレートラーニング(FL)は、機械学習モデルをトレーニングするための有望なアプローチとして登場した。
自動音声認識(ASR)のための差分プライバシー(DP)をFLに適用する。
ユーザレベル(7.2$, 10-9$)-$textbfDP$(resp.$4.5$, 10-9$)-$textbfDP$(resp.$4.5$, 10-9$)-$textbfDP$は1.3%(resp.4.6%)で、ASRのDPを持つ$textbfFLの高(resp.low)集団スケールに対する外挿のための単語エラー率を絶対的に低下させる。
論文 参考訳(メタデータ) (2023-09-29T19:11:49Z) - SD-GAN: Semantic Decomposition for Face Image Synthesis with Discrete
Attribute [0.0]
本稿では,SD-GANと呼ばれる意味的分解による顔の離散属性合成に挑戦する革新的な枠組みを提案する。
融合ネットワークは、より優れたアイデンティティ保存と離散属性合成のために3D埋め込みを統合する。
既存のデータセットにおける離散属性の欠如を解消するための,大規模で価値のあるデータセットMEGNを構築した。
論文 参考訳(メタデータ) (2022-07-12T04:23:38Z) - FA-GAN: Feature-Aware GAN for Text to Image Synthesis [7.0168039268464]
本稿では,2つの手法を統合した高品質な画像合成のためのGAN(Generative Adversarial Network)を提案する。
まず、補助デコーダを用いた自己教師型識別器を設計し、識別器がより良い表現を抽出できるようにする。
第2に,自己監督型識別器からの特徴表現を利用することにより,ジェネレータにより直接的な監督を与える特徴認識損失を導入する。
論文 参考訳(メタデータ) (2021-09-02T13:05:36Z) - Pro-UIGAN: Progressive Face Hallucination from Occluded Thumbnails [53.080403912727604]
Inpainting Generative Adversarial Network, Pro-UIGANを提案する。
顔の形状を利用して、隠された小さな顔の補充とアップサンプリング(8*)を行う。
Pro-UIGANは、HR面を視覚的に満足させ、下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-02T02:29:24Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z) - SuperFront: From Low-resolution to High-resolution Frontal Face
Synthesis [65.35922024067551]
本稿では,前頭前頭部を保存した高品質なアイデンティティを生成できるGANモデルを提案する。
具体的には,高分解能(HR)面を1対多のLR面から様々なポーズで合成するSuperFront-GANを提案する。
超高解像度のサイドビューモジュールをSF-GANに統合し、人事空間におけるアイデンティティ情報とサイドビューの詳細を保存します。
論文 参考訳(メタデータ) (2020-12-07T23:30:28Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。