論文の概要: Pixel-based Facial Expression Synthesis
- arxiv url: http://arxiv.org/abs/2010.14397v1
- Date: Tue, 27 Oct 2020 16:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:24:59.513885
- Title: Pixel-based Facial Expression Synthesis
- Title(参考訳): ピクセルベースの表情合成
- Authors: Arbish Akram, Nazar Khan
- Abstract要約: 本稿では,各出力画素が1つの入力画素のみを観測する,画素ベースの表情合成手法を提案する。
提案するモデルは2桁の規模で,リソース制約のあるデバイスへの展開に適している。
- 参考スコア(独自算出の注目度): 1.7056768055368383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial expression synthesis has achieved remarkable advances with the advent
of Generative Adversarial Networks (GANs). However, GAN-based approaches mostly
generate photo-realistic results as long as the testing data distribution is
close to the training data distribution. The quality of GAN results
significantly degrades when testing images are from a slightly different
distribution. Moreover, recent work has shown that facial expressions can be
synthesized by changing localized face regions. In this work, we propose a
pixel-based facial expression synthesis method in which each output pixel
observes only one input pixel. The proposed method achieves good generalization
capability by leveraging only a few hundred training images. Experimental
results demonstrate that the proposed method performs comparably well against
state-of-the-art GANs on in-dataset images and significantly better on
out-of-dataset images. In addition, the proposed model is two orders of
magnitude smaller which makes it suitable for deployment on
resource-constrained devices.
- Abstract(参考訳): 表情合成はGAN(Generative Adversarial Networks)の出現によって顕著な進歩を遂げた。
しかし、GANベースのアプローチは、テストデータ分布がトレーニングデータ分布に近い限り、主にフォトリアリスティックな結果を生成する。
GANの品質は、画像がわずかに異なる分布から得られる場合、著しく低下する。
また,近年の研究では,局所的な顔領域の変化によって表情を合成できることが示されている。
本研究では,各出力画素が1つの入力画素のみを観測する画素ベースの表情合成法を提案する。
提案手法は,数百のトレーニング画像のみを活用し,優れた一般化を実現する。
実験の結果,提案手法は,データ内画像における最先端のgansと同等の性能を示し,データ外画像の処理性能が著しく向上した。
さらに,提案手法は2桁の規模で,資源制約のあるデバイスへの展開に適したモデルである。
関連論文リスト
- GAN-based Image Compression with Improved RDO Process [20.00340507091567]
速度歪みの最適化を改良した新しいGANベースの画像圧縮手法を提案する。
これを実現するために、DisTSとMS-SSIMのメトリクスを用いて、色、テクスチャ、構造における知覚的変性を測定する。
提案手法は,既存のGAN法および最先端ハイブリッド(VVC)よりも優れている。
論文 参考訳(メタデータ) (2023-06-18T03:21:11Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Improving the Fairness of Deep Generative Models without Retraining [41.6580482370894]
GAN(Generative Adversarial Networks)は、観測データの基盤となる分布を学習し、顔合成を進める。
高品質な生成顔にもかかわらず、一部の少数グループはバイアス画像生成プロセスのためにトレーニングされたモデルから生成されることは稀である。
アウトプット顔面特性を再訓練することなくバランスをとるための解釈可能なベースライン法を提案する。
論文 参考訳(メタデータ) (2020-12-09T03:20:41Z) - Masked Linear Regression for Learning Local Receptive Fields for Facial
Expression Synthesis [10.28711904929932]
本稿では,表情の局所的およびスパース的構造を利用したリッジ回帰の制約付きバージョンを提案する。
既存のアプローチとは対照的に,提案手法はより大きな画像サイズで効率的に訓練することができる。
提案アルゴリズムは、Pix2Pix, CycleGAN, StarGAN, GANimationなどの最先端のGANと比較される。
論文 参考訳(メタデータ) (2020-11-18T06:04:24Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z) - FakeLocator: Robust Localization of GAN-Based Face Manipulations [19.233930372590226]
本稿では,FakeLocatorと呼ばれる新しいアプローチを提案する。
これは、GANベースのフェイクローカライゼーション問題をグレースケールのフェイクネスマップで解決する最初の試みである。
人気の高いFaceForensics++,DFFDデータセット,および7種類の最先端のGANベースの顔生成手法による実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-01-27T06:15:01Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。