論文の概要: EvoGAN: An Evolutionary Computation Assisted GAN
- arxiv url: http://arxiv.org/abs/2110.11583v1
- Date: Fri, 22 Oct 2021 04:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 13:46:52.438937
- Title: EvoGAN: An Evolutionary Computation Assisted GAN
- Title(参考訳): evogan:ganを支援する進化的計算
- Authors: Feng Liu, HanYang Wang, Jiahao Zhang, Ziwang Fu, Aimin Zhou, Jiayin
Qi, Zhibin Li
- Abstract要約: 本稿では,EvoGAN (EvoGAN) と命名されたGANを用いた進化的アルゴリズムを提案する。
具体的には、FACS(Facial Action Coding System)をEAの符号化に使用し、事前訓練されたGANを用いて人間の顔画像を生成する。
- 参考スコア(独自算出の注目度): 7.571484427015355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The image synthesis technique is relatively well established which can
generate facial images that are indistinguishable even by human beings.
However, all of these approaches uses gradients to condition the output,
resulting in the outputting the same image with the same input. Also, they can
only generate images with basic expression or mimic an expression instead of
generating compound expression. In real life, however, human expressions are of
great diversity and complexity. In this paper, we propose an evolutionary
algorithm (EA) assisted GAN, named EvoGAN, to generate various compound
expressions with any accurate target compound expression. EvoGAN uses an EA to
search target results in the data distribution learned by GAN. Specifically, we
use the Facial Action Coding System (FACS) as the encoding of an EA and use a
pre-trained GAN to generate human facial images, and then use a pre-trained
classifier to recognize the expression composition of the synthesized images as
the fitness function to guide the search of the EA. Combined random searching
algorithm, various images with the target expression can be easily sythesized.
Quantitative and Qualitative results are presented on several compound
expressions, and the experimental results demonstrate the feasibility and the
potential of EvoGAN.
- Abstract(参考訳): 画像合成技術は比較的よく確立されており、人間でも区別できない顔画像を生成することができる。
しかしながら、これらのアプローチはすべて、出力を条件付けるために勾配を使い、結果として同じ画像を同じ入力で出力する。
また、合成表現を生成する代わりに、基本的な表現で画像を生成するか、あるいは表現を模倣するのみである。
しかし現実では、人間の表現は非常に多様性と複雑さがある。
本稿では,進化的アルゴリズム (ea) を用いたgan, evogan を用いて, 任意の対象化合物表現を合成する手法を提案する。
EvoGAN は EA を用いて GAN が学習したデータ配信の結果を検索する。
具体的には、顔動作符号化システム(facs)をeaの符号化として使用し、予め訓練されたganを用いて人間の顔画像を生成し、その後、事前訓練された分類器を使用して、合成画像の表現構成を適合機能として認識し、eaの探索を導く。
ランダム検索アルゴリズムと組み合わせて、ターゲット表現と様々な画像を容易に合成することができる。
いくつかの複合表現に対して定量的および定性的な結果が示され、実験結果はEvoGANの有効性と可能性を示している。
関連論文リスト
- GaFET: Learning Geometry-aware Facial Expression Translation from
In-The-Wild Images [55.431697263581626]
本稿では,パラメトリックな3次元顔表現をベースとした新しい顔表情翻訳フレームワークを提案する。
我々は、最先端の手法と比較して、高品質で正確な表情伝達結果を実現し、様々なポーズや複雑なテクスチャの適用性を実証する。
論文 参考訳(メタデータ) (2023-08-07T09:03:35Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - GH-Feat: Learning Versatile Generative Hierarchical Features from GANs [61.208757845344074]
画像合成から学習した生成機能は、幅広いコンピュータビジョンタスクを解く上で大きな可能性を秘めていることを示す。
まず,事前学習したStyleGANジェネレータを学習損失関数として考慮し,エンコーダを訓練する。
GH-Feat(Generative Hierarchical Features)と呼ばれるエンコーダが生成する視覚的特徴は、階層的なGAN表現と高度に一致している。
論文 参考訳(メタデータ) (2023-01-12T21:59:46Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Pixel-based Facial Expression Synthesis [1.7056768055368383]
本稿では,各出力画素が1つの入力画素のみを観測する,画素ベースの表情合成手法を提案する。
提案するモデルは2桁の規模で,リソース制約のあるデバイスへの展開に適している。
論文 参考訳(メタデータ) (2020-10-27T16:00:45Z) - LEGAN: Disentangled Manipulation of Directional Lighting and Facial
Expressions by Leveraging Human Perceptual Judgements [7.5603864775031004]
顔画像の光と表情を協調的に操作するための知覚的品質判断を利用する新しい合成フレームワーク LEGAN を提案する。
LEGANは、所望の出力画像にアップスケールする前に、照明と表現のサブスペースをアンタングルし、特徴空間で変換を行う。
また,LEGANおよび他のGANモデルにより合成された画像を用いて知覚的研究を行い,品質推定と視覚的忠実度との相関を示す。
論文 参考訳(メタデータ) (2020-10-04T01:56:54Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Fine-Grained Expression Manipulation via Structured Latent Space [30.789513209376032]
本稿では,表現の微粒化を操作するために,エンド・ツー・エンドな表現誘導型生成対向ネットワーク(EGGAN)を提案する。
提案手法は,微粒な表現を操作でき,ソースとターゲットの表現間の連続的な中間表現を生成する。
論文 参考訳(メタデータ) (2020-04-21T06:18:34Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。