論文の概要: Face Generation from Textual Features using Conditionally Trained Inputs
to Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2301.09123v1
- Date: Sun, 22 Jan 2023 13:27:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 14:45:23.474746
- Title: Face Generation from Textual Features using Conditionally Trained Inputs
to Generative Adversarial Networks
- Title(参考訳): 条件付き学習入力から生成型逆ネットワークへのテキスト特徴量からの顔生成
- Authors: Sandeep Shinde, Tejas Pradhan, Aniket Ghorpade, Mihir Tale
- Abstract要約: 我々は、自然言語処理モデルにおける状態のパワーを用いて、顔の記述を学習可能な潜在ベクトルに変換する。
同じアプローチは、きめ細かいテキストの特徴に基づいて任意の画像を生成するように調整できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Networks have proved to be extremely effective in image
restoration and reconstruction in the past few years. Generating faces from
textual descriptions is one such application where the power of generative
algorithms can be used. The task of generating faces can be useful for a number
of applications such as finding missing persons, identifying criminals, etc.
This paper discusses a novel approach to generating human faces given a textual
description regarding the facial features. We use the power of state of the art
natural language processing models to convert face descriptions into learnable
latent vectors which are then fed to a generative adversarial network which
generates faces corresponding to those features. While this paper focuses on
high level descriptions of faces only, the same approach can be tailored to
generate any image based on fine grained textual features.
- Abstract(参考訳): 生成ネットワークは、ここ数年で画像の復元と再構築に極めて効果的であることが証明されている。
テキスト記述から顔を生成することは、生成アルゴリズムのパワーを利用できるアプリケーションである。
顔を生成するタスクは、行方不明の人を見つける、犯罪者を特定するなど、多くのアプリケーションに役立つ。
本稿では,顔の特徴をテキストで記述した人間の顔を生成する新しいアプローチについて論じる。
我々は,最先端の自然言語処理モデルを用いて,顔記述を学習可能な潜在ベクトルに変換し,それらの特徴に対応する顔を生成する生成的逆ネットワークに供給する。
本稿では,顔のみの高レベルな記述に焦点を当てる一方で,微細なテキストの特徴に基づく任意の画像を生成するために,同じアプローチをカスタマイズすることができる。
関連論文リスト
- StyleT2F: Generating Human Faces from Textual Description Using
StyleGAN2 [0.0]
StyleT2Fは、テキストを使用してStyleGAN2の出力を制御する方法である。
提案手法は,必要な特徴を正しくキャプチャし,入力テキストと出力画像との整合性を示す。
論文 参考訳(メタデータ) (2022-04-17T04:51:30Z) - Explore the Expression: Facial Expression Generation using Auxiliary
Classifier Generative Adversarial Network [0.0]
本稿では,複数の文字識別のための表情の集合を頑健に生成する生成モデルアーキテクチャを提案する。
簡単な表現を組み合わせることで複雑な表現を生成する可能性について検討する。
論文 参考訳(メタデータ) (2022-01-22T14:37:13Z) - Semantic Text-to-Face GAN -ST^2FG [0.0]
セマンティックテキスト記述から顔画像を生成する新しい手法を提案する。
セキュリティと犯罪の特定のためには、スケッチアーティストのように機能するGANベースのシステムを提供する能力は、信じられないほど有用だろう。
論文 参考訳(メタデータ) (2021-07-22T15:42:25Z) - Image-to-Video Generation via 3D Facial Dynamics [78.01476554323179]
静止画像から様々な映像を生成するために多目的モデルであるFaceAnimeを提案する。
私たちのモデルは、顔ビデオや顔ビデオの予測など、さまざまなAR/VRやエンターテイメントアプリケーションに汎用的です。
論文 参考訳(メタデータ) (2021-05-31T02:30:11Z) - Network Architecture Search for Face Enhancement [82.25775020564654]
我々は、NASFE(Network Architecture Search for Face Enhancement)と呼ばれるマルチタスクの顔復元ネットワークを提案する。
NASFEは、単一の劣化(すなわち)を含む低品質の顔画像を高めることができる。
ノイズまたはぼやけ)または複数の劣化(ノイズ+ブラル+ローライト)
論文 参考訳(メタデータ) (2021-05-13T19:46:05Z) - FaceController: Controllable Attribute Editing for Face in the Wild [74.56117807309576]
単純なフィードフォワードネットワークを提案し、高忠実度な顔を生成する。
本手法では,既存かつ容易に把握可能な事前情報を利用することで,野生の多様な顔属性の制御,転送,編集を行うことができる。
本手法では,3Dプリミティブを用いてアイデンティティ,表現,ポーズ,イルミネーションを分離し,地域別スタイルコードを用いてテクスチャとカラーを分離する。
論文 参考訳(メタデータ) (2021-02-23T02:47:28Z) - One-shot Face Reenactment Using Appearance Adaptive Normalization [30.615671641713945]
本稿では,一発顔再現のための新しい生成的対向ネットワークを提案する。
1枚の顔画像を別のポーズ・アンド・エクスプレッションにアニメーションし、元の外観を保ちます。
論文 参考訳(メタデータ) (2021-02-08T03:36:30Z) - Attributes Aware Face Generation with Generative Adversarial Networks [133.44359317633686]
AFGANと呼ばれる生成対向ネットワークを用いた新しい属性認識顔画像生成法を提案する。
3つの積み重ねたジェネレータは、それぞれ64ドル640ドル、128ドル128ドル、256ドル256ドルの解像度の顔画像を生成する。
さらに、生成した画像と入力属性の相関性を高めるために、画像-属性マッチング損失を提案する。
論文 参考訳(メタデータ) (2020-12-03T09:25:50Z) - Faces \`a la Carte: Text-to-Face Generation via Attribute
Disentanglement [9.10088750358281]
Text-to-Face (TTF) は多様なコンピュータビジョンアプリケーションにおいて大きな可能性を秘めている課題である。
本研究では,高解像度(1024×1024)で画像を生成するテキスト・ツー・フェイスモデルを提案する。
実験結果から,TTF-HDは最先端の性能を有する高品質な顔を生成することが示された。
論文 参考訳(メタデータ) (2020-06-13T10:24:31Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Exploiting Semantics for Face Image Deblurring [121.44928934662063]
本稿では,深層畳み込みニューラルネットワークによる意味的手がかりを利用して,効果的かつ効率的な顔分解アルゴリズムを提案する。
顔のセマンティックラベルを入力先として組み込んで,顔の局所構造を正規化するための適応的構造損失を提案する。
提案手法は、より正確な顔の特徴と細部を持つシャープ画像を復元する。
論文 参考訳(メタデータ) (2020-01-19T13:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。