論文の概要: EGAIN: Extended GAn INversion
- arxiv url: http://arxiv.org/abs/2312.15116v1
- Date: Fri, 22 Dec 2023 23:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 19:51:58.260571
- Title: EGAIN: Extended GAn INversion
- Title(参考訳): EGAIN: 拡張GANインバージョン
- Authors: Wassim Kabbani, Marcel Grimmer, Christoph Busch
- Abstract要約: GAN(Generative Adversarial Networks)は近年大きな進歩を遂げている。
近年のGANは、非絡み合った潜在空間の機能を符号化することが証明されている。
GANインバージョンは、実際の顔画像の顔意味論を操作するための扉を開く。
- 参考スコア(独自算出の注目度): 5.602947425285195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have witnessed significant advances in
recent years, generating increasingly higher quality images, which are
non-distinguishable from real ones. Recent GANs have proven to encode features
in a disentangled latent space, enabling precise control over various semantic
attributes of the generated facial images such as pose, illumination, or
gender. GAN inversion, which is projecting images into the latent space of a
GAN, opens the door for the manipulation of facial semantics of real face
images. This is useful for numerous applications such as evaluating the
performance of face recognition systems. In this work, EGAIN, an architecture
for constructing GAN inversion models, is presented. This architecture
explicitly addresses some of the shortcomings in previous GAN inversion models.
A specific model with the same name, egain, based on this architecture is also
proposed, demonstrating superior reconstruction quality over state-of-the-art
models, and illustrating the validity of the EGAIN architecture.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は近年顕著な進歩を目の当たりにしており、より高品質な画像を生成している。
近年のGANは、アンタングル空間における特徴を符号化し、ポーズ、照明、性別などの生成された顔画像の様々な意味的属性を正確に制御できることが証明されている。
GANの潜在空間に画像を投影するGANインバージョンは、実際の顔画像の顔意味論を操作するための扉を開く。
これは顔認識システムの性能評価など、多くのアプリケーションで有用である。
本稿では,GAN逆変換モデルを構築するためのアーキテクチャであるEGAINについて述べる。
このアーキテクチャは、以前のganインバージョンモデルの欠点のいくつかを明示的に取り扱う。
このアーキテクチャをベースとした同名の固有モデルも提案され、最先端モデルよりも優れた再構築品質を示し、EGAINアーキテクチャの有効性を示す。
関連論文リスト
- In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - GH-Feat: Learning Versatile Generative Hierarchical Features from GANs [61.208757845344074]
画像合成から学習した生成機能は、幅広いコンピュータビジョンタスクを解く上で大きな可能性を秘めていることを示す。
まず,事前学習したStyleGANジェネレータを学習損失関数として考慮し,エンコーダを訓練する。
GH-Feat(Generative Hierarchical Features)と呼ばれるエンコーダが生成する視覚的特徴は、階層的なGAN表現と高度に一致している。
論文 参考訳(メタデータ) (2023-01-12T21:59:46Z) - Detecting High-Quality GAN-Generated Face Images using Neural Networks [23.388645531702597]
本稿では,スペクトル帯域差を利用したGAN生成画像と実画像との区別手法を提案する。
特に,クロスバンド共起行列と空間共起行列を用いて,顔画像のデジタル保存を可能にする。
性能向上は特に重要であり、異なる後処理環境において92%以上を達成することを示す。
論文 参考訳(メタデータ) (2022-03-03T13:53:27Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - A Method for Evaluating Deep Generative Models of Images via Assessing
the Reproduction of High-order Spatial Context [9.00018232117916]
GAN(Generative Adversarial Network)は、広く使われているDGMの一種である。
本稿では,2つのGANアーキテクチャによって出力される画像の客観的なテストについて述べる。
我々は、訓練されたGANによって生成した画像の特徴を再現できるいくつかのコンテキストモデル(SCM)を設計した。
論文 参考訳(メタデータ) (2021-11-24T15:58:10Z) - Self-supervised GAN Detector [10.963740942220168]
生成モデルは 不正や 破壊 偽ニュースなど 悪意のある目的で悪用される
トレーニング設定外の未確認画像を識別する新しいフレームワークを提案する。
提案手法は,GAN画像の高品質な人工指紋を再構成する人工指紋生成装置から構成する。
論文 参考訳(メタデータ) (2021-11-12T06:19:04Z) - Vit-GAN: Image-to-image Translation with Vision Transformes and
Conditional GANS [0.0]
本稿では,画像から画像への変換処理のほとんどを可能にする汎用アーキテクチャであるVit-Ganを開発した。
得られた結果は、一般的に使用されるアーキテクチャよりも現実的であることが観察された。
論文 参考訳(メタデータ) (2021-10-11T18:09:16Z) - Heterogeneous Face Frontalization via Domain Agnostic Learning [74.86585699909459]
本研究では, 視覚領域における正面視を, ポーズのバリエーションで合成できるドメイン非依存学習型生成逆数ネットワーク(DAL-GAN)を提案する。
DAL-GANは、補助分類器を備えたジェネレータと、より優れた合成のために局所的およびグローバルなテクスチャ識別をキャプチャする2つの識別器から構成される。
論文 参考訳(メタデータ) (2021-07-17T20:41:41Z) - GAN Inversion: A Survey [125.62848237531945]
GANインバージョンは、与えられたイメージを事前に訓練されたGANモデルの潜在空間に戻すことを目的としている。
GANインバージョンは、StyleGANやBigGANなどの事前トレーニングされたGANモデルを実際の画像編集アプリケーションに使用できるようにする上で重要な役割を果たします。
論文 参考訳(メタデータ) (2021-01-14T14:11:00Z) - One Model to Reconstruct Them All: A Novel Way to Use the Stochastic
Noise in StyleGAN [10.810541849249821]
本稿では,複数のデータ領域にまたがる非常に高品質な画像を再構成可能な,新しいスタイルGANベースのオートエンコーダアーキテクチャを提案する。
提案アーキテクチャでは,従来のアプローチの約28倍高速な単一GPU上で,毎秒40イメージを処理可能である。
論文 参考訳(メタデータ) (2020-10-21T16:24:07Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。