論文の概要: Inverse mapping of face GANs
- arxiv url: http://arxiv.org/abs/2009.05671v1
- Date: Fri, 11 Sep 2020 22:06:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 20:48:38.703273
- Title: Inverse mapping of face GANs
- Title(参考訳): 顔GANの逆マッピング
- Authors: Nicky Bayat, Vahid Reza Khazaie, Yalda Mohsenzadeh
- Abstract要約: 我々はResNetアーキテクチャをトレーニングし、ターゲットとほぼ同一の顔を生成するために使用できる所定の顔の潜伏ベクトルを復元する。
我々は知覚的損失を用いて、顔の細部を回復した潜伏ベクトルに埋め込むとともに、画素損失を用いて視覚的品質を維持できる。
- 参考スコア(独自算出の注目度): 7.6702700993064115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) synthesize realistic images from a
random latent vector. While many studies have explored various training
configurations and architectures for GANs, the problem of inverting a
generative model to extract latent vectors of given input images has been
inadequately investigated. Although there is exactly one generated image per
given random vector, the mapping from an image to its recovered latent vector
can have more than one solution. We train a ResNet architecture to recover a
latent vector for a given face that can be used to generate a face nearly
identical to the target. We use a perceptual loss to embed face details in the
recovered latent vector while maintaining visual quality using a pixel loss.
The vast majority of studies on latent vector recovery perform well only on
generated images, we argue that our method can be used to determine a mapping
between real human faces and latent-space vectors that contain most of the
important face style details. In addition, our proposed method projects
generated faces to their latent-space with high fidelity and speed. At last, we
demonstrate the performance of our approach on both real and generated faces.
- Abstract(参考訳): generative adversarial networks (gans) はランダムな潜伏ベクトルから現実的な画像を合成する。
GANのための様々なトレーニング構成やアーキテクチャについて多くの研究がなされているが、与えられた入力画像の潜在ベクトルを抽出する生成モデルを逆転する問題は不十分に研究されている。
与えられたランダムベクトルごとに正確に1つの生成画像が存在するが、画像から回復した潜在ベクトルへのマッピングは複数の解を持つことができる。
我々はResNetアーキテクチャをトレーニングし、ターゲットとほぼ同一の顔を生成するために使用できる与えられた顔の潜在ベクトルを復元する。
我々は、知覚的損失を用いて、画像の画質を維持しながら、回復した潜在ベクターに顔の詳細を埋め込む。
潜在ベクトルリカバリに関する研究の大部分は,生成画像上でのみ良好に機能するが,本手法は,人間の顔と,重要な顔スタイルの詳細の大部分を含む潜在空間ベクトルのマッピングを決定するのに有効である。
さらに,提案手法は,高忠実度かつ高速な潜在空間に面を生成する。
最後に,実顔と生成顔の両方にアプローチの有効性を示す。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - Latent-OFER: Detect, Mask, and Reconstruct with Latent Vectors for
Occluded Facial Expression Recognition [0.0]
提案手法は, 顔の隠蔽部分を, 隠蔽されていないかのように検出し, 認識し, FER精度を向上する。
まず、視覚変換器(ViT)ベースのオクルージョンパッチ検出器は、隠蔽されたパッチから潜在ベクトルのみを訓練することで、隠蔽された位置をマスクする。
第2に、ハイブリッド再構成ネットワークは、ViTと畳み込みニューラルネットワーク(CNN)を用いて、完全な画像としてマスキング位置を生成する。
最後に、式関連潜時ベクトル抽出器は、CNNに基づくクラスアクティベーションマップを適用して、すべての潜時ベクトルから式関連情報を検索し、使用する。
論文 参考訳(メタデータ) (2023-07-21T07:56:32Z) - SARGAN: Spatial Attention-based Residuals for Facial Expression
Manipulation [1.7056768055368383]
本稿では,3つの視点から制限に対処するSARGANという新しい手法を提案する。
我々は対称エンコーダ・デコーダネットワークを利用して顔の特徴に複数スケールで対応した。
提案手法は最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-30T08:15:18Z) - Efficient Textured Mesh Recovery from Multiple Views with Differentiable
Rendering [8.264851594332677]
マルチビュー画像からテクスチャメッシュを復元する手法を提案する。
学習ベース多視点ステレオアルゴリズムにより予測される深度との差を最小化することにより形状形状を最適化する。
形状や色に対する暗黙的なニューラル表現とは対照的に,物体の光と反射を共同で推定する物理ベース逆レンダリング方式を導入する。
論文 参考訳(メタデータ) (2022-05-25T03:33:55Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - Pro-UIGAN: Progressive Face Hallucination from Occluded Thumbnails [53.080403912727604]
Inpainting Generative Adversarial Network, Pro-UIGANを提案する。
顔の形状を利用して、隠された小さな顔の補充とアップサンプリング(8*)を行う。
Pro-UIGANは、HR面を視覚的に満足させ、下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-02T02:29:24Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - Exploring Adversarial Fake Images on Face Manifold [5.26916168336451]
強力な生成敵対ネットワーク(GAN)ベースの方法によって合成された画像は、道徳的およびプライバシー上の懸念を引き起こしている。
本稿では, 対向雑音を付加する代わりに, 顔多様体上の対向点を最適に探索し, 反forensic fake face imageを生成する。
論文 参考訳(メタデータ) (2021-01-09T02:08:59Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Image GANs meet Differentiable Rendering for Inverse Graphics and
Interpretable 3D Neural Rendering [101.56891506498755]
異なるレンダリングによって、ニューラルネットワークをトレーニングして"逆グラフィックス"タスクを実行する方法が舗装された。
提案手法は,既存のデータセットでトレーニングした最先端の逆グラフネットワークを著しく上回ることを示す。
論文 参考訳(メタデータ) (2020-10-18T22:29:07Z) - Unsupervised Sparse-view Backprojection via Convolutional and Spatial
Transformer Networks [8.564644163856318]
本研究では,非教師付きスパースビューバックプロジェクションアルゴリズムを導入する。
提案アルゴリズムはプロジェクション角が非常に粗い場合にフィルタバックプロジェクションを著しく上回る。
本手法は医用画像および他の画像モダリティに実用的応用がある。
論文 参考訳(メタデータ) (2020-06-01T05:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。