論文の概要: Transforming Facial Weight of Real Images by Editing Latent Space of
StyleGAN
- arxiv url: http://arxiv.org/abs/2011.02606v1
- Date: Thu, 5 Nov 2020 01:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 11:12:34.888921
- Title: Transforming Facial Weight of Real Images by Editing Latent Space of
StyleGAN
- Title(参考訳): スタイルGANの潜在空間の編集による実画像の顔重変換
- Authors: V N S Rama Krishna Pinnimty, Matt Zhao, Palakorn Achananuparp, and
Ee-Peng Lim
- Abstract要約: 本稿では,GAN(Generative Adversarial Networks)の潜伏空間に符号化された意味的顔属性を活用することにより,入力顔画像の顔重量をより薄くあるいは重くするために変換する逆・エディットフレームワークを提案する。
我々のフレームワークは、大量のラベル付き顔画像をスクラッチからトレーニングすることなく、高品質でリアルな顔重み変換を実現することを実証的に示している。
われわれの枠組みは、身近な行動が外見に与える影響を可視化することによって、個人に健康的な食品選択を動機付けるための介入として活用することができる。
- 参考スコア(独自算出の注目度): 9.097538101642192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an invert-and-edit framework to automatically transform facial
weight of an input face image to look thinner or heavier by leveraging semantic
facial attributes encoded in the latent space of Generative Adversarial
Networks (GANs). Using a pre-trained StyleGAN as the underlying generator, we
first employ an optimization-based embedding method to invert the input image
into the StyleGAN latent space. Then, we identify the facial-weight attribute
direction in the latent space via supervised learning and edit the inverted
latent code by moving it positively or negatively along the extracted feature
axis. Our framework is empirically shown to produce high-quality and realistic
facial-weight transformations without requiring training GANs with a large
amount of labeled face images from scratch. Ultimately, our framework can be
utilized as part of an intervention to motivate individuals to make healthier
food choices by visualizing the future impacts of their behavior on appearance.
- Abstract(参考訳): 本稿では,GAN(Generative Adversarial Networks)の潜在空間に符号化された意味的顔属性を活用することにより,入力された顔画像の顔重量を,より薄くあるいは重くするために自動的に変換する逆・エディットフレームワークを提案する。
事前学習したStyleGANを基本ジェネレータとして、まず最適化に基づく埋め込み手法を用いて入力画像をStyleGAN潜在空間に反転させる。
そして、教師付き学習により潜伏空間の顔重み属性方向を特定し、抽出した特徴軸に沿って正あるいは負に移動して逆潜伏符号を編集する。
我々のフレームワークは、大量のラベル付き顔画像をスクラッチからトレーニングすることなく、高品質でリアルな顔重み変換を実現することを実証的に示している。
最終的に、我々の枠組みは、個人の行動が外見に与える影響を可視化することによって、より健康的な食品選択を促すための介入の一部として利用することができる。
関連論文リスト
- StyleGANEX: StyleGAN-Based Manipulation Beyond Cropped Aligned Faces [103.54337984566877]
拡張畳み込みを用いて、モデルパラメータを変更することなく、StyleGANの浅い層の受容場を再スケールする。
これにより、浅い層における固定サイズの小さなフィーチャを、可変解像度に対応できるより大きなものへと拡張することができる。
本手法は,多様な顔操作タスクにおいて,様々な解像度の顔入力を用いて検証する。
論文 参考訳(メタデータ) (2023-03-10T18:59:33Z) - End-to-end Face-swapping via Adaptive Latent Representation Learning [12.364688530047786]
本稿では,高精細・高精細・高精細・高精細・高精細な顔交換のための新しいエンドツーエンド統合フレームワークを提案する。
顔の知覚とブレンドをエンドツーエンドのトレーニングとテストのプロセスに統合することで、野生の顔に高いリアルな顔スワッピングを実現することができる。
論文 参考訳(メタデータ) (2023-03-07T19:16:20Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - FaceFormer: Scale-aware Blind Face Restoration with Transformers [18.514630131883536]
そこで我々は,顔の特徴回復をスケール・アウェア・トランスフォーメーションとして定式化する,FaceFormerという新しい顔修復フレームワークを提案する。
提案手法は, 合成データセットを用いて, 現在の最先端画像よりも, 自然な低品質画像を一般化する。
論文 参考訳(メタデータ) (2022-07-20T10:08:34Z) - MOST-GAN: 3D Morphable StyleGAN for Disentangled Face Image Manipulation [69.35523133292389]
本稿では,顔の物理的属性を明示的にモデル化するフレームワークを提案する。
提案手法であるMOST-GANは,GANの表現力と光リアリズムを,非線形3次元形態素モデルの物理的ゆがみおよび柔軟性と統合する。
ポートレート画像の物理的特性を完全に3D制御する写真リアルな操作を実現し、照明の極端な操作、表情、およびフルプロファイルビューまでのポーズのバリエーションを可能にする。
論文 参考訳(メタデータ) (2021-11-01T15:53:36Z) - High Resolution Face Editing with Masked GAN Latent Code Optimization [0.0]
顔の編集はコンピュータビジョンコミュニティで人気のある研究トピックである。
最近の提案手法は、条件付きエンコーダデコーダであるGAN(Generative Adversarial Network)をエンドツーエンドでトレーニングするか、事前に訓練されたバニラGANジェネレータモデルの潜時空間での動作を定義するかのいずれかである。
空間的および意味的制約を伴ったGAN組み込み最適化手順を提案する。
論文 参考訳(メタデータ) (2021-03-20T08:39:41Z) - Only a Matter of Style: Age Transformation Using a Style-Based
Regression Model [46.48263482909809]
本稿では,事前学習した未条件GANの潜在空間に実際の顔画像をエンコードする画像から画像への変換手法を提案する。
所望の年齢に対応する潜時符号を生成する際に,エンコーダを明示的に案内するために,事前学習した年齢回帰ネットワークを用いる。
論文 参考訳(メタデータ) (2021-02-04T17:33:28Z) - S2FGAN: Semantically Aware Interactive Sketch-to-Face Translation [11.724779328025589]
本稿では,S2FGANと呼ばれるスケッチ・ツー・イメージ生成フレームワークを提案する。
我々は2つの潜在空間を用いて顔の外観を制御し、生成した顔の所望の属性を調整する。
提案手法は,属性強度の制御性を高めることで,属性操作における最先端の手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-11-30T13:42:39Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。