論文の概要: PI-GAN: Learning Pose Independent representations for multiple profile
face synthesis
- arxiv url: http://arxiv.org/abs/2001.00645v1
- Date: Thu, 26 Dec 2019 02:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-10 07:52:58.387099
- Title: PI-GAN: Learning Pose Independent representations for multiple profile
face synthesis
- Title(参考訳): PI-GAN:多面顔合成のためのポーズ独立表現学習
- Authors: Hamed Alqahtani
- Abstract要約: GAN(Generative Adversarial Network)は、現実的な顔合成のために識別器ネットワークに組み込まれたポーズ非依存表現を学習する能力を有するエンコーダ・デコーダ構造を持つ。
本稿では,この問題を解決するために,サイクリック共有エンコーダデコーダフレームワークであるPIGANを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating a pose-invariant representation capable of synthesizing multiple
face pose views from a single pose is still a difficult problem. The solution
is demanded in various areas like multimedia security, computer vision,
robotics, etc. Generative adversarial networks (GANs) have encoder-decoder
structures possessing the capability to learn pose-independent representation
incorporated with discriminator network for realistic face synthesis. We
present PIGAN, a cyclic shared encoder-decoder framework, in an attempt to
solve the problem. As compared to traditional GAN, it consists of secondary
encoder-decoder framework sharing weights from the primary structure and
reconstructs the face with the original pose. The primary framework focuses on
creating disentangle representation, and secondary framework aims to restore
the original face. We use CFP high-resolution, realistic dataset to check the
performance.
- Abstract(参考訳): 複数の顔のポーズビューを単一のポーズから合成できるポーズ不変表現の生成は依然として難しい問題である。
このソリューションは、マルチメディアセキュリティ、コンピュータビジョン、ロボティクスなど、さまざまな分野で要求される。
GAN(Generative Adversarial Network)は、現実的な顔合成のために識別器ネットワークに組み込まれたポーズ非依存表現を学習する能力を有するエンコーダ・デコーダ構造を持つ。
本稿では,この問題を解決するために,循環型共有エンコーダ・デコーダフレームワーク pigan を提案する。
従来のGANと比較して、プライマリ構造から重みを共有し、元のポーズで顔を再構築する二次エンコーダ・デコーダフレームワークで構成されている。
主要なフレームワークは、アンタングル表現の作成に焦点を当てており、セカンダリフレームワークは、元の顔の復元を目指している。
CFPの高解像度でリアルなデータセットを使用して、パフォーマンスをチェックします。
関連論文リスト
- Disentangled Representation Learning for Controllable Person Image
Generation [29.719070087384512]
本稿ではDRL-CPGという新しいフレームワークを提案する。
我々の知る限り、私たちは人物画像生成のためのトランスフォーマーによる非絡み合いの潜在表現を初めて学習する。
論文 参考訳(メタデータ) (2023-12-10T07:15:58Z) - VINECS: Video-based Neural Character Skinning [82.39776643541383]
ポーズ依存のスキン重みを持つ完全リップ文字を作成するための完全自動アプローチを提案する。
提案手法は高密度4Dスキャンに頼らず,最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T08:35:53Z) - RUST: Latent Neural Scene Representations from Unposed Imagery [21.433079925439234]
2次元観察から3次元シーンの構造を推定することは、コンピュータビジョンにおける根本的な課題である。
ニューラルシーン表現に基づく最近の普及したアプローチは、非常に大きな影響を与えている。
RUST(Really Unposed Scene representation Transformer)は、RGB画像だけで訓練された新しいビューに対するポーズレスアプローチである。
論文 参考訳(メタデータ) (2022-11-25T18:59:10Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - Biphasic Face Photo-Sketch Synthesis via Semantic-Driven Generative
Adversarial Network with Graph Representation Learning [40.544844623958426]
本稿では,これらの問題に対処するためのセマンティック・ドリブン・ジェネレーティブ・アドバイザリ・ネットワークを提案する。
人間の顔が異なる空間構造を持つことを考慮し、まず、生成元にクラスワイドなセマンティックレイアウトを注入する。
IntrA-class Semantic Graph (IASG) とInteR-class Structure Graph (IRSG) という2種類の表現グラフを構築した。
論文 参考訳(メタデータ) (2022-01-05T13:14:14Z) - Hierarchical Neural Implicit Pose Network for Animation and Motion
Retargeting [66.69067601079706]
HIPNetは、複数のポーズで訓練された暗黙のポーズネットワークである。
階層的な骨格に基づく表現を用いて、正準非正則空間上の符号付き距離関数を学習する。
種々の単目的および多目的のベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-12-02T03:25:46Z) - SuperFront: From Low-resolution to High-resolution Frontal Face
Synthesis [65.35922024067551]
本稿では,前頭前頭部を保存した高品質なアイデンティティを生成できるGANモデルを提案する。
具体的には,高分解能(HR)面を1対多のLR面から様々なポーズで合成するSuperFront-GANを提案する。
超高解像度のサイドビューモジュールをSF-GANに統合し、人事空間におけるアイデンティティ情報とサイドビューの詳細を保存します。
論文 参考訳(メタデータ) (2020-12-07T23:30:28Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z) - Realistic Face Reenactment via Self-Supervised Disentangling of Identity
and Pose [23.211318473026243]
本研究では,大量の未収録映像を自然に再現する自己教師型ハイブリッドモデル(DAE-GAN)を提案する。
提案手法は,2つのデフォーミングオートエンコーダと条件生成の最新の進歩を組み合わせたものである。
実験の結果,再現された画像の良好な品質と,同一性間での顔の動きの伝達の柔軟性が示された。
論文 参考訳(メタデータ) (2020-03-29T06:45:17Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。