論文の概要: Probing TryOnGAN
- arxiv url: http://arxiv.org/abs/2201.01703v1
- Date: Wed, 5 Jan 2022 16:51:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-06 13:50:05.381689
- Title: Probing TryOnGAN
- Title(参考訳): TryOnGANの探索
- Authors: Saurabh Kumar, Nishant Sinha
- Abstract要約: TryOnGANは最近の仮想試行アプローチで、非常にリアルなイメージを生成し、これまでのアプローチよりも優れています。
本稿では、TryOnGANの実装を再現し、トランスファー学習の影響、ポーズ付き条件付き画像生成の変種、潜在空間の特性など様々な角度で探索する。
- 参考スコア(独自算出の注目度): 9.314020311413602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: TryOnGAN is a recent virtual try-on approach, which generates highly
realistic images and outperforms most previous approaches. In this article, we
reproduce the TryOnGAN implementation and probe it along diverse angles: impact
of transfer learning, variants of conditioning image generation with poses and
properties of latent space interpolation. Some of these facets have never been
explored in literature earlier. We find that transfer helps training initially
but gains are lost as models train longer and pose conditioning via
concatenation performs better. The latent space self-disentangles the pose and
the style features and enables style transfer across poses. Our code and models
are available in open source.
- Abstract(参考訳): TryOnGANは最近の仮想試行アプローチで、非常にリアルなイメージを生成し、これまでのアプローチよりも優れています。
本稿では,trionganの実装を再現し,伝達学習の影響,ポーズ付き条件付き画像生成の変種,潜在空間補間の性質など,様々な角度から検証する。
これらの面のいくつかは、以前に文献で研究されたことがない。
移行は最初はトレーニングに役立つが、モデルのトレーニングが長くなり、結合による条件付けが向上するにつれて、利益は失われる。
潜在空間はポーズとスタイルの特徴を自己区別し、ポーズ間のスタイル転送を可能にする。
私たちのコードとモデルはオープンソースで利用可能です。
関連論文リスト
- Overparameterization Improves StyleGAN Inversion [66.8300251627992]
既存の反転アプローチは、有望だが不完全な結果が得られる。
これにより、エンコーダを必要とせずに、ほぼ完璧な画像再構成が得られることを示す。
われわれのアプローチは、画像間の現実的な補間による編集可能性も維持する。
論文 参考訳(メタデータ) (2022-05-12T18:42:43Z) - PCA-Based Knowledge Distillation Towards Lightweight and Content-Style
Balanced Photorealistic Style Transfer Models [26.657485176782934]
私たちの研究は、既存のモデルは大きなサイズのため遅いという観察にインスパイアされています。
我々は,PCAを用いた知識蒸留を導入し,軽量モデルを蒸留し,理論による動機付けを示す。
フォトリアリスティックなスタイル転送のための最初の知識蒸留法である。
論文 参考訳(メタデータ) (2022-03-25T05:23:42Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Learning Semantic Person Image Generation by Region-Adaptive
Normalization [81.52223606284443]
ポーズと外観の翻訳を扱う新しい2段階フレームワークを提案する。
第1段階では,対象意味解析マップを予測し,ポーズ転送の難しさを解消する。
第2段階では,領域適応正規化を組み込んだ新たな人物画像生成手法を提案する。
論文 参考訳(メタデータ) (2021-04-14T06:51:37Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - MUST-GAN: Multi-level Statistics Transfer for Self-driven Person Image
Generation [13.06676286691587]
姿勢誘導型人物画像生成は通常、トレーニングを監督するためにペアのソースターゲット画像を使用する。
本稿では,人物画像から多段階の外観特徴を分離・伝達する,新しい多段階統計伝達モデルを提案する。
提案手法は,人物の外観を柔軟に操作し,ポーズ・トランスファーや衣服スタイル・トランスファー・タスクを行う。
論文 参考訳(メタデータ) (2020-11-18T04:38:48Z) - Human Motion Transfer from Poses in the Wild [61.6016458288803]
人間の動き伝達の問題に対処し、基準映像からの動きを模倣する対象人物のための新しい動き映像を合成する。
推定ポーズを用いて2つのドメインをブリッジするビデオ間翻訳タスクである。
トレーニング中に見つからない線内ポーズシーケンスであっても、時間的に一貫性のある高品質なビデオを生成するための新しいポーズ・ツー・ビデオ翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T05:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。