論文の概要: Weakly Supervised High-Fidelity Clothing Model Generation
- arxiv url: http://arxiv.org/abs/2112.07200v1
- Date: Tue, 14 Dec 2021 07:15:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 02:24:29.707366
- Title: Weakly Supervised High-Fidelity Clothing Model Generation
- Title(参考訳): 弱教師付き高忠実性衣服モデル生成
- Authors: Ruili Feng, Cheng Ma, Chengji Shen, Xin Gao, Zhenjiang Liu, Xiaobo Li,
Kairi Ou and Zhengjun Zha
- Abstract要約: 本稿では,このシナリオに対応するために,DGP (Deep Generative Projection) と呼ばれる安価でスケーラブルな弱教師付き手法を提案する。
衣服と身体の粗いアライメントをStyleGAN空間に投影することで、フォトリアリスティックな着用結果が得られることを示す。
- 参考スコア(独自算出の注目度): 67.32235668920192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of online economics arouses the demand of generating images
of models on product clothes, to display new clothes and promote sales.
However, the expensive proprietary model images challenge the existing image
virtual try-on methods in this scenario, as most of them need to be trained on
considerable amounts of model images accompanied with paired clothes images. In
this paper, we propose a cheap yet scalable weakly-supervised method called
Deep Generative Projection (DGP) to address this specific scenario. Lying in
the heart of the proposed method is to imitate the process of human predicting
the wearing effect, which is an unsupervised imagination based on life
experience rather than computation rules learned from supervisions. Here a
pretrained StyleGAN is used to capture the practical experience of wearing.
Experiments show that projecting the rough alignment of clothing and body onto
the StyleGAN space can yield photo-realistic wearing results. Experiments on
real scene proprietary model images demonstrate the superiority of DGP over
several state-of-the-art supervised methods when generating clothing model
images.
- Abstract(参考訳): オンライン・エコノミクスの発展は、商品服のモデル画像の作成、新しい服の表示、販売促進の需要を喚起する。
しかし、高価なプロプライエタリなモデルイメージは、このシナリオでは既存のイメージ仮想トライオンメソッドに挑戦する。
本稿では,この特定のシナリオに対処するために,安価かつスケーラブルな深部生成投影法(dgp)を提案する。
提案手法の核心は、人間の着用効果を予測する過程を模倣することであり、これは、監督者から学んだ計算規則ではなく、生活経験に基づく教師なしの想像力である。
ここでは、トレーニング済みのStyleGANを使用して、着用経験を捉える。
実験により、StyleGAN空間に衣服と身体の粗いアライメントを投影することで、フォトリアリスティックな着用結果が得られることが示された。
リアルシーンのプロプライエタリなモデル画像に対する実験は、衣料品モデル画像を生成する際に、最先端の教師付き手法よりもDGPの方が優れていることを示す。
関連論文リスト
- Try-On-Adapter: A Simple and Flexible Try-On Paradigm [42.2724473500475]
オンラインショッピングで広く使われている画像ベースの仮想試着は、特定の衣服に着飾った自然な服装の人のイメージを作成することを目的としている。
従来の手法では、元のモデルの立像の特定の部分をマスキングし、マスクされた領域に塗布することで、対応する参照服を身に着けたモデルのリアルなイメージを生成する。
本稿では,既存の塗装パラダイムと異なる塗装パラダイムであるトライオンアダプタ(TOA)を提案する。
論文 参考訳(メタデータ) (2024-11-15T13:35:58Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - A Two-stage Personalized Virtual Try-on Framework with Shape Control and
Texture Guidance [7.302929117437442]
本稿では,2段階(形状制御とテクスチャガイダンス)を用いて衣服属性を分離する,新しい仮想試行モデル(PE-VITON)を提案する。
提案モデルでは, 衣服の折り畳みの弱さ, 複雑な姿勢下での創出効果の低下, 衣服のぼやけた縁, 従来の試行法では不明瞭なテクスチャスタイルを効果的に解決することができる。
論文 参考訳(メタデータ) (2023-12-24T13:32:55Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Implementing and Experimenting with Diffusion Models for Text-to-Image
Generation [0.0]
DALL-E 2 と Imagen という2つのモデルでは、画像の単純なテキスト記述から高画質の画像を生成できることが示されている。
テキスト・ツー・イメージのモデルは、トレーニングに必要な膨大な計算リソースと、インターネットから収集された巨大なデータセットを扱う必要がある。
この論文は、これらのモデルが使用するさまざまなアプローチとテクニックをレビューし、それから、テキスト・ツー・イメージ・モデルの独自の実装を提案することで貢献する。
論文 参考訳(メタデータ) (2022-09-22T12:03:33Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。