論文の概要: Single Stage Warped Cloth Learning and Semantic-Contextual Attention
Feature Fusion for Virtual TryOn
- arxiv url: http://arxiv.org/abs/2310.05024v1
- Date: Sun, 8 Oct 2023 06:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 13:26:40.732910
- Title: Single Stage Warped Cloth Learning and Semantic-Contextual Attention
Feature Fusion for Virtual TryOn
- Title(参考訳): 仮想トライオンのためのシングルステージワート衣服学習と意味的・文脈的注意機能融合
- Authors: Sanhita Pathak, Vinay Kaushik and Brejesh Lall
- Abstract要約: 画像ベースの仮想試着は、ホップの衣服を着ている人の画像に合わせることを目的としている。
対象の衣服を人物画像の対応する身体部分と整列させるガーメント・ワープは、この目標を達成するための重要なステップである。
明示的な多段階学習なしに暗黙的に同じことを学習する新しいシングルステージフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.508088032296086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based virtual try-on aims to fit an in-shop garment onto a clothed
person image. Garment warping, which aligns the target garment with the
corresponding body parts in the person image, is a crucial step in achieving
this goal. Existing methods often use multi-stage frameworks to handle clothes
warping, person body synthesis and tryon generation separately or rely on noisy
intermediate parser-based labels. We propose a novel single-stage framework
that implicitly learns the same without explicit multi-stage learning. Our
approach utilizes a novel semantic-contextual fusion attention module for
garment-person feature fusion, enabling efficient and realistic cloth warping
and body synthesis from target pose keypoints. By introducing a lightweight
linear attention framework that attends to garment regions and fuses multiple
sampled flow fields, we also address misalignment and artifacts present in
previous methods. To achieve simultaneous learning of warped garment and try-on
results, we introduce a Warped Cloth Learning Module. WCLM uses segmented
warped garments as ground truth, operating within a single-stage paradigm. Our
proposed approach significantly improves the quality and efficiency of virtual
try-on methods, providing users with a more reliable and realistic virtual
try-on experience. We evaluate our method on the VITON dataset and demonstrate
its state-of-the-art performance in terms of both qualitative and quantitative
metrics.
- Abstract(参考訳): 画像ベースの仮想試着は、ショップの衣服を着ている人の画像に合わせることを目的としている。
対象の衣服を人物画像の対応する身体部分と整列させるガーメント・ワープは、この目標を達成するための重要なステップである。
既存の手法では、服の反り、人体合成、トリオン生成を別々に扱うために多段階のフレームワークを使うことが多い。
明示的な多段階学習なしに暗黙的に同じことを学習する新しいシングルステージフレームワークを提案する。
提案手法は,衣服と人物の特徴融合のための新しい意味的・文脈的融合アテンションモジュールを用い,目的のポーズキーポイントからの効率的かつ現実的な布の反りと身体合成を可能にする。
複数のサンプルフロー場を融合させる軽量な線形アテンションフレームワークを導入することにより,従来手法のミスアライメントやアーティファクトにも対処する。
乱れた衣服と試着結果の同時学習を実現するために,乱れた衣服学習モジュールを導入する。
WCLMは、セグメント化されたワープされた衣服を、単一ステージのパラダイムで運用する真実として使用している。
提案手法は,仮想試行法の品質と効率を大幅に向上させ,より信頼性が高く現実的な仮想試行体験を提供する。
本手法をVITONデータセット上で評価し,質的,定量的両指標の両面から最先端の性能を示す。
関連論文リスト
- Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - PG-VTON: A Novel Image-Based Virtual Try-On Method via Progressive
Inference Paradigm [6.929743379017671]
プログレッシブ推論パラダイム(PGVTON)を用いた新しい仮想試行法を提案する。
形状案内として試着解析を応用し,ワープ・マッピング・コンポジションによる衣服試着を実装した。
実験により,本手法は2つの挑戦シナリオ下での最先端性能を示す。
論文 参考訳(メタデータ) (2023-04-18T12:47:26Z) - OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup [79.3118064406151]
Image Virtual try-onは、個人画像上の布を衣服画像(ホップ内服)に置き換えることを目的としている。
以前の方法では, 衣服のイメージの保存に成功していた。
隠蔽は、現実的なバーチャル試行に悪影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-03T06:29:11Z) - Single Stage Virtual Try-on via Deformable Attention Flows [51.70606454288168]
仮想試行は、ショップ内服と基準人物画像が与えられた写真リアルなフィッティング結果を生成することを目的としている。
マルチフロー推定に変形性アテンションスキームを適用した,変形性アテンションフロー(DAFlow)を新たに開発した。
提案手法は,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-07-19T10:01:31Z) - Toward Accurate and Realistic Outfits Visualization with Attention to
Details [10.655149697873716]
商用アプリケーションに必要な重要な視覚的詳細を捉えるために,アウトフィット・ビジュアライゼーション・ネットを提案する。
OVNetは,1)意味的レイアウト生成器と2)複数の協調ワープを用いた画像生成パイプラインから構成される。
この手法を利用した対話型インターフェースは,ファッションeコマースのウェブサイトに展開され,圧倒的に肯定的なフィードバックを受けている。
論文 参考訳(メタデータ) (2021-06-11T19:53:34Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。