論文の概要: From Keypoints to Realism: A Realistic and Accurate Virtual Try-on Network from 2D Images
- arxiv url: http://arxiv.org/abs/2504.03807v1
- Date: Fri, 04 Apr 2025 10:35:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:11:42.326846
- Title: From Keypoints to Realism: A Realistic and Accurate Virtual Try-on Network from 2D Images
- Title(参考訳): キーポイントからリアリズムへ:2次元画像からのリアルで正確な仮想トライオンネットワーク
- Authors: Maliheh Toozandehjani, Ali Mousavi, Reza Taheri,
- Abstract要約: 画像に基づく仮想試行の目的は、ターゲット服を着用している個人の現実的なイメージを生成することである。
生成装置は、目標衣服の正確な特性を再構築し、視覚的品質の高い最終画像を生成する。
- 参考スコア(独自算出の注目度): 4.2578780373293235
- License:
- Abstract: The aim of image-based virtual try-on is to generate realistic images of individuals wearing target garments, ensuring that the pose, body shape and characteristics of the target garment are accurately preserved. Existing methods often fail to reproduce the fine details of target garments effectively and lack generalizability to new scenarios. In the proposed method, the person's initial garment is completely removed. Subsequently, a precise warping is performed using the predicted keypoints to fully align the target garment with the body structure and pose of the individual. Based on the warped garment, a body segmentation map is more accurately predicted. Then, using an alignment-aware segment normalization, the misaligned areas between the warped garment and the predicted garment region in the segmentation map are removed. Finally, the generator produces the final image with high visual quality, reconstructing the precise characteristics of the target garment, including its overall shape and texture. This approach emphasizes preserving garment characteristics and improving adaptability to various poses, providing better generalization for diverse applications.
- Abstract(参考訳): 画像ベースの仮想試行の目的は、ターゲット服を着用している個人の現実的なイメージを生成し、ターゲット服のポーズ、体形、特性を正確に保存することである。
既存の手法は、しばしばターゲット服の細部を効果的に再現することができず、新しいシナリオへの一般化性に欠ける。
提案手法では,対象者の衣服を完全に取り除く。
その後、予測キーポイントを用いて精密なワープを行い、対象の衣服を身体構造及び個人のポーズと完全に整合させる。
歪んだ衣服に基づいて、ボディセグメンテーションマップをより正確に予測する。
そして、アライメント対応セグメント正規化を用いて、セグメンテーションマップにおいて、歪んだ衣服と予測された衣服領域との間の不整合領域を除去する。
最後に、生成装置は、その全体形状やテクスチャを含むターゲット衣服の正確な特性を再構築し、視覚的品質の高い最終画像を生成する。
このアプローチは衣服の特徴の保存と様々なポーズへの適応性の向上を強調し、多様な用途により良い一般化をもたらす。
関連論文リスト
- AnyDressing: Customizable Multi-Garment Virtual Dressing via Latent Diffusion Models [7.534556848810697]
衣服とパーソナライズされたテキストプロンプトの組み合わせで条件付き文字をカスタマイズする新しいAnyDressing法を提案する。
AnyDressingはGarmentsNetとDressingNetという2つの主要なネットワークで構成されており、それぞれが詳細な衣料品の特徴を抽出することを目的としている。
衣服のきめ細かいテクスチャの詳細を改善するため,ガーメント強化テクスチャ学習戦略を導入する。
論文 参考訳(メタデータ) (2024-12-05T13:16:47Z) - FitDiT: Advancing the Authentic Garment Details for High-fidelity Virtual Try-on [73.13242624924814]
Diffusion Transformer (DiT) を用いた高忠実度仮想試行用ガーメント知覚増強技術FitDiT
布地テクスチャ抽出装置を導入し, 布地や模様, テクスチャなどのリッチな細部を, よりよく捉えられるようにした。
また,クロスカテゴリー試着中にマスク領域全体を埋める衣服の発生を防止し,衣料の正しい長さに適応する拡張緩和マスク戦略を採用した。
論文 参考訳(メタデータ) (2024-11-15T11:02:23Z) - Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - Style-Based Global Appearance Flow for Virtual Try-On [119.95115739956661]
本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-04-03T10:58:04Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - SPG-VTON: Semantic Prediction Guidance for Multi-pose Virtual Try-on [27.870740623131816]
イメージベースの仮想試着は、多様な人間のポーズの下で、ターゲットのインショップ服を基準人物に適合させることが難しい。
エンドツーエンドのセマンティック予測誘導多目的仮想トライオンネットワーク(SPG-VTON)を提案する。
提案手法を,最大規模の多目的データセット(MPV)とDeepFashionデータセットで評価する。
論文 参考訳(メタデータ) (2021-08-03T15:40:50Z) - Learning Semantic Person Image Generation by Region-Adaptive
Normalization [81.52223606284443]
ポーズと外観の翻訳を扱う新しい2段階フレームワークを提案する。
第1段階では,対象意味解析マップを予測し,ポーズ転送の難しさを解消する。
第2段階では,領域適応正規化を組み込んだ新たな人物画像生成手法を提案する。
論文 参考訳(メタデータ) (2021-04-14T06:51:37Z) - VOGUE: Try-On by StyleGAN Interpolation Optimization [14.327659393182204]
対象者の画像と衣服を身に着けている人の画像から、対象の衣服を自動的に生成する。
提案手法の核心はポーズ条件付きstylegan2潜在空間であり,各画像からの関心領域をシームレスに結合する。
このアルゴリズムにより, 衣服は所定の形状に応じて変形し, パターンや素材の詳細を保存できる。
論文 参考訳(メタデータ) (2021-01-06T22:01:46Z) - Towards Photo-Realistic Virtual Try-On by Adaptively
Generating$\leftrightarrow$Preserving Image Content [85.24260811659094]
本稿では,適応コンテンツ生成・保存ネットワーク(ACGPN)という新しいビジュアル・トライオン・ネットワークを提案する。
ACGPNはまず、試行錯誤後に変更される参照画像のセマンティックレイアウトを予測する。
第二に、服のワープモジュールは、生成されたセマンティックレイアウトに従って衣服の画像をワープする。
第3に、コンテンツ融合のための塗装モジュールは、すべての情報(例えば、参照画像、セマンティックレイアウト、歪んだ衣服)を統合して、人間の身体の各意味部分を適応的に生成する。
論文 参考訳(メタデータ) (2020-03-12T15:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。