論文の概要: PFDM: Parser-Free Virtual Try-on via Diffusion Model
- arxiv url: http://arxiv.org/abs/2402.03047v1
- Date: Mon, 5 Feb 2024 14:32:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 15:44:50.987168
- Title: PFDM: Parser-Free Virtual Try-on via Diffusion Model
- Title(参考訳): PFDM:拡散モデルによるパーサフリー仮想試行
- Authors: Yunfang Niu, Dong Yi, Lingxiang Wu, Zhiwei Liu, Pengxiang Cai, Jinqiao
Wang
- Abstract要約: 拡散モデル(PFDM)に基づく自由仮想試行法を提案する。
2つの画像が与えられた場合、PFDMは、他の情報なしで暗黙的にワープすることで、標的人物の衣服をシームレスに「着る」ことができる。
実験により,提案したPFDMは複雑な画像の処理に成功し,最先端の最先端モデルと高忠実度モデルの両方より優れていることが示された。
- 参考スコア(独自算出の注目度): 28.202996582963184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual try-on can significantly improve the garment shopping experiences in
both online and in-store scenarios, attracting broad interest in computer
vision. However, to achieve high-fidelity try-on performance, most
state-of-the-art methods still rely on accurate segmentation masks, which are
often produced by near-perfect parsers or manual labeling. To overcome the
bottleneck, we propose a parser-free virtual try-on method based on the
diffusion model (PFDM). Given two images, PFDM can "wear" garments on the
target person seamlessly by implicitly warping without any other information.
To learn the model effectively, we synthesize many pseudo-images and construct
sample pairs by wearing various garments on persons. Supervised by the
large-scale expanded dataset, we fuse the person and garment features using a
proposed Garment Fusion Attention (GFA) mechanism. Experiments demonstrate that
our proposed PFDM can successfully handle complex cases, synthesize
high-fidelity images, and outperform both state-of-the-art parser-free and
parser-based models.
- Abstract(参考訳): 仮想試着は、オンラインと店内の両方のシナリオにおける衣料品購入体験を大幅に改善し、コンピュータビジョンへの幅広い関心を惹きつける。
しかし、高忠実な試行性能を達成するために、ほとんどの最先端の手法は正確なセグメンテーションマスクに頼っている。
このボトルネックを克服するために,拡散モデル(PFDM)に基づくパーサフリー仮想試行法を提案する。
2つの画像が与えられた場合、PFDMは他の情報なしに暗黙的にワープすることで、標的人物の衣服をシームレスに「着る」ことができる。
モデルを効果的に学習するために,多数の擬似イメージを合成し,様々な衣服を身に着けてサンプルペアを構築する。
大規模拡張データセットによって監視され、提案する衣服融合注意(gfa)機構を用いて人物と衣服の特徴を融合する。
実験により,提案したPFDMは複雑なケースをうまく処理し,高忠実度画像を合成し,最先端のパーザフリーモデルとパーサベースモデルの両方より優れていることが示された。
関連論文リスト
- Improving Virtual Try-On with Garment-focused Diffusion Models [91.95830983115474]
拡散モデルは多くの画像合成タスクにおける生成的モデリングの革新をもたらした。
私たちは新しい拡散モデル、すなわちGarDiffを作り、衣服中心の拡散プロセスを引き起こします。
VITON-HDおよびDressCodeデータセットの実験は、最先端のVTONアプローチと比較して、GarDiffの優位性を示している。
論文 参考訳(メタデータ) (2024-09-12T17:55:11Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On [29.217423805933727]
拡散モデルに基づくアプローチは,画像合成タスクに優れており,近年普及している。
本稿では,仮想試行のためのテクスチャ保存拡散(TPD)モデルを提案する。
第2に,被写体と参照衣料画像に基づいて,正確な塗布マスクを推定する拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:43:22Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - OOTDiffusion: Outfitting Fusion based Latent Diffusion for Controllable
Virtual Try-on [7.46772222515689]
OOTDiffusionは、リアルで制御可能なイメージベースの仮想トライオンのための新しいネットワークアーキテクチャである。
我々は、事前訓練された潜伏拡散モデルのパワーを活用し、UNetを設計して、衣服の詳細特徴を学習する。
VITON-HDおよびDress Codeデータセットに関する実験により、OOTDiffusionが効率よく高品質な試行結果を生成することを示した。
論文 参考訳(メタデータ) (2024-03-04T07:17:44Z) - Single Stage Warped Cloth Learning and Semantic-Contextual Attention Feature Fusion for Virtual TryOn [5.790630195329777]
画像ベースの仮想試着は、ホップの衣服を着ている人の画像に合わせることを目的としている。
対象の衣服を人物画像の対応する身体部分と整列させるガーメント・ワープは、この目標を達成するための重要なステップである。
明示的な多段階学習なしに暗黙的に同じことを学習する新しいシングルステージフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-08T06:05:01Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - RMGN: A Regional Mask Guided Network for Parser-free Virtual Try-on [23.198926150193472]
VTONは、eコマースで広く採用されている人物画像の参照に対象の衣服を合わせることを目的としている。
既存のVTONアプローチは狭義に分類できる。
-PBおよびPB。
-フリー(PF)
地域マスクガイドネットワーク(RMGN)という新しいPF手法を提案する。
論文 参考訳(メタデータ) (2022-04-24T12:30:13Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。