論文の概要: Time-Efficient and Identity-Consistent Virtual Try-On Using A Variant of
Altered Diffusion Models
- arxiv url: http://arxiv.org/abs/2403.07371v1
- Date: Tue, 12 Mar 2024 07:15:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 22:31:39.258131
- Title: Time-Efficient and Identity-Consistent Virtual Try-On Using A Variant of
Altered Diffusion Models
- Title(参考訳): 可変拡散モデルを用いた時間効率とアイデンティティ一貫性のある仮想試行
- Authors: Phuong Dam, Jihoon Jeong, Anh Tran, Daeyoung Kim
- Abstract要約: 本研究は, 多様なシナリオにおいて, 複雑なテクスチャの詳細と, 対象者と衣服の特徴的な特徴を保存することの課題を強調した。
様々な既存アプローチが検討され、制限と未解決の側面を強調している。
次に,仮想試行中にテクスチャのテクスチャ保存とユーザアイデンティティ保持に対処する,新しい拡散型ソリューションを提案する。
- 参考スコア(独自算出の注目度): 4.411764032095043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study discusses the critical issues of Virtual Try-On in contemporary
e-commerce and the prospective metaverse, emphasizing the challenges of
preserving intricate texture details and distinctive features of the target
person and the clothes in various scenarios, such as clothing texture and
identity characteristics like tattoos or accessories. In addition to the
fidelity of the synthesized images, the efficiency of the synthesis process
presents a significant hurdle. Various existing approaches are explored,
highlighting the limitations and unresolved aspects, e.g., identity information
omission, uncontrollable artifacts, and low synthesis speed. It then proposes a
novel diffusion-based solution that addresses garment texture preservation and
user identity retention during virtual try-on. The proposed network comprises
two primary modules - a warping module aligning clothing with individual
features and a try-on module refining the attire and generating missing parts
integrated with a mask-aware post-processing technique ensuring the integrity
of the individual's identity. It demonstrates impressive results, surpassing
the state-of-the-art in speed by nearly 20 times during inference, with
superior fidelity in qualitative assessments. Quantitative evaluations confirm
comparable performance with the recent SOTA method on the VITON-HD and
Dresscode datasets.
- Abstract(参考訳): 本研究は,現代電子商取引における仮想試着の課題と今後のメタバースについて論じ,衣服のテクスチャやタトゥーやアクセサリーなどのアイデンティティ特性といった様々なシナリオにおいて,対象者と衣服の複雑なテクスチャの詳細と特徴を維持することの課題を強調する。
合成された画像の忠実さに加えて、合成プロセスの効率は重要なハードルとなる。
既存の様々なアプローチが検討され、例えばアイデンティティ情報の欠落、制御不能なアーティファクト、低合成速度など、制限と未解決の側面を強調している。
次に,仮想トライオン中に着衣のテクスチャ保持とユーザアイデンティティ保持を扱う新しい拡散ベースソリューションを提案する。
提案するネットワークは2つのプライマリモジュールから成り、衣服に個々の特徴を整列させるワーピングモジュールと、服装を洗練し、個々人のアイデンティティの完全性を保証するマスク認識後処理技術に統合された欠落部分を生成するトライオンモジュールである。
これは、予測中の最先端の速度を20倍近く上回り、質的な評価において優れた忠実さを示す。
定量的評価により、VITON-HDおよびDresscodeデータセットにおける最近のSOTA法と同等の性能が確認された。
関連論文リスト
- Hierarchical Cross-Attention Network for Virtual Try-On [59.50297858307268]
我々は,仮想試行課題に対する革新的な解決策を提示する:我々の小説HCANet(Hierarchical Cross-Attention Network)
HCANetは、幾何学的マッチングと試行という2つの主要なステージで作られており、それぞれが現実的な仮想試行の結果を提供する上で重要な役割を果たす。
HCANetの重要な特徴は、新しい階層的クロスアテンション(HCA)ブロックを両方のステージに組み込むことで、個人と衣服のモダリティ間の長距離相関を効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-11-23T12:39:58Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - Identity-aware Dual-constraint Network for Cloth-Changing Person Re-identification [13.709863134725335]
CC-ReID(CC-Changing Person Re-Identification)は、歩行者が着替えを行うより現実的な監視シナリオにおいて、対象者を正確に識別することを目的としている。
大きな進歩にもかかわらず、既存のCC-ReIDデータセットの限られた布質変化トレーニングサンプルは、モデルが布質非関連の特徴を適切に学習することを妨げている。
本稿では,CC-ReIDタスクのためのID-Aware Dual-Constraint Network (IDNet)を提案する。
論文 参考訳(メタデータ) (2024-03-13T05:46:36Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Personalized Face Inpainting with Diffusion Models by Parallel Visual
Attention [55.33017432880408]
本稿では,パラレル視覚注意(PVA, Parallel Visual Attention, PVA)と拡散モデルとの併用による塗装結果の改善を提案する。
我々はCelebAHQ-IDIで注目モジュールとIDエンコーダをトレーニングする。
実験により, PVAは顔の塗り絵と顔の塗り絵の両面において, 言語指導タスクと相容れない同一性を持つことが示された。
論文 参考訳(メタデータ) (2023-12-06T15:39:03Z) - C-VTON: Context-Driven Image-Based Virtual Try-On Network [1.0832844764942349]
本稿では,選択した衣服を対象者に確実に転送するコンテキスト駆動型仮想トライオンネットワーク(C-VTON)を提案する。
C-VTONパイプラインのコアには、(i)入力画像中の人物のポーズに目的の衣服を効率よく整列する幾何マッチング手順と、(ii)最終試行結果に様々な種類の文脈情報を利用する強力な画像生成装置とがある。
論文 参考訳(メタデータ) (2022-12-08T17:56:34Z) - ZFlow: Gated Appearance Flow-based Virtual Try-on with 3D Priors [13.977100716044104]
画像ベースの仮想トライオンでは、特定の衣服を着たモデルの説得力のあるイメージを合成する。
近年の方法は2段階のプロセスを含む:i) モデル ii に合わせるために衣服を変形させる。
モデルや衣服に関する幾何学的な情報の欠如は、しばしば細かい細部を不適切にレンダリングする。
我々は、これらの懸念を軽減するために、エンドツーエンドのフレームワークであるZFlowを提案する。
論文 参考訳(メタデータ) (2021-09-14T22:41:14Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。