論文の概要: One Model For All: Partial Diffusion for Unified Try-On and Try-Off in Any Pose
- arxiv url: http://arxiv.org/abs/2508.04559v1
- Date: Wed, 06 Aug 2025 15:46:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.794796
- Title: One Model For All: Partial Diffusion for Unified Try-On and Try-Off in Any Pose
- Title(参考訳): 一つのモデル: 統一されたトライオンとトライオフのための部分拡散
- Authors: Jinxi Liu, Zijian He, Guangrun Wang, Guanbin Li, Liang Lin,
- Abstract要約: textbfOMFA (emphOne Model For All) は仮想トライオンとトライオフの両方のための統合拡散フレームワークである。
フレームワークは完全にマスクフリーで、単一のポートレートとターゲットのポーズのみを入力として必要とします。
試着タスクと試着タスクの両方で最先端の結果が得られ、仮想衣料合成のための実用的で一般化可能なソリューションを提供する。
- 参考スコア(独自算出の注目度): 99.056324701764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent diffusion-based approaches have made significant advances in image-based virtual try-on, enabling more realistic and end-to-end garment synthesis. However, most existing methods remain constrained by their reliance on exhibition garments and segmentation masks, as well as their limited ability to handle flexible pose variations. These limitations reduce their practicality in real-world scenarios-for instance, users cannot easily transfer garments worn by one person onto another, and the generated try-on results are typically restricted to the same pose as the reference image. In this paper, we introduce \textbf{OMFA} (\emph{One Model For All}), a unified diffusion framework for both virtual try-on and try-off that operates without the need for exhibition garments and supports arbitrary poses. For example, OMFA enables removing garments from a source person (try-off) and transferring them onto a target person (try-on), while also allowing the generated target to appear in novel poses-even without access to multi-pose images of that person. OMFA is built upon a novel \emph{partial diffusion} strategy that selectively applies noise and denoising to individual components of the joint input-such as the garment, the person image, or the face-enabling dynamic subtask control and efficient bidirectional garment-person transformation. The framework is entirely mask-free and requires only a single portrait and a target pose as input, making it well-suited for real-world applications. Additionally, by leveraging SMPL-X-based pose conditioning, OMFA supports multi-view and arbitrary-pose try-on from just one image. Extensive experiments demonstrate that OMFA achieves state-of-the-art results on both try-on and try-off tasks, providing a practical and generalizable solution for virtual garment synthesis. The project page is here: https://onemodelforall.github.io/.
- Abstract(参考訳): 近年の拡散に基づくアプローチは、画像ベースの仮想試着において大きな進歩を遂げ、より現実的でエンドツーエンドの衣服合成を可能にしている。
しかし、既存のほとんどの手法は、展示服やセグメンテーションマスクへの依存、フレキシブルなポーズのバリエーションを扱う能力の制限によって制約されているままである。
これらの制限により、現実のシナリオにおける実用性が低下する – 例えば、ある人が着ている服を別のものに簡単に転送することはできず、生成された試着結果は通常、参照画像と同じポーズに制限される。
本稿では,仮想試行と試行の両方のための統合拡散フレームワークである \textbf{OMFA} (\emph{One Model For All}) を紹介する。
例えば、OMFAは、ソース人(トライオフ)から衣服を取り除き、ターゲット人(トライオン)に転送し、生成したターゲットを、その人物のマルチプレース画像にアクセスすることなく、斬新なポーズでも表示できるようにする。
OMFAは, 着衣, 人物像, 動的サブタスク制御などの関節入力の個々の成分に対して, ノイズを選択的に適用し, 雑音を除去し, 効果的な双方向の衣服・人体変換を行う, 新規な 'emph{partial diffusion} 戦略に基づいて構築されている。
フレームワークは完全にマスクフリーで、単一のポートレートとターゲットのポーズのみを入力として必要としており、現実世界のアプリケーションに適している。
さらに、SMPL-Xベースのポーズコンディショニングを活用することで、OMFAは単一のイメージからマルチビューと任意の目的試行をサポートする。
大規模な実験により、OMFAは試行錯誤と試行錯誤の両方で最先端の結果が得られ、仮想衣料合成のための実用的で一般化可能なソリューションを提供する。
プロジェクトページはこちら。
関連論文リスト
- OmniVTON: Training-Free Universal Virtual Try-On [53.31945401098557]
イメージベースの仮想トライオン(VTON)技術は、適応性を改善するが、データバイアスと制限された普遍性によって制約される、教師付きインショップアプローチまたは教師なしインザワイルド手法のいずれかに依存している。
OmniVTONは,布地を疎結合にし,テクスチャの忠実さを両立させ,多様な設定に整合性を持たせるための条件付けを行う,初めてのトレーニングフリーユニバーサルVTONフレームワークである。
論文 参考訳(メタデータ) (2025-07-20T16:37:53Z) - MF-VITON: High-Fidelity Mask-Free Virtual Try-On with Minimal Input [69.33864837012202]
本研究では,一人のイメージとターゲット衣服のみを用いて,現実的なVITONを実現するMask-Free VITONフレームワークを提案する。
既存のMaskベースのVITONモデルを利用して高品質なデータセットを合成する。
このデータセットには、多様で現実的な人物画像とそれに対応する衣服が含まれており、背景も様々で、現実世界のシナリオを模倣している。
論文 参考訳(メタデータ) (2025-03-11T17:40:59Z) - Any2AnyTryon: Leveraging Adaptive Position Embeddings for Versatile Virtual Clothing Tasks [31.461116368933165]
画像ベースの仮想試行(VTON)は、入力された衣服を対象者の画像に転送することで仮想試行結果を生成することを目的としている。
組合わせ型衣料品データの不足は,VTONの高一般化と品質を実現する既存手法を困難にしている。
そこで,AnyTryonを提案する。AnyTryonは,異なるテキスト命令とモデル衣料品画像に基づいて試着結果を生成することができる。
論文 参考訳(メタデータ) (2025-01-27T09:33:23Z) - Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On [29.217423805933727]
拡散モデルに基づくアプローチは,画像合成タスクに優れており,近年普及している。
本稿では,仮想試行のためのテクスチャ保存拡散(TPD)モデルを提案する。
第2に,被写体と参照衣料画像に基づいて,正確な塗布マスクを推定する拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:43:22Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - PFDM: Parser-Free Virtual Try-on via Diffusion Model [28.202996582963184]
拡散モデル(PFDM)に基づく自由仮想試行法を提案する。
2つの画像が与えられた場合、PFDMは、他の情報なしで暗黙的にワープすることで、標的人物の衣服をシームレスに「着る」ことができる。
実験により,提案したPFDMは複雑な画像の処理に成功し,最先端の最先端モデルと高忠実度モデルの両方より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-05T14:32:57Z) - Single Stage Warped Cloth Learning and Semantic-Contextual Attention Feature Fusion for Virtual TryOn [5.790630195329777]
画像ベースの仮想試着は、ホップの衣服を着ている人の画像に合わせることを目的としている。
対象の衣服を人物画像の対応する身体部分と整列させるガーメント・ワープは、この目標を達成するための重要なステップである。
明示的な多段階学習なしに暗黙的に同じことを学習する新しいシングルステージフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-08T06:05:01Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。