論文の概要: BridgeDiff: Bridging Human Observations and Flat-Garment Synthesis for Virtual Try-Off
- arxiv url: http://arxiv.org/abs/2603.09236v1
- Date: Tue, 10 Mar 2026 06:12:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.091952
- Title: BridgeDiff: Bridging Human Observations and Flat-Garment Synthesis for Virtual Try-Off
- Title(参考訳): BridgeDiff: 仮想トライオフのための人体観察とフラットゲージ合成
- Authors: Shuang Liu, Ao Yu, Linkang Cheng, Xiwen Huang, Li Zhao, Junhui Liu, Zhiting Lin, Yu Liu,
- Abstract要約: VTOFF(Virtual try-off)は、標準化されたディスプレイと下流の仮想試着のための服装者の画像から標準フラットガーメント表現を復元することを目的としている。
従来の方法では、VTOFFはローカルマスクやテキストのみのプロンプトによって駆動される直接画像変換として扱われ、ボディ上の外観と平らなレイアウトのギャップを見下ろしていた。
我々は,人中心の観察とフラットガーメント合成を明確にブリッジする,拡散に基づくフレームワークであるBridgeDiffを提案する。
- 参考スコア(独自算出の注目度): 8.779291812559373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual try-off (VTOFF) aims to recover canonical flat-garment representations from images of dressed persons for standardized display and downstream virtual try-on. Prior methods often treat VTOFF as direct image translation driven by local masks or text-only prompts, overlooking the gap between on-body appearances and flat layouts. This gap frequently leads to inconsistent completion in unobserved regions and unstable garment structure. We propose BridgeDiff, a diffusion-based framework that explicitly bridges human-centric observations and flat-garment synthesis through two complementary components. First, the Garment Condition Bridge Module (GCBM) builds a garment-cue representation that captures global appearance and semantic identity, enabling robust inference of continuous details under partial visibility. Second, the Flat Structure Constraint Module (FSCM) injects explicit flat-garment structural priors via Flat-Constraint Attention (FC-Attention) at selected denoising stages, improving structural stability beyond text-only conditioning. Extensive experiments on standard VTOFF benchmarks show that BridgeDiff achieves state-of-the-art performance, producing higher-quality flat-garment reconstructions while preserving fine-grained appearance and structural integrity.
- Abstract(参考訳): VTOFF(Virtual try-off)は、標準化されたディスプレイと下流の仮想試着のための服装者の画像から標準フラットガーメント表現を復元することを目的としている。
従来の方法では、VTOFFはローカルマスクやテキストのみのプロンプトによって駆動される直接画像変換として扱われ、ボディ上の外観と平らなレイアウトのギャップを見下ろしていた。
このギャップはしばしば、観測されていない領域と不安定な衣服構造において矛盾する完成をもたらす。
本稿では,2つの相補的成分を介し,人中心の観察とフラットガーメント合成を明確にブリッジする拡散に基づくフレームワークであるBridgeDiffを提案する。
第一に、GCBM(Garment Condition Bridge Module)は、グローバルな外観とセマンティックなアイデンティティをキャプチャーし、部分的な可視性の下で連続的な詳細を堅牢に推測できるようにする。
第2に、Flat Structure Constraint Module (FSCM)は、選択されたdenoisingの段階でFlat-Constraint Attention (FC-Attention)を介して明確なフラットガーメント構造を注入し、テキストのみの条件よりも構造安定性を向上させる。
標準VTOFFベンチマークの大規模な実験により、ブリッジディフは最先端の性能を達成し、高品質なフラットガーメントの再構築を実現し、きめ細かい外観と構造的整合性を維持した。
関連論文リスト
- Unify the Views: View-Consistent Prototype Learning for Few-Shot Segmentation [23.546777614096424]
ショーショットセグメンテーション(FSS)は、限られた監督力を持つ新しいクラスに一般化する能力において大きな注目を集めている。
本稿では、クラス固有のプロトタイプを洗練するための構造的一貫性と識別をモデル化する統合フレームワークであるVINEを導入することにより、これらの課題に対処する。
論文 参考訳(メタデータ) (2026-03-06T06:36:42Z) - OmniVTON++: Training-Free Universal Virtual Try-On with Principal Pose Guidance [85.23143742905695]
画像ベースの仮想トライオン(VTON)は、人間のポーズと身体の制約下での衣服の再レンダリングを通じて、現実的な人物画像の合成を懸念する。
OmniVTON++は、トレーニング不要なVTONフレームワークで、普遍的な適用性のために設計されている。
論文 参考訳(メタデータ) (2026-02-16T08:27:43Z) - OmniVTON: Training-Free Universal Virtual Try-On [53.31945401098557]
イメージベースの仮想トライオン(VTON)技術は、適応性を改善するが、データバイアスと制限された普遍性によって制約される、教師付きインショップアプローチまたは教師なしインザワイルド手法のいずれかに依存している。
OmniVTONは,布地を疎結合にし,テクスチャの忠実さを両立させ,多様な設定に整合性を持たせるための条件付けを行う,初めてのトレーニングフリーユニバーサルVTONフレームワークである。
論文 参考訳(メタデータ) (2025-07-20T16:37:53Z) - DS-VTON: An Enhanced Dual-Scale Coarse-to-Fine Framework for Virtual Try-On [33.05238077456732]
仮想試行のための拡張デュアルスケール粗大化フレームワークDS-VTONを提案する。
DS-VTONは2つの段階から構成される: 第一は、衣服と身体の間の意味的対応を捉えるために、低解像度の試行結果を生成する。
第2段階では、混合精製拡散過程は、スケール間の残留物を精製することによって高分解能出力を再構成する。
論文 参考訳(メタデータ) (2025-06-01T08:52:57Z) - Inverse Virtual Try-On: Generating Multi-Category Product-Style Images from Clothed Individuals [76.96387718150542]
テキスト強化Multi-category Virtual Try-Off(TEMU-VTOFF)を提案する。
私たちのアーキテクチャは、画像、テキスト、マスクなどの複数のモードから衣料情報を受け取り、複数のカテゴリで機能するように設計されています。
VITON-HDおよびDress Codeデータセットの実験では、TEMU-VTOFFがVTOFFタスクに新たな最先端を設定していることが示されている。
論文 参考訳(メタデータ) (2025-05-27T11:47:51Z) - Incorporating Visual Correspondence into Diffusion Model for Virtual Try-On [89.9123806553489]
拡散モデルは仮想試行(VTON)タスクで成功している。
この問題は、拡散モデルの本質性により、与えられた衣服の形状や細部を保存することは依然として困難である。
本稿では,視力の拡散前処理として視覚的対応を明示的に活用することを提案する。
論文 参考訳(メタデータ) (2025-05-22T17:52:13Z) - PASTA-GAN++: A Versatile Framework for High-Resolution Unpaired Virtual
Try-on [70.12285433529998]
PASTA-GAN++は高解像度の仮想試行のための汎用システムである。
教師なしのトレーニング、任意の衣服カテゴリー、制御可能な衣服編集をサポートする。
論文 参考訳(メタデータ) (2022-07-27T11:47:49Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。