論文の概要: Training-free Clothing Region of Interest Self-correction for Virtual Try-On
- arxiv url: http://arxiv.org/abs/2512.07126v1
- Date: Mon, 08 Dec 2025 03:22:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.692353
- Title: Training-free Clothing Region of Interest Self-correction for Virtual Try-On
- Title(参考訳): 仮想試着のための興味ある自己補正のトレーニング不要な衣服領域
- Authors: Shengjie Lu, Zhibin Wan, Jiejie Liu, Quan Zhang, Mingjie Sun,
- Abstract要約: VTON(Virtual Try-ON)は、対象の衣服を特定の人に合成することを目的としている。
本稿では,エネルギー関数を用いて,生成プロセスから抽出した注目マップに制約を加えることを提案する。
- 参考スコア(独自算出の注目度): 19.95435557817571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: VTON (Virtual Try-ON) aims at synthesizing the target clothing on a certain person, preserving the details of the target clothing while keeping the rest of the person unchanged. Existing methods suffer from the discrepancies between the generated clothing results and the target ones, in terms of the patterns, textures and boundaries. Therefore, we propose to use an energy function to impose constraints on the attention map extracted through the generation process. Thus, at each generation step, the attention can be more focused on the clothing region of interest, thereby influencing the generation results to be more consistent with the target clothing details. Furthermore, to address the limitation that existing evaluation metrics concentrate solely on image realism and overlook the alignment with target elements, we design a new metric, Virtual Try-on Inception Distance (VTID), to bridge this gap and ensure a more comprehensive assessment. On the VITON-HD and DressCode datasets, our approach has outperformed the previous state-of-the-art (SOTA) methods by 1.4%, 2.3%, 12.3%, and 5.8% in the traditional metrics of LPIPS, FID, KID, and the new VTID metrics, respectively. Additionally, by applying the generated data to downstream Clothing-Change Re-identification (CC-Reid) methods, we have achieved performance improvements of 2.5%, 1.1%, and 1.6% on the LTCC, PRCC, VC-Clothes datasets in the metrics of Rank-1. The code of our method is public at https://github.com/MrWhiteSmall/CSC-VTON.git.
- Abstract(参考訳): VTON(Virtual Try-ON)は、対象の衣服を特定の人に合成することを目的としており、対象の衣服の詳細を保存しつつ、残りの衣服をそのままにしておくことを目的としている。
既存の手法は、パターン、テクスチャ、バウンダリの観点から、生成した服と対象服との相違に悩まされている。
そこで本稿では,エネルギー関数を用いて,生成プロセスから抽出した注目マップに制約を加えることを提案する。
これにより、各生成ステップにおいて、関心のある衣服領域に注意を集中させることができるので、生成結果に対象の衣服詳細とより整合性を持たせることができる。
さらに,既存の評価指標がイメージリアリズムにのみ依存する限界に対処し,対象要素との整合性を見極めるために,このギャップを埋め,より包括的な評価を確保するために,新たな指標である仮想試行概念距離(VTID)を設計する。
VITON-HDとDressCodeのデータセットでは、従来のLPIPS、FID、KID、新しいVTIDメトリクスのメトリクスの1.4%、2.3%、12.3%、および5.8%で、従来のSOTA(State-of-the-art)メソッドを上回っています。
さらに、生成されたデータを下流のCloting-Change Re-identification(CC-Reid)メソッドに適用することにより、Rand-1のメトリクスにおけるLTCC、PRCC、VC-Clothesデータセットのパフォーマンスが2.5%、1.1%、および1.6%向上した。
私たちのメソッドのコードはhttps://github.com/MrWhiteSmall/CSC-VTON.git.comで公開されています。
関連論文リスト
- DLCR: A Generative Data Expansion Framework via Diffusion for Clothes-Changing Person Re-ID [69.70281727931048]
本稿では,多様な服装の個人画像を生成するための新しいデータ拡張フレームワークを提案する。
5つのベンチマークCC-ReIDデータセットの追加データを生成し、衣服の多様性を10倍に向上する。
この膨大なデータの増加により、進歩的学習とテスト時間予測の洗練という、2つの新しい戦略を導入する。
論文 参考訳(メタデータ) (2024-11-11T18:28:33Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - Identity-aware Dual-constraint Network for Cloth-Changing Person Re-identification [13.709863134725335]
CC-ReID(CC-Changing Person Re-Identification)は、歩行者が着替えを行うより現実的な監視シナリオにおいて、対象者を正確に識別することを目的としている。
大きな進歩にもかかわらず、既存のCC-ReIDデータセットの限られた布質変化トレーニングサンプルは、モデルが布質非関連の特徴を適切に学習することを妨げている。
本稿では,CC-ReIDタスクのためのID-Aware Dual-Constraint Network (IDNet)を提案する。
論文 参考訳(メタデータ) (2024-03-13T05:46:36Z) - Dress-Me-Up: A Dataset & Method for Self-Supervised 3D Garment
Retargeting [28.892029042436626]
任意の形状とポーズの3次元アバターに非パラメトリック化3次元衣服の新たな枠組みを提案する。
既存の3D手法はパラメトリック・カノニカル・ウェアのみをサポートする。
既存の最先端手法に比べて,非教師なし服や人間のアバターに優れた品質を示す。
論文 参考訳(メタデータ) (2024-01-06T02:28:25Z) - Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification [118.23912884472794]
衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
論文 参考訳(メタデータ) (2023-05-10T13:48:24Z) - End-to-End Zero-Shot HOI Detection via Vision and Language Knowledge
Distillation [86.41437210485932]
我々は、ゼロショットHOI検出を前進させ、同時に見えないHOIと見えないHOIの両方を検出することを目指している。
本稿では,視覚言語による知識蒸留によるエンドツーエンドのゼロショットHOI検出フレームワークを提案する。
本手法は, 従来のSOTAを8.92%, 全体の10.18%で上回っている。
論文 参考訳(メタデータ) (2022-04-01T07:27:19Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。