論文の概要: MV-Fashion: Towards Enabling Virtual Try-On and Size Estimation with Multi-View Paired Data
- arxiv url: http://arxiv.org/abs/2603.08147v1
- Date: Mon, 09 Mar 2026 09:28:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.73332
- Title: MV-Fashion: Towards Enabling Virtual Try-On and Size Estimation with Multi-View Paired Data
- Title(参考訳): MV-Fashion:マルチビューペアデータによる仮想試行とサイズ推定の実現に向けて
- Authors: Hunor Laczkó, Libang Jia, Loc-Phat Truong, Diego Hernández, Sergio Escalera, Jordi Gonzalez, Meysam Madadi,
- Abstract要約: MV-Fashionは、ドメイン固有のファッション分析のために設計された大規模なマルチビュービデオデータセットである。
80人の多様な被験者から3,273のシークエンスがあり、それぞれ3,10の衣装を着ている。
コアコントリビューションは、ピクセルレベルのセマンティックアノテーションを含むリッチなデータ表現である。
- 参考スコア(独自算出の注目度): 33.49074848598509
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing 4D human datasets fall short for fashion-specific research, lacking either realistic garment dynamics or task-specific annotations. Synthetic datasets suffer from a realism gap, whereas real-world captures lack the detailed annotations and paired data required for virtual try-on (VTON) and size estimation tasks. To bridge this gap, we introduce MV-Fashion, a large-scale, multi-view video dataset engineered for domain-specific fashion analysis. MV-Fashion features 3,273 sequences (72.5 million frames) from 80 diverse subjects wearing 3-10 outfits each. It is designed to capture complex, real-world garment dynamics, including multiple layers and varied styling (e.g. rolled sleeves, tucked shirt). A core contribution is a rich data representation that includes pixel-level semantic annotations, ground-truth material properties like elasticity, and 3D point clouds. Crucially for VTON applications, MV-Fashion provides paired data: multi-view synchronized captures of worn garments alongside their corresponding flat, catalogue images. We leverage this dataset to establish baselines for fashion-centric tasks, including virtual try-on, clothing size estimation, and novel view synthesis. The dataset is available at https://hunorlaczko.github.io/MV-Fashion .
- Abstract(参考訳): 既存の4Dの人間のデータセットは、現実的な衣服のダイナミックスやタスク固有のアノテーションが欠如している、ファッション特有の研究には不足している。
合成データセットはリアリズムのギャップに悩まされる一方、現実世界のキャプチャには仮想試行(VTON)やサイズ推定タスクに必要な詳細なアノテーションとペアデータがない。
このギャップを埋めるために、ドメイン固有のファッション分析のために設計された大規模多視点ビデオデータセットであるMV-Fashionを導入する。
MV-Fashionは、80の多様な被験者から3,273のシーケンス(7250万フレーム)をそれぞれ3,10の衣装を着用している。
複数の層やさまざまなスタイリング(例えば、ローリングスリーブ、タックシャツ)を含む、複雑な現実世界の衣料品のダイナミクスを捉えるように設計されている。
コアコントリビューションはリッチなデータ表現であり、ピクセルレベルのセマンティックアノテーション、弾力性のような地味な素材特性、および3Dポイントクラウドを含んでいる。
VTONアプリケーションにとって重要なのは、MV-Fashionがペアデータを提供することだ。
このデータセットを利用して、仮想試着、衣服のサイズ推定、新しいビュー合成など、ファッション中心のタスクのベースラインを確立する。
データセットはhttps://hunorlaczko.github.io/MV-Fashionで公開されている。
関連論文リスト
- Incorporating Visual Correspondence into Diffusion Model for Virtual Try-On [89.9123806553489]
拡散モデルは仮想試行(VTON)タスクで成功している。
この問題は、拡散モデルの本質性により、与えられた衣服の形状や細部を保存することは依然として困難である。
本稿では,視力の拡散前処理として視覚的対応を明示的に活用することを提案する。
論文 参考訳(メタデータ) (2025-05-22T17:52:13Z) - Articulate3D: Holistic Understanding of 3D Scenes as Universal Scene Description [56.69740649781989]
3Dシーン理解は、コンピュータビジョンにおける長年の課題であり、混合現実、ウェアラブルコンピューティング、そして具体化されたAIを実現する上で重要な要素である。
室内280のシーンに高品質な手動アノテーションを付加した専門的な3DデータセットであるArticulate3Dを紹介する。
我々はまた,部分分割を同時に予測できる新しい統一フレームワークUSDNetと,オブジェクトの動作属性の完全な仕様を提示する。
論文 参考訳(メタデータ) (2024-12-02T11:33:55Z) - MV-VTON: Multi-View Virtual Try-On with Diffusion Models [91.71150387151042]
画像ベースの仮想試着の目的は、与えられた衣服を自然に身に着けている対象者の画像を生成することである。
既存の方法は、前頭服を用いた正面試着のみに焦点をあてる方法である。
本稿では,服の複数ビューからドレッシング結果を再構築することを目的としたMulti-View Virtual Try-ON(MV-VTON)を紹介する。
論文 参考訳(メタデータ) (2024-04-26T12:27:57Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。