論文の概要: VTON 360: High-Fidelity Virtual Try-On from Any Viewing Direction
- arxiv url: http://arxiv.org/abs/2503.12165v1
- Date: Sat, 15 Mar 2025 15:08:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:31:24.654774
- Title: VTON 360: High-Fidelity Virtual Try-On from Any Viewing Direction
- Title(参考訳): VTON 360:あらゆる方向からの高忠実なバーチャルトライオン
- Authors: Zijian He, Yuwei Ning, Yipeng Qin, Wangrun Wang, Sibei Yang, Liang Lin, Guanbin Li,
- Abstract要約: VTON(Virtual Try-On)は、電子商取引とファッションデザインにおける革新的技術であり、個人における衣服のリアルなデジタル視覚化を可能にする。
VTON 360は、任意のビューレンダリングをサポートする高忠実度VTONを実現するためのオープンな課題に対処する新しい3次元VTON法である。
- 参考スコア(独自算出の注目度): 92.60587869076492
- License:
- Abstract: Virtual Try-On (VTON) is a transformative technology in e-commerce and fashion design, enabling realistic digital visualization of clothing on individuals. In this work, we propose VTON 360, a novel 3D VTON method that addresses the open challenge of achieving high-fidelity VTON that supports any-view rendering. Specifically, we leverage the equivalence between a 3D model and its rendered multi-view 2D images, and reformulate 3D VTON as an extension of 2D VTON that ensures 3D consistent results across multiple views. To achieve this, we extend 2D VTON models to include multi-view garments and clothing-agnostic human body images as input, and propose several novel techniques to enhance them, including: i) a pseudo-3D pose representation using normal maps derived from the SMPL-X 3D human model, ii) a multi-view spatial attention mechanism that models the correlations between features from different viewing angles, and iii) a multi-view CLIP embedding that enhances the garment CLIP features used in 2D VTON with camera information. Extensive experiments on large-scale real datasets and clothing images from e-commerce platforms demonstrate the effectiveness of our approach. Project page: https://scnuhealthy.github.io/VTON360.
- Abstract(参考訳): VTON(Virtual Try-On)は、電子商取引とファッションデザインにおける革新的技術であり、個人における衣服のリアルなデジタル視覚化を可能にする。
本研究では,任意のビューレンダリングをサポートする高忠実度VTONを実現するためのオープンな課題に対処する,新しい3次元VTON法であるVTON 360を提案する。
具体的には、3Dモデルとレンダリングされたマルチビュー2D画像の等価性を活用し、3D VTONを2D VTONの拡張として再構成し、複数のビューにまたがって3D一貫した結果を保証する。
これを実現するために,2次元VTONモデルを拡張して,多面的な衣服や衣服に依存しない人体イメージを入力として含み,その強化を目的とした新しい手法を提案する。
一 SMPL-Xのヒトモデルから派生した正常地図を用いた擬似3Dポーズ表現
二 異なる視角の特徴間の相関をモデル化する多視点空間注意機構
三 カメラ情報付き2次元VTONにおけるCLIP機能を強化する多視点CLIP埋め込み。
電子商取引プラットフォームによる大規模リアルデータセットと衣料品画像に関する大規模な実験は、我々のアプローチの有効性を実証している。
プロジェクトページ: https://scnuhealthy.github.io/VTON360。
関連論文リスト
- IPVTON: Image-based 3D Virtual Try-on with Image Prompt Adapter [64.03091978606952]
人物と衣服を別々に描写した一対の画像が与えられた場合、画像ベースの仮想試行法は、人間の3次元モデルを再構築することを目的としている。
IPVTONは,新しい3次元仮想試行フレームワークである。
論文 参考訳(メタデータ) (2025-01-26T17:51:03Z) - Sharp-It: A Multi-view to Multi-view Diffusion Model for 3D Synthesis and Manipulation [15.215597253086612]
我々は,3次元表現を直接生成する手法と,多視点画像から3次元オブジェクトを再構成する手法の質差を橋渡しする。
シャープ・イット(Sharp-It)と呼ばれるマルチビュー拡散モデルを導入する。
Sharp-Itは高速な合成、編集、制御された生成などの様々な3Dアプリケーションを可能にすると同時に、高品質な資産を達成可能であることを実証する。
論文 参考訳(メタデータ) (2024-12-03T17:58:07Z) - Hi3D: Pursuing High-Resolution Image-to-3D Generation with Video Diffusion Models [112.2625368640425]
High- resolution Image-to-3D model (Hi3D) はビデオ拡散に基づく新しいパラダイムであり、単一の画像を3D対応シーケンシャル画像生成としてマルチビュー画像に再定義する。
Hi3Dは事前に学習した映像拡散モデルを3D対応で強化し、低解像度のテクスチャディテールを持つマルチビュー画像を生成する。
論文 参考訳(メタデータ) (2024-09-11T17:58:57Z) - DreamVTON: Customizing 3D Virtual Try-on with Personalized Diffusion Models [56.55549019625362]
画像ベースの3Dバーチャルトライオン(VTON)は、人や衣服の画像に基づいて3D人間を彫刻することを目的としている。
近年のテキスト・ツー・3D法は高忠実度3Dヒューマンジェネレーションにおいて顕著な改善を実現している。
我々は,3次元人間の形状とテクスチャを個別に最適化するために,textbfDreamVTONという新しい3次元人体試行モデルを提案する。
論文 参考訳(メタデータ) (2024-07-23T14:25:28Z) - Structured 3D Features for Reconstructing Controllable Avatars [43.36074729431982]
パラメトリックな統計的メッシュ表面からサンプリングされた高密度な3次元点に画素整列画像特徴をプールする,新しい暗黙の3次元表現に基づくモデルであるStructured 3D Featuresを紹介する。
本研究では,S3Fモデルがモノクロ3D再構成やアルベド,シェーディング推定など,これまでの課題を超越していることを示す。
論文 参考訳(メタデータ) (2022-12-13T18:57:33Z) - M3D-VTON: A Monocular-to-3D Virtual Try-On Network [62.77413639627565]
既存の3D仮想試行法は主に注釈付き3D人体形状と衣服テンプレートに依存している。
本稿では,2次元と3次元の両方のアプローチの利点を生かした,モノクロから3次元仮想トライオンネットワーク(M3D-VTON)を提案する。
論文 参考訳(メタデータ) (2021-08-11T10:05:17Z) - Towards Realistic 3D Embedding via View Alignment [53.89445873577063]
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2020-07-14T14:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。