論文の概要: AvatarVTON: 4D Virtual Try-On for Animatable Avatars
- arxiv url: http://arxiv.org/abs/2510.04822v1
- Date: Mon, 06 Oct 2025 14:06:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.889286
- Title: AvatarVTON: 4D Virtual Try-On for Animatable Avatars
- Title(参考訳): AvatarVTON:アニマタブルアバターのための4Dバーチャルトライオン
- Authors: Zicheng Jiang, Jixin Gao, Shengfeng He, Xinzhe Li, Yulong Zheng, Zhaotong Yang, Junyu Dong, Yong Du,
- Abstract要約: AvatarVTONは、単一のショップ内衣料品画像から現実的な試着結果を生成する。
シングルビューの監視下での動的衣料相互作用をサポートする。
AR/VR、ゲーム、デジタル・ヒューマン・アプリケーションに適している。
- 参考スコア(独自算出の注目度): 67.13031660684457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose AvatarVTON, the first 4D virtual try-on framework that generates realistic try-on results from a single in-shop garment image, enabling free pose control, novel-view rendering, and diverse garment choices. Unlike existing methods, AvatarVTON supports dynamic garment interactions under single-view supervision, without relying on multi-view garment captures or physics priors. The framework consists of two key modules: (1) a Reciprocal Flow Rectifier, a prior-free optical-flow correction strategy that stabilizes avatar fitting and ensures temporal coherence; and (2) a Non-Linear Deformer, which decomposes Gaussian maps into view-pose-invariant and view-pose-specific components, enabling adaptive, non-linear garment deformations. To establish a benchmark for 4D virtual try-on, we extend existing baselines with unified modules for fair qualitative and quantitative comparisons. Extensive experiments show that AvatarVTON achieves high fidelity, diversity, and dynamic garment realism, making it well-suited for AR/VR, gaming, and digital-human applications.
- Abstract(参考訳): AvatarVTONは最初の4D仮想試用フレームワークで、1つのショップ内衣料品画像からリアルな試用結果を生成し、自由ポーズ制御、ノベルビューレンダリング、多様な衣料品選択を可能にする。
既存の方法とは異なり、AvatarVTONは、マルチビューの衣服キャプチャや物理学の先行に頼らずに、シングルビューの監視下での動的衣料相互作用をサポートする。
本フレームワークは,(1)アバターの取付けを安定させ,時間的コヒーレンスを確保するための事前自由な光フロー補正戦略であるReciprocal Flow Rectifierと,(2)ガウス写像をビュー・プレイス不変およびビュー・プレイス固有成分に分解し,適応的で非線形な変形を可能にする非線形変形器とからなる。
4次元仮想試行のベンチマークを確立するため, 定性的, 定量的な比較を行うために, 既存のベースラインを統一モジュールで拡張する。
大規模な実験により、AvatarVTONは高い忠実さ、多様性、ダイナミックな衣服リアリズムを実現し、AR/VR、ゲーム、デジタル・ヒューマン・アプリケーションに適していることが示された。
関連論文リスト
- SEGA: Drivable 3D Gaussian Head Avatar from a Single Image [15.117619290414064]
本稿では,3次元ドライビング可能なガウスヘッドアバターの新規な手法であるSEGAを提案する。
SEGAは、大規模な2Dデータセットから派生した先行データと、マルチビュー、マルチ圧縮、マルチIDデータから得られた3D先行データとをシームレスに結合する。
提案手法は, 一般化能力, アイデンティティ保存, 表現リアリズムにおいて, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-04-19T18:23:31Z) - UniViTAR: Unified Vision Transformer with Native Resolution [37.63387029787732]
UniViTARは、視覚の統一性とネイティブ解像度のシナリオに適した、均質な視覚基盤モデルのファミリーである。
2つのコアメカニズムを戦略的に組み合わせたプログレッシブトレーニングパラダイムが導入された。
並行して、ハイブリッドトレーニングフレームワークは、凍結教師モデルからの特徴蒸留に伴うシグモイドに基づくコントラスト損失をさらにシナジする。
論文 参考訳(メタデータ) (2025-04-02T14:59:39Z) - VTON 360: High-Fidelity Virtual Try-On from Any Viewing Direction [103.0918705283309]
VTON(Virtual Try-On)は、電子商取引とファッションデザインにおける革新的技術であり、個人における衣服のリアルなデジタル視覚化を可能にする。
VTON 360は、任意のビューレンダリングをサポートする高忠実度VTONを実現するためのオープンな課題に対処する新しい3次元VTON法である。
論文 参考訳(メタデータ) (2025-03-15T15:08:48Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - MonoHuman: Animatable Human Neural Field from Monocular Video [30.113937856494726]
そこで我々は,任意のポーズの下で,ビュー一貫性と高忠実度アバターを強固に描画する新しいフレームワークMonoHumanを提案する。
我々のキーとなる洞察は、変形場を双方向の制約でモデル化し、オフザペグ情報を明示的に活用して、特徴を一貫性のある結果の推論を行うことである。
論文 参考訳(メタデータ) (2023-04-04T17:55:03Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Single Stage Virtual Try-on via Deformable Attention Flows [51.70606454288168]
仮想試行は、ショップ内服と基準人物画像が与えられた写真リアルなフィッティング結果を生成することを目的としている。
マルチフロー推定に変形性アテンションスキームを適用した,変形性アテンションフロー(DAFlow)を新たに開発した。
提案手法は,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-07-19T10:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。