論文の概要: ChronoTailor: Harnessing Attention Guidance for Fine-Grained Video Virtual Try-On
- arxiv url: http://arxiv.org/abs/2506.05858v1
- Date: Fri, 06 Jun 2025 08:26:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.378721
- Title: ChronoTailor: Harnessing Attention Guidance for Fine-Grained Video Virtual Try-On
- Title(参考訳): ChronoTailor:ファイングラインドビデオのバーチャル・トライオンに注意を喚起するガイダンス
- Authors: Jinjuan Wang, Wenzhang Sun, Ming Li, Yun Zheng, Fanyao Li, Zhulin Tao, Donglin Di, Hao Li, Wei Chen, Xianglin Huang,
- Abstract要約: Video Virtual try-onは、ビデオの中の人の衣服を、目的の衣服にシームレスに置き換えることを目的としている。
既存のアプローチは、継続性を維持し、衣服の詳細を再現するのに依然として苦労している。
拡散に基づくフレームワークであるChronoTailorは、きめ細かい衣料を保存しながら、時間的に一貫したビデオを生成する。
- 参考スコア(独自算出の注目度): 19.565037902386475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video virtual try-on aims to seamlessly replace the clothing of a person in a source video with a target garment. Despite significant progress in this field, existing approaches still struggle to maintain continuity and reproduce garment details. In this paper, we introduce ChronoTailor, a diffusion-based framework that generates temporally consistent videos while preserving fine-grained garment details. By employing a precise spatio-temporal attention mechanism to guide the integration of fine-grained garment features, ChronoTailor achieves robust try-on performance. First, ChronoTailor leverages region-aware spatial guidance to steer the evolution of spatial attention and employs an attention-driven temporal feature fusion mechanism to generate more continuous temporal features. This dual approach not only enables fine-grained local editing but also effectively mitigates artifacts arising from video dynamics. Second, ChronoTailor integrates multi-scale garment features to preserve low-level visual details and incorporates a garment-pose feature alignment to ensure temporal continuity during dynamic motion. Additionally, we collect StyleDress, a new dataset featuring intricate garments, varied environments, and diverse poses, offering advantages over existing public datasets, and will be publicly available for research. Extensive experiments show that ChronoTailor maintains spatio-temporal continuity and preserves garment details during motion, significantly outperforming previous methods.
- Abstract(参考訳): Video Virtual try-onは、ソースビデオの中の人の服を、ターゲットの服にシームレスに置き換えることを目的としている。
この分野では大きな進歩があったが、既存のアプローチは継続性を維持し、衣服の詳細を再現するのに依然として苦労している。
本稿では,微細な衣料品を保存しながら時間的に一貫した映像を生成する拡散型フレームワークであるChronoTailorを紹介する。
精密な時空間的注意機構を用いて、きめ細かい衣服の特徴の統合を導くことにより、クロノタイラーは堅牢な試着性能を実現している。
まず、クロノタイラーは空間的注意の進化を制御し、注意駆動型時間的特徴融合機構を用いてより連続的な時間的特徴を生成する。
この2つのアプローチは、微細な局所的な編集を可能にするだけでなく、ビデオダイナミックスから生じるアーティファクトを効果的に緩和する。
第二にChronoTailorは、低レベルの視覚的詳細を保存するために、マルチスケールの衣服機能を統合し、動的動作中に時間的連続性を確保するために、衣服用の特徴アライメントを組み込んでいる。
さらに、複雑な衣服、さまざまな環境、さまざまなポーズを特徴とする新しいデータセットであるStyleDressも収集しています。
大規模な実験により、クロノタイラーは時空間連続性を保ち、運動中に衣服の細部を保存し、従来の方法よりも著しく優れていたことが示されている。
関連論文リスト
- MagicTryOn: Harnessing Diffusion Transformer for Garment-Preserving Video Virtual Try-on [16.0505428363005]
大規模なビデオ拡散変換器上に構築された仮想仮想試行フレームワークMagicTryOnを提案する。
我々は、U-Netアーキテクチャを拡散変換器に置き換え、ビデオの服飾一貫性をモデル化するために完全な自己アテンションを組み合わせる。
提案手法は,既存のSOTA法を総合評価で上回り,現場シナリオに一般化する。
論文 参考訳(メタデータ) (2025-05-27T15:22:02Z) - Tracktention: Leveraging Point Tracking to Attend Videos Faster and Better [61.381599921020175]
時間的一貫性は、出力が一貫性があり、アーティファクトがないことを保証するために、ビデオ予測において重要である。
時間的注意や3D畳み込みといった伝統的な手法は、重要な物体の動きに苦しむことがある。
本稿では,ポイントトラックを用いた動き情報を明示的に統合する新しいアーキテクチャコンポーネントであるトラックキート・レイヤを提案する。
論文 参考訳(メタデータ) (2025-03-25T17:58:48Z) - Exploring Temporally-Aware Features for Point Tracking [58.63091479730935]
Chronoは、時間的認識を組み込んだポイントトラッキング用に特別に設計された機能バックボーンである。
Chronoは、TAP-Vid-DAVISとTAP-Vid-Kineticsデータセットの洗練されたフリー設定で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T15:39:40Z) - Dynamic Try-On: Taming Video Virtual Try-on with Dynamic Attention Mechanism [52.9091817868613]
ビデオの試用は、その膨大な現実世界の潜在能力にとって有望な分野だ。
これまでの研究は主に、製品服のイメージを単純な人間のポーズでビデオに移すことに重点を置いてきた。
本稿では,Diffusion Transformer(DiT)に基づく新しいビデオトライオンフレームワークであるDynamic Try-Onを提案する。
論文 参考訳(メタデータ) (2024-12-13T03:20:53Z) - Trajectory Attention for Fine-grained Video Motion Control [20.998809534747767]
本稿では,細粒度カメラモーション制御のための画素トラジェクトリに沿って注目を行う新しい手法であるトラジェクトリ・アテンションを紹介する。
また,本手法は,第1フレーム誘導映像編集など,他の動画モーションコントロールタスクにも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-11-28T18:59:51Z) - Garment Animation NeRF with Color Editing [6.357662418254495]
そこで本稿では, 明示的な衣料プロキシを必要とせずに, 身体動作系列から衣料アニメーションを合成する手法を提案する。
本手法は, 体の動きから衣服の動的特徴を推定し, 衣服構造を概観する。
身体の動きやカメラの視界にまたがる手法の一般化性を実証し、詳細な構造的整合性を確保する。
論文 参考訳(メタデータ) (2024-07-29T08:17:05Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Motion Guided Deep Dynamic 3D Garments [45.711340917768766]
動作ガイドによるダイナミックな3D衣料、特にゆるい衣料品に焦点をあてる。
データ駆動のセットアップで、我々はまず、可塑性な衣服幾何学の生成空間を学習する。
複数の最先端の代替手段に比較して改善を示す。
論文 参考訳(メタデータ) (2022-09-23T07:17:46Z) - Exploring Rich and Efficient Spatial Temporal Interactions for Real Time
Video Salient Object Detection [87.32774157186412]
メインストリーム方式は、主に2つの独立した場所、すなわち空間的分岐と時間的分岐からビデオ・サリエンシを定式化する。
本稿では,このような改善を実現するための時間的ネットワークを提案する。
提案手法は実装が簡単で,50FPSで高精細度をリアルタイムに検出できる。
論文 参考訳(メタデータ) (2020-08-07T03:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。