論文の概要: Shining Yourself: High-Fidelity Ornaments Virtual Try-on with Diffusion Model
- arxiv url: http://arxiv.org/abs/2503.16065v1
- Date: Thu, 20 Mar 2025 11:57:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:33:52.118090
- Title: Shining Yourself: High-Fidelity Ornaments Virtual Try-on with Diffusion Model
- Title(参考訳): 自分自身を輝かせる - 拡散モデルによる仮想試行
- Authors: Yingmao Miao, Zhanpeng Huang, Rui Han, Zibin Wang, Chenhao Lin, Chao Shen,
- Abstract要約: 本稿では,装飾品の仮想試行作業について提案し,装飾品の仮想試行作業の保存性を向上させる方法を提案する。
具体的には,装飾品と模型のアライメントを改善するために,正確に着用マスクを推定する。
実験により,提案手法は対象モデルに参照画像からの装飾を施し,同一性を保ちながらスケールとポーズの実質的な差異を処理し,現実的な視覚効果を達成できることを示した。
- 参考スコア(独自算出の注目度): 9.262715883032463
- License:
- Abstract: While virtual try-on for clothes and shoes with diffusion models has gained attraction, virtual try-on for ornaments, such as bracelets, rings, earrings, and necklaces, remains largely unexplored. Due to the intricate tiny patterns and repeated geometric sub-structures in most ornaments, it is much more difficult to guarantee identity and appearance consistency under large pose and scale variances between ornaments and models. This paper proposes the task of virtual try-on for ornaments and presents a method to improve the geometric and appearance preservation of ornament virtual try-ons. Specifically, we estimate an accurate wearing mask to improve the alignments between ornaments and models in an iterative scheme alongside the denoising process. To preserve structure details, we further regularize attention layers to map the reference ornament mask to the wearing mask in an implicit way. Experimental results demonstrate that our method successfully wears ornaments from reference images onto target models, handling substantial differences in scale and pose while preserving identity and achieving realistic visual effects.
- Abstract(参考訳): 拡散モデルによる衣服や靴のバーチャルトライオンが注目されているが、ブレスレット、リング、イヤリング、ネックレスなどの装飾品のバーチャルトライオンはほとんど探索されていない。
多くの装飾品において、複雑な小さなパターンと幾何的なサブ構造が繰り返されているため、大きなポーズの下でのアイデンティティと外観の整合性、および装飾品と模型のスケールのばらつきを保証することはより困難である。
本稿では,装飾用バーチャルトライオンの課題を提案し,装飾用仮想トライオンの幾何学的・外観的保存を改善する方法を提案する。
具体的には,装飾品と模型のアライメントを改善するために,正確に着用マスクを推定する。
構造の詳細を保持するために、我々はさらに注意層を規則化し、基準装飾マスクを暗黙的に着用マスクにマッピングする。
実験により,提案手法は対象モデルに参照画像からの装飾を施し,同一性を保ちながらスケールとポーズの実質的な差異を処理し,現実的な視覚効果を達成できることを示した。
関連論文リスト
- GaussianHeads: End-to-End Learning of Drivable Gaussian Head Avatars from Coarse-to-fine Representations [54.94362657501809]
マルチビュー画像から高ダイナミックで変形可能な人間の頭部アバターをリアルタイムで生成する手法を提案する。
本手法のコアとなるのは,顔表情と頭部運動の複雑なダイナミクスを捉えることができる頭部モデルの階層的表現である。
我々は、この粗い顔アバターモデルを、エンドツーエンドのフレームワークで学習可能なパラメータとして頭部ポーズとともに訓練する。
論文 参考訳(メタデータ) (2024-09-18T13:05:43Z) - Realistic and Efficient Face Swapping: A Unified Approach with Diffusion Models [69.50286698375386]
フェース・スワッピングのための拡散モデルを改善する新しい手法を提案する。
インペイントトレーニング中にマスクシャッフル技術を導入し、スワップのためのいわゆるユニバーサルモデルを作成することができる。
私たちのアプローチは比較的統一されたアプローチなので、他のオフザシェルフモデルのエラーに対して耐性があります。
論文 参考訳(メタデータ) (2024-09-11T13:43:53Z) - BooW-VTON: Boosting In-the-Wild Virtual Try-On via Mask-Free Pseudo Data Training [32.77901123889236]
近年の仮想試行法は、人物画像のマスキングを必要とするイメージマスク・インペイントタスクとしてモデル化されている。
本研究は,マスクレスアプローチにより,人物画像からの空間的・照明的情報を完全に活用できることを見出した。
マスクのない仮想トライオン拡散モデルであるBooW-VTONを導入する。
論文 参考訳(メタデータ) (2024-08-12T10:39:59Z) - Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On [29.217423805933727]
拡散モデルに基づくアプローチは,画像合成タスクに優れており,近年普及している。
本稿では,仮想試行のためのテクスチャ保存拡散(TPD)モデルを提案する。
第2に,被写体と参照衣料画像に基づいて,正確な塗布マスクを推定する拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:43:22Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Product-Level Try-on: Characteristics-preserving Try-on with Realistic
Clothes Shading and Wrinkles [28.40312452732804]
現実的な衣服の陰影やしわを発生させながら,ロゴや刺青の細かな細部を保存できる新しい拡散型製品レベルの仮想試行パイプライン,ie PLTONを提案する。
PLTONは、従来のワープネットワークでポーズするターゲットモデルにインショップ服をワープし、ハイパスフィルタを使用して静的な布の特徴を保存するためのHF-Mapを抽出する。
1024 768データセットの大規模な定量および定性的実験は、実際の衣服のダイナミクスを模倣する上で、我々のフレームワークの優位性を実証している。
論文 参考訳(メタデータ) (2024-01-20T14:35:34Z) - Personalized Face Inpainting with Diffusion Models by Parallel Visual
Attention [55.33017432880408]
本稿では,パラレル視覚注意(PVA, Parallel Visual Attention, PVA)と拡散モデルとの併用による塗装結果の改善を提案する。
我々はCelebAHQ-IDIで注目モジュールとIDエンコーダをトレーニングする。
実験により, PVAは顔の塗り絵と顔の塗り絵の両面において, 言語指導タスクと相容れない同一性を持つことが示された。
論文 参考訳(メタデータ) (2023-12-06T15:39:03Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。