論文の概要: Masked Extended Attention for Zero-Shot Virtual Try-On In The Wild
- arxiv url: http://arxiv.org/abs/2406.15331v1
- Date: Fri, 21 Jun 2024 17:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 12:43:51.109819
- Title: Masked Extended Attention for Zero-Shot Virtual Try-On In The Wild
- Title(参考訳): Masked、ゼロショットのバーチャル・トライオンに注意を喚起
- Authors: Nadav Orzech, Yotam Nitzan, Ulysse Mizrahi, Dov Danon, Amit H. Bermano,
- Abstract要約: 仮想トライオン(Virtual Try-On)は、人物や衣服の特徴を保ちながら、画像中の衣服を別のものに置き換えることを目的としている。
現在の文献では、タスクの教師付きアプローチを採用し、一般化を損なうとともに、重い計算を課している。
本稿では,衣服の着衣を参考に塗布するためのゼロショットトレーニングフリーな新しい手法を提案する。
- 参考スコア(独自算出の注目度): 17.025262797698364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual Try-On (VTON) is a highly active line of research, with increasing demand. It aims to replace a piece of garment in an image with one from another, while preserving person and garment characteristics as well as image fidelity. Current literature takes a supervised approach for the task, impairing generalization and imposing heavy computation. In this paper, we present a novel zero-shot training-free method for inpainting a clothing garment by reference. Our approach employs the prior of a diffusion model with no additional training, fully leveraging its native generalization capabilities. The method employs extended attention to transfer image information from reference to target images, overcoming two significant challenges. We first initially warp the reference garment over the target human using deep features, alleviating "texture sticking". We then leverage the extended attention mechanism with careful masking, eliminating leakage of reference background and unwanted influence. Through a user study, qualitative, and quantitative comparison to state-of-the-art approaches, we demonstrate superior image quality and garment preservation compared unseen clothing pieces or human figures.
- Abstract(参考訳): VTON(Virtual Try-On)は、需要の増加とともに、非常に活発な研究分野である。
人物や衣服の特徴を保ち、イメージの忠実さを保ちながら、画像中の衣服を別のものに置き換えることを目的としている。
現在の文献では、タスクの教師付きアプローチを採用し、一般化を損なうとともに、重い計算を課している。
本稿では,衣服を基準に塗布するゼロショットトレーニングフリーな手法を提案する。
我々のアプローチは、追加のトレーニングを伴わない拡散モデルの先行を取り入れ、そのネイティブな一般化能力を完全に活用する。
本手法では,参照画像から対象画像への画像情報の転送に注意を払い,二つの重要な課題を克服する。
われわれはまず、まず「テクスチュア・スタンディング」を緩和する深い特徴を用いて、対象の人間にリファレンス・ウェアを警告した。
次に、拡張された注意機構を注意深くマスキングし、参照背景の漏洩や不要な影響を除去する。
ユーザスタディ、質的、定量的に最先端のアプローチと比較することにより、未確認の衣服や人物と比較して、画質と衣服の保存性が優れていることを実証した。
関連論文リスト
- Learning Flow Fields in Attention for Controllable Person Image Generation [59.10843756343987]
制御可能な人物画像生成は、参照画像に条件付けされた人物画像を生成することを目的としている。
そこで本研究では,対象クエリに対して,適切な参照キーへの参照を明示的にガイドする学習フロー場(Leffa)を提案する。
Leffaは外観(仮想試行)とポーズ(目的移動)の制御における最先端のパフォーマンスを実現し、細かなディテール歪みを著しく低減する。
論文 参考訳(メタデータ) (2024-12-11T15:51:14Z) - Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On [29.217423805933727]
拡散モデルに基づくアプローチは,画像合成タスクに優れており,近年普及している。
本稿では,仮想試行のためのテクスチャ保存拡散(TPD)モデルを提案する。
第2に,被写体と参照衣料画像に基づいて,正確な塗布マスクを推定する拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:43:22Z) - Extracting Human Attention through Crowdsourced Patch Labeling [18.947126675569667]
画像分類では、データセットのバイアスから重大な問題が生じる。
このようなバイアスを軽減する1つのアプローチは、モデルが対象物の位置に注意を向けることである。
本稿では,画像から人の注意を捉えるために,クラウドソーシングとAI支援を統合した新しいパッチラベル手法を提案する。
論文 参考訳(メタデータ) (2024-03-22T07:57:27Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - Style-Based Global Appearance Flow for Virtual Try-On [119.95115739956661]
本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-04-03T10:58:04Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - PoNA: Pose-guided Non-local Attention for Human Pose Transfer [105.14398322129024]
本稿では, 簡易ブロックを用いたGAN(Generative Adversarial Network)を用いた新しいポーズ転送手法を提案する。
我々のモデルはより鮮明でよりリアルな画像を生成するが、パラメータは少なく、速度も速い。
論文 参考訳(メタデータ) (2020-12-13T12:38:29Z) - GarmentGAN: Photo-realistic Adversarial Fashion Transfer [0.0]
GarmentGANは、生成的敵対的な方法で画像ベースの衣服転送を行う。
このフレームワークでは、購入前に仮想的に試行して、さまざまなアパレルタイプに一般化することができる。
論文 参考訳(メタデータ) (2020-03-04T05:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。