論文の概要: Data Augmentation using Random Image Cropping for High-resolution
Virtual Try-On (VITON-CROP)
- arxiv url: http://arxiv.org/abs/2111.08270v1
- Date: Tue, 16 Nov 2021 07:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 15:06:35.549957
- Title: Data Augmentation using Random Image Cropping for High-resolution
Virtual Try-On (VITON-CROP)
- Title(参考訳): 高分解能仮想トライオン(VITON-CROP)のためのランダムイメージクロッピングを用いたデータ拡張
- Authors: Taewon Kang, Sunghyun Park, Seunghwan Choi, Jaegul Choo
- Abstract要約: VITON-CROPは、既存の最先端仮想試行モデルと比較して、ランダムな作物増収と統合した場合、画像をより堅牢に合成する。
実験では,VITON-CROPがVITON-HDより質的,定量的に優れていることを示した。
- 参考スコア(独自算出の注目度): 18.347532903864597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based virtual try-on provides the capacity to transfer a clothing item
onto a photo of a given person, which is usually accomplished by warping the
item to a given human pose and adjusting the warped item to the person.
However, the results of real-world synthetic images (e.g., selfies) from the
previous method is not realistic because of the limitations which result in the
neck being misrepresented and significant changes to the style of the garment.
To address these challenges, we propose a novel method to solve this unique
issue, called VITON-CROP. VITON-CROP synthesizes images more robustly when
integrated with random crop augmentation compared to the existing
state-of-the-art virtual try-on models. In the experiments, we demonstrate that
VITON-CROP is superior to VITON-HD both qualitatively and quantitatively.
- Abstract(参考訳): 画像ベースの仮想試行は、衣服のアイテムを特定の人の写真に転送する能力を提供する。
しかし、前者の方法による実世界の合成画像(セルフィーなど)の結果は、首が誤って表現されたり、衣料のスタイルに重大な変化が生じたりして現実的ではない。
これらの課題に対処するため,本研究では,VITON-CROPと呼ばれる新しい手法を提案する。
VITON-CROPは、既存の最先端仮想試行モデルと比較して、ランダムな作物増収と統合した場合、画像をより堅牢に合成する。
実験では,VITON-CROPがVITON-HDより質的,定量的に優れていることを示した。
関連論文リスト
- EfficientVITON: An Efficient Virtual Try-On Model using Optimized Diffusion Process [2.0451307225357427]
中心となる課題は、リアルな画像から画像への翻訳であり、そこでは衣服は多様な人間の形、ポーズ、人物に適合しなければならない。
2D変換を使った初期の手法では速度が提供されていたが、画像の品質はしばしば失望し、ディープラーニングのニュアンスを欠いていた。
拡散モデルの最近の進歩は、高忠実度翻訳の公約を示しているが、現在の仮想試用ツールは、詳細損失やワープの問題に苦慮している。
本稿では,事前学習型安定拡散モデルを利用した仮想試行システムであるEfficientVITONを提案する。
論文 参考訳(メタデータ) (2025-01-20T22:44:53Z) - Enhancing Virtual Try-On with Synthetic Pairs and Error-Aware Noise Scheduling [20.072689146353348]
本研究では,着物の単一画像から(人間,合成衣服)対を生成する衣服抽出モデルを提案する。
また,局所的な生成誤りを外科的にターゲットとした誤り認識型Schr"odinger Bridge(EARSB)を提案する。
ユーザスタディでは,平均59%のケースで,このモデルが好まれる。
論文 参考訳(メタデータ) (2025-01-08T18:25:50Z) - MV-VTON: Multi-View Virtual Try-On with Diffusion Models [91.71150387151042]
画像ベースの仮想試着の目的は、与えられた衣服を自然に身に着けている対象者の画像を生成することである。
既存の方法は、前頭服を用いた正面試着のみに焦点をあてる方法である。
本稿では,服の複数ビューからドレッシング結果を再構築することを目的としたMulti-View Virtual Try-ON(MV-VTON)を紹介する。
論文 参考訳(メタデータ) (2024-04-26T12:27:57Z) - Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On [29.217423805933727]
拡散モデルに基づくアプローチは,画像合成タスクに優れており,近年普及している。
本稿では,仮想試行のためのテクスチャ保存拡散(TPD)モデルを提案する。
第2に,被写体と参照衣料画像に基づいて,正確な塗布マスクを推定する拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:43:22Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - WarpDiffusion: Efficient Diffusion Model for High-Fidelity Virtual
Try-on [81.15988741258683]
画像ベースの仮想トライオン(VITON)は、ホップ内の衣服イメージを対象人物に転送することを目的としている。
現在の方法では、衣服と肌の境界付近の合成品質や、ねじれた衣服のしわや影のような現実的な効果を見落としていることが多い。
本稿では,新しい情報的・局所的な特徴的注意機構を通じてワーピングと拡散に基づくパラダイムを橋渡しするワープ拡散を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:34:32Z) - Hybrid Neural Rendering for Large-Scale Scenes with Motion Blur [68.24599239479326]
画像ベース表現とニューラル3D表現を結合して高品質なビュー一貫性のある画像をレンダリングするハイブリッドなニューラルレンダリングモデルを開発した。
我々のモデルは、新しいビュー合成のための最先端のポイントベース手法を超越している。
論文 参考訳(メタデータ) (2023-04-25T08:36:33Z) - OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup [79.3118064406151]
Image Virtual try-onは、個人画像上の布を衣服画像(ホップ内服)に置き換えることを目的としている。
以前の方法では, 衣服のイメージの保存に成功していた。
隠蔽は、現実的なバーチャル試行に悪影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-03T06:29:11Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z) - VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware
Normalization [18.347532903864597]
仮想試行画像1024x768の合成に成功したVITON-HDという新しい仮想試行法を提案する。
本研究では,VITON-HDが質的にも量的にも合成画質のベースラインを超越していることを示した。
論文 参考訳(メタデータ) (2021-03-31T07:52:41Z) - Disentangled Cycle Consistency for Highly-realistic Virtual Try-On [34.97658860425598]
Image Virtual try-onは、人画像上の服を、希望する着物画像に置き換える。
既存の方法は、仮想トライオンをインペインティングまたはサイクル整合性として定式化する。
DCTON(Disentangled Cycle-consistency Try-On Network)の提案
論文 参考訳(メタデータ) (2021-03-17T07:18:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。