論文の概要: Cloth Interactive Transformer for Virtual Try-On
- arxiv url: http://arxiv.org/abs/2104.05519v2
- Date: Sun, 20 Aug 2023 18:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 03:35:00.277097
- Title: Cloth Interactive Transformer for Virtual Try-On
- Title(参考訳): 仮想試着用布型インタラクティブトランス
- Authors: Bin Ren, Hao Tang, Fanyang Meng, Runwei Ding, Philip H.S. Torr, Nicu
Sebe
- Abstract要約: 本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
- 参考スコア(独自算出の注目度): 106.21605249649957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 2D image-based virtual try-on has aroused increased interest from the
multimedia and computer vision fields due to its enormous commercial value.
Nevertheless, most existing image-based virtual try-on approaches directly
combine the person-identity representation and the in-shop clothing items
without taking their mutual correlations into consideration. Moreover, these
methods are commonly established on pure convolutional neural networks (CNNs)
architectures which are not simple to capture the long-range correlations among
the input pixels. As a result, it generally results in inconsistent results. To
alleviate these issues, in this paper, we propose a novel two-stage cloth
interactive transformer (CIT) method for the virtual try-on task. During the
first stage, we design a CIT matching block, aiming to precisely capture the
long-range correlations between the cloth-agnostic person information and the
in-shop cloth information. Consequently, it makes the warped in-shop clothing
items look more natural in appearance. In the second stage, we put forth a CIT
reasoning block for establishing global mutual interactive dependencies among
person representation, the warped clothing item, and the corresponding warped
cloth mask. The empirical results, based on mutual dependencies, demonstrate
that the final try-on results are more realistic. Substantial empirical results
on a public fashion dataset illustrate that the suggested CIT attains
competitive virtual try-on performance.
- Abstract(参考訳): 2D画像ベースの仮想試行は、その巨大な商用価値のために、マルチメディアやコンピュータビジョンの分野からの関心が高まっている。
それにもかかわらず、既存のイメージベース仮想試着アプローチは、相互相関を考慮せずに、個人同一性表現とショップ内衣服を直接組み合わせている。
さらに、これらの手法は入力画素間の長距離相関を捉えるのが簡単ではない純粋畳み込みニューラルネットワーク(CNN)アーキテクチャ上で一般的に確立されている。
その結果、一般的に一貫性のない結果が得られる。
本稿では,これらの問題を緩和するために,仮想試行作業のための新しい2段階対話型布布トランス (CIT) 法を提案する。
第1段階では, 衣服非依存者情報と店舗内布情報との長距離相関を正確に把握するために, citマッチングブロックを設計する。
その結果、歪んだ洋服の外観がより自然に見えてくる。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
相互依存に基づく実証結果は、最終的な試行結果がより現実的であることを示す。
パブリックなファッションデータセットにおける実質的な経験的結果は、提案されたCITが競争力のあるバーチャルトライオンパフォーマンスを達成したことを示している。
関連論文リスト
- Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On [29.217423805933727]
拡散モデルに基づくアプローチは,画像合成タスクに優れており,近年普及している。
本稿では,仮想試行のためのテクスチャ保存拡散(TPD)モデルを提案する。
第2に,被写体と参照衣料画像に基づいて,正確な塗布マスクを推定する拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:43:22Z) - Time-Efficient and Identity-Consistent Virtual Try-On Using A Variant of Altered Diffusion Models [4.038493506169702]
本研究は, 複雑なテクスチャの詳細と, 対象者と衣服の特徴を, 様々なシナリオで保存することの課題を強調する。
様々な既存アプローチが検討され、制限と未解決の側面を強調している。
次に,仮想試行中にテクスチャのテクスチャ保存とユーザアイデンティティ保持に対処する,新しい拡散型ソリューションを提案する。
論文 参考訳(メタデータ) (2024-03-12T07:15:29Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - PFDM: Parser-Free Virtual Try-on via Diffusion Model [28.202996582963184]
拡散モデル(PFDM)に基づく自由仮想試行法を提案する。
2つの画像が与えられた場合、PFDMは、他の情報なしで暗黙的にワープすることで、標的人物の衣服をシームレスに「着る」ことができる。
実験により,提案したPFDMは複雑な画像の処理に成功し,最先端の最先端モデルと高忠実度モデルの両方より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-05T14:32:57Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Masked Transformer for Neighhourhood-aware Click-Through Rate Prediction [74.52904110197004]
本稿では,近隣相互作用に基づくCTR予測を提案し,そのタスクを異種情報ネットワーク(HIN)設定に組み込む。
周辺地域の表現を高めるために,ノード間のトポロジカルな相互作用を4種類検討する。
本研究では,2つの実世界のデータセットに関する総合的な実験を行い,提案手法が最先端のCTRモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2022-01-25T12:44:23Z) - VIRT: Improving Representation-based Models for Text Matching through
Virtual Interaction [50.986371459817256]
本稿では,VIRT と呼ばれる新しいtextitVirtual InteRacTion 機構を提案する。
VIRTは、表現ベースのエンコーダに、対話ベースのモデルのように振舞いを模倣する仮想インタラクションを実行するよう要求する。
論文 参考訳(メタデータ) (2021-12-08T09:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。