論文の概要: Cloth Interactive Transformer for Virtual Try-On
- arxiv url: http://arxiv.org/abs/2104.05519v1
- Date: Mon, 12 Apr 2021 14:45:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 21:10:17.719611
- Title: Cloth Interactive Transformer for Virtual Try-On
- Title(参考訳): 仮想試着用布型インタラクティブトランス
- Authors: Bin Ren, Hao Tang, Fanyang Meng, Runwei Ding, Ling Shao, Philip H.S.
Torr, Nicu Sebe
- Abstract要約: 2D画像に基づく仮想試行は、マルチメディアやコンピュータビジョンのコミュニティから注目を集めている。
既存の画像ベースの仮想試着方法のほとんどは、人と店内服の両方を直接組み合わせている。
仮想試行のための2段式クロスインタラクティブトランス (CIT) を提案する。
- 参考スコア(独自算出の注目度): 166.41430270258536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 2D image-based virtual try-on has attracted increased attention from the
multimedia and computer vision communities. However, most of the existing
image-based virtual try-on methods directly put both person and the in-shop
clothing representations together, without considering the mutual correlation
between them. What is more, the long-range information, which is crucial for
generating globally consistent results, is also hard to be established via the
regular convolution operation. To alleviate these two problems, in this paper
we propose a novel two-stage Cloth Interactive Transformer (CIT) for virtual
try-on. In the first stage, we design a CIT matching block, aiming to perform a
learnable thin-plate spline transformation that can capture more reasonable
long-range relation. As a result, the warped in-shop clothing looks more
natural. In the second stage, we propose a novel CIT reasoning block for
establishing the global mutual interactive dependence. Based on this mutual
dependence, the significant region within the input data can be highlighted,
and consequently, the try-on results can become more realistic. Extensive
experiments on a public fashion dataset demonstrate that our CIT can achieve
the new state-of-the-art virtual try-on performance both qualitatively and
quantitatively. The source code and trained models are available at
https://github.com/Amazingren/CIT.
- Abstract(参考訳): 2D画像に基づく仮想試行は、マルチメディアやコンピュータビジョンのコミュニティから注目を集めている。
しかし、既存の画像ベースの仮想試着手法のほとんどは、両者の相互相関を考慮せずに、直接、人とショップ内服の表現を結びつける。
さらに、グローバルに一貫した結果を生成する上で重要な長距離情報も、通常の畳み込み操作によって確立することが困難である。
そこで本稿では,この2つの問題を解消するため,仮想試着用2段布型インタラクティブトランス(cit)を提案する。
最初の段階では、より合理的な長距離関係を捉えることができる学習可能な薄板スプライン変換を実現するために、CITマッチングブロックを設計する。
結果として、歪んだインショップ服はより自然に見えます。
第2段階では,グローバルな相互依存を確立するための新しいCIT推論ブロックを提案する。
この相互依存に基づき、入力データ内の重要な領域を強調することができ、その結果、試行結果をより現実的なものにすることができる。
パブリックなファッションデータセットに関する大規模な実験により、私たちのCITは、定性的かつ定量的に新しい最先端のバーチャルトライオンパフォーマンスを達成できることを示した。
ソースコードとトレーニングされたモデルはhttps://github.com/Amazingren/CIT.comで入手できる。
関連論文リスト
- Hierarchical Cross-Attention Network for Virtual Try-On [59.50297858307268]
我々は,仮想試行課題に対する革新的な解決策を提示する:我々の小説HCANet(Hierarchical Cross-Attention Network)
HCANetは、幾何学的マッチングと試行という2つの主要なステージで作られており、それぞれが現実的な仮想試行の結果を提供する上で重要な役割を果たす。
HCANetの重要な特徴は、新しい階層的クロスアテンション(HCA)ブロックを両方のステージに組み込むことで、個人と衣服のモダリティ間の長距離相関を効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-11-23T12:39:58Z) - Time-Efficient and Identity-Consistent Virtual Try-On Using A Variant of Altered Diffusion Models [4.038493506169702]
本研究は, 複雑なテクスチャの詳細と, 対象者と衣服の特徴を, 様々なシナリオで保存することの課題を強調する。
様々な既存アプローチが検討され、制限と未解決の側面を強調している。
次に,仮想試行中にテクスチャのテクスチャ保存とユーザアイデンティティ保持に対処する,新しい拡散型ソリューションを提案する。
論文 参考訳(メタデータ) (2024-03-12T07:15:29Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - PFDM: Parser-Free Virtual Try-on via Diffusion Model [28.202996582963184]
拡散モデル(PFDM)に基づく自由仮想試行法を提案する。
2つの画像が与えられた場合、PFDMは、他の情報なしで暗黙的にワープすることで、標的人物の衣服をシームレスに「着る」ことができる。
実験により,提案したPFDMは複雑な画像の処理に成功し,最先端の最先端モデルと高忠実度モデルの両方より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-05T14:32:57Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - VIRT: Improving Representation-based Models for Text Matching through
Virtual Interaction [50.986371459817256]
本稿では,VIRT と呼ばれる新しいtextitVirtual InteRacTion 機構を提案する。
VIRTは、表現ベースのエンコーダに、対話ベースのモデルのように振舞いを模倣する仮想インタラクションを実行するよう要求する。
論文 参考訳(メタデータ) (2021-12-08T09:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。