論文の概要: FashionTex: Controllable Virtual Try-on with Text and Texture
- arxiv url: http://arxiv.org/abs/2305.04451v1
- Date: Mon, 8 May 2023 04:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 15:46:19.194112
- Title: FashionTex: Controllable Virtual Try-on with Text and Texture
- Title(参考訳): fashiontex:テキストとテクスチャでコントロール可能な仮想トライオン
- Authors: Anran Lin, Nanxuan Zhao, Shuliang Ning, Yuda Qiu, Baoyuan Wang,
Xiaoguang Han
- Abstract要約: テキストとテクスチャの両方の利点を多段階のファッション操作に組み合わせたマルチモーダル・インタラクティブ・セッティングを提案する。
FashionTexフレームワークは、アノテーション付きのペアトレーニングデータなしで、布の種類や局所的なテクスチャパターンを意味的に制御することができる。
- 参考スコア(独自算出の注目度): 29.7855591607239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual try-on attracts increasing research attention as a promising way for
enhancing the user experience for online cloth shopping. Though existing
methods can generate impressive results, users need to provide a well-designed
reference image containing the target fashion clothes that often do not exist.
To support user-friendly fashion customization in full-body portraits, we
propose a multi-modal interactive setting by combining the advantages of both
text and texture for multi-level fashion manipulation. With the carefully
designed fashion editing module and loss functions, FashionTex framework can
semantically control cloth types and local texture patterns without annotated
pairwise training data. We further introduce an ID recovery module to maintain
the identity of input portrait. Extensive experiments have demonstrated the
effectiveness of our proposed pipeline.
- Abstract(参考訳): 仮想試着は、オンライン布ショッピングのユーザエクスペリエンスを高めるための有望な方法として、研究の注目を集めている。
既存の手法は印象的な結果を生み出すことができるが、ユーザーは、しばしば存在しないファッション服を含むよく設計された参照画像を提供する必要がある。
フルボディポートレートにおけるユーザフレンドリなファッションカスタマイズを支援するために,テキストとテクスチャの利点を組み合わせたマルチモード対話型セッティングを提案する。
注意深く設計されたファッション編集モジュールとロス関数により、fashiontexフレームワークは、ペアワイズトレーニングデータをアノテートすることなく、布型とローカルテクスチャパターンをセマンティックに制御することができる。
さらに、入力ポートレートの同一性を維持するためのID回復モジュールを導入する。
大規模実験により,提案パイプラインの有効性が実証された。
関連論文リスト
- AnyDesign: Versatile Area Fashion Editing via Mask-Free Diffusion [25.61572702219732]
ファッション画像編集は、与えられた指示に基づいて人物の外観を変更することを目的としている。
現在の手法ではセグメンタやキーポイント抽出器のような補助的なツールが必要であり、柔軟性と統一されたフレームワークが欠如している。
本稿では,多目的領域におけるマスフリー編集を可能にする拡散法であるAnyDesignを提案する。
論文 参考訳(メタデータ) (2024-08-21T12:04:32Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - MMTryon: Multi-Modal Multi-Reference Control for High-Quality Fashion Generation [70.83668869857665]
MMTryonはマルチモーダルなマルチ参照VIrtual Try-ONフレームワークである。
テキスト命令と複数の衣料品画像を入力として、高品質な合成試行結果を生成することができる。
論文 参考訳(メタデータ) (2024-05-01T11:04:22Z) - Wear-Any-Way: Manipulable Virtual Try-on via Sparse Correspondence Alignment [8.335876030647118]
Wear-Any-Wayは、仮想トライオンのためのカスタマイズ可能なソリューションである。
まず、標準仮想試着のための強力なパイプラインを構築し、単一/複数衣料試着とモデル・ツー・モデル設定をサポートする。
特定位置の生成を誘導するポイントベース制御を含むスパースアライメントアライメントを提案する。
論文 参考訳(メタデータ) (2024-03-19T17:59:52Z) - PICTURE: PhotorealistIC virtual Try-on from UnconstRained dEsigns [25.209863457090506]
人体画像にパーソナライズされた合成衣料の合成を可能にするために,制約のないデザイン(ucVTON)の新たな仮想試行を提案する。
特定の入力タイプに制約された先行技術とは異なり、本手法はスタイル(テクスチャまたはイメージ)とテクスチャ(フルウェア、クロップされたセクション、テクスチャパッチ)のフレキシブルな仕様化を可能にする。
論文 参考訳(メタデータ) (2023-12-07T18:53:18Z) - Single Stage Warped Cloth Learning and Semantic-Contextual Attention Feature Fusion for Virtual TryOn [5.790630195329777]
画像ベースの仮想試着は、ホップの衣服を着ている人の画像に合わせることを目的としている。
対象の衣服を人物画像の対応する身体部分と整列させるガーメント・ワープは、この目標を達成するための重要なステップである。
明示的な多段階学習なしに暗黙的に同じことを学習する新しいシングルステージフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-08T06:05:01Z) - FaD-VLP: Fashion Vision-and-Language Pre-training towards Unified
Retrieval and Captioning [66.38951790650887]
ファッション分野におけるマルチモーダルタスクは、eコマースにとって大きな可能性を秘めている。
本稿では,ファッションとテクストのペアから構築した弱教師付き三つ組に基づく,ファッション特有の事前学習フレームワークを提案する。
3重項に基づくタスクは、標準的なマルチモーダル事前学習タスクに有効な追加であることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:01:19Z) - TediGAN: Text-Guided Diverse Face Image Generation and Manipulation [52.83401421019309]
TediGANはマルチモーダル画像生成とテキスト記述による操作のためのフレームワークである。
StyleGANインバージョンモジュールは、よく訓練されたStyleGANの潜在空間に実際の画像をマッピングする。
視覚言語的類似性は、画像とテキストを共通の埋め込み空間にマッピングすることで、テキスト画像マッチングを学ぶ。
インスタンスレベルの最適化は、操作におけるID保存のためのものだ。
論文 参考訳(メタデータ) (2020-12-06T16:20:19Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - Personalized Fashion Recommendation from Personal Social Media Data: An
Item-to-Set Metric Learning Approach [71.63618051547144]
ソーシャルメディアデータからパーソナライズされたファッションレコメンデーションの問題について検討する。
本稿では,ユーザの過去のファッションアイテムと新しいファッションアイテムとの類似性を学習する,アイテムツーセットのメトリック学習フレームワークを提案する。
提案手法の有効性を検証するために,実世界のソーシャルメディアデータセットを収集する。
論文 参考訳(メタデータ) (2020-05-25T23:24:24Z) - FashionBERT: Text and Image Matching with Adaptive Loss for Cross-modal
Retrieval [31.822218310945036]
FashionBERTはテキストや画像のハイレベルな表現を学習する。
FashionBERTは、ベースラインや最先端のアプローチよりもパフォーマンスが大幅に向上している。
論文 参考訳(メタデータ) (2020-05-20T00:41:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。