論文の概要: Wear-Any-Way: Manipulable Virtual Try-on via Sparse Correspondence Alignment
- arxiv url: http://arxiv.org/abs/2403.12965v1
- Date: Tue, 19 Mar 2024 17:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 13:04:26.659181
- Title: Wear-Any-Way: Manipulable Virtual Try-on via Sparse Correspondence Alignment
- Title(参考訳): Wear-Any-Way:スパース対応アライメントによる操作可能なバーチャルトライオン
- Authors: Mengting Chen, Xi Chen, Zhonghua Zhai, Chen Ju, Xuewen Hong, Jinsong Lan, Shuai Xiao,
- Abstract要約: Wear-Any-Wayは、仮想トライオンのためのカスタマイズ可能なソリューションである。
まず、標準仮想試着のための強力なパイプラインを構築し、単一/複数衣料試着とモデル・ツー・モデル設定をサポートする。
特定位置の生成を誘導するポイントベース制御を含むスパースアライメントアライメントを提案する。
- 参考スコア(独自算出の注目度): 8.335876030647118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel framework for virtual try-on, termed Wear-Any-Way. Different from previous methods, Wear-Any-Way is a customizable solution. Besides generating high-fidelity results, our method supports users to precisely manipulate the wearing style. To achieve this goal, we first construct a strong pipeline for standard virtual try-on, supporting single/multiple garment try-on and model-to-model settings in complicated scenarios. To make it manipulable, we propose sparse correspondence alignment which involves point-based control to guide the generation for specific locations. With this design, Wear-Any-Way gets state-of-the-art performance for the standard setting and provides a novel interaction form for customizing the wearing style. For instance, it supports users to drag the sleeve to make it rolled up, drag the coat to make it open, and utilize clicks to control the style of tuck, etc. Wear-Any-Way enables more liberated and flexible expressions of the attires, holding profound implications in the fashion industry.
- Abstract(参考訳): 本稿では,仮想試行のための新しいフレームワークWear-Any-Wayを紹介する。
従来の方法とは異なり、Wear-Any-Wayはカスタマイズ可能なソリューションである。
提案手法は,高忠実度結果の生成に加えて,装着スタイルを正確に操作するユーザを支援する。
この目標を達成するために、我々はまず標準的な仮想試着のための強力なパイプラインを構築し、複雑なシナリオにおいて、単一/複数試着とモデルからモデルへの設定をサポートする。
そこで本研究では,特定の位置の生成を誘導するポイントベース制御を含むスパースアライメントアライメントを提案する。
このデザインにより、Wear-Any-Wayは標準設定の最先端のパフォーマンスを獲得し、着用スタイルをカスタマイズするための新しいインタラクションフォームを提供する。
たとえば、スリーブをドラッグしてロールアップさせたり、コートをドラッグして開けたり、クリックでタックのスタイルをコントロールしたりできる。
Wear-Any-Wayは、より自由で柔軟な服装表現を可能にし、ファッション業界に深い影響を与えている。
関連論文リスト
- High-Fidelity Virtual Try-on with Large-Scale Unpaired Learning [36.7085107012134]
VTON(Virtual try-on)は、ターゲットの衣服イメージを基準人物に転送する。
高忠実度試行のための大規模未経験学習を活用するための新しいフレームワークである textbfBoosted Virtual Try-on (BVTON) を提案する。
論文 参考訳(メタデータ) (2024-11-03T15:00:26Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - FashionTex: Controllable Virtual Try-on with Text and Texture [29.7855591607239]
テキストとテクスチャの両方の利点を多段階のファッション操作に組み合わせたマルチモーダル・インタラクティブ・セッティングを提案する。
FashionTexフレームワークは、アノテーション付きのペアトレーニングデータなしで、布の種類や局所的なテクスチャパターンを意味的に制御することができる。
論文 参考訳(メタデータ) (2023-05-08T04:10:36Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - PG-VTON: A Novel Image-Based Virtual Try-On Method via Progressive
Inference Paradigm [6.929743379017671]
プログレッシブ推論パラダイム(PGVTON)を用いた新しい仮想試行法を提案する。
形状案内として試着解析を応用し,ワープ・マッピング・コンポジションによる衣服試着を実装した。
実験により,本手法は2つの挑戦シナリオ下での最先端性能を示す。
論文 参考訳(メタデータ) (2023-04-18T12:47:26Z) - PASTA-GAN++: A Versatile Framework for High-Resolution Unpaired Virtual
Try-on [70.12285433529998]
PASTA-GAN++は高解像度の仮想試行のための汎用システムである。
教師なしのトレーニング、任意の衣服カテゴリー、制御可能な衣服編集をサポートする。
論文 参考訳(メタデータ) (2022-07-27T11:47:49Z) - Style-Based Global Appearance Flow for Virtual Try-On [119.95115739956661]
本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-04-03T10:58:04Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。