論文の概要: OutfitAnyone: Ultra-high Quality Virtual Try-On for Any Clothing and Any Person
- arxiv url: http://arxiv.org/abs/2407.16224v1
- Date: Tue, 23 Jul 2024 07:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 18:25:52.786233
- Title: OutfitAnyone: Ultra-high Quality Virtual Try-On for Any Clothing and Any Person
- Title(参考訳): OutfitAnyone:超高品質バーチャル試着機
- Authors: Ke Sun, Jian Cao, Qi Wang, Linrui Tian, Xindi Zhang, Lian Zhuo, Bang Zhang, Liefeng Bo, Wenbo Zhou, Weiming Zhang, Daiheng Gao,
- Abstract要約: OutfitAnyoneは、バーチャル衣料品のトライアルのために、高忠実でディテールに一貫性のある画像を生成する。
ポーズ、ボディシェイプ、広範囲な適用性など、スケーラビリティを規定する要因を自分自身と区別する。
さまざまなシナリオにおけるOutfitAnyoneのパフォーマンスは、実世界のデプロイに対する実用性と準備性を示している。
- 参考スコア(独自算出の注目度): 38.69239957207417
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Virtual Try-On (VTON) has become a transformative technology, empowering users to experiment with fashion without ever having to physically try on clothing. However, existing methods often struggle with generating high-fidelity and detail-consistent results. While diffusion models, such as Stable Diffusion series, have shown their capability in creating high-quality and photorealistic images, they encounter formidable challenges in conditional generation scenarios like VTON. Specifically, these models struggle to maintain a balance between control and consistency when generating images for virtual clothing trials. OutfitAnyone addresses these limitations by leveraging a two-stream conditional diffusion model, enabling it to adeptly handle garment deformation for more lifelike results. It distinguishes itself with scalability-modulating factors such as pose, body shape and broad applicability, extending from anime to in-the-wild images. OutfitAnyone's performance in diverse scenarios underscores its utility and readiness for real-world deployment. For more details and animated results, please see \url{https://humanaigc.github.io/outfit-anyone/}.
- Abstract(参考訳): VTON(Virtual Try-On)は、ユーザーが服を物理的に試すことなくファッションを試すことを可能にする、変革的な技術になりつつある。
しかし、既存の手法は、しばしば高忠実で詳細な結果を生み出すのに苦労する。
安定拡散級数のような拡散モデルは、高品質でフォトリアリスティックな画像を作成する能力を示しているが、VTONのような条件付き生成シナリオでは、重大な課題に直面している。
特に、これらのモデルは、仮想衣料試用のために画像を生成する際に、制御と一貫性のバランスを維持するのに苦労する。
OutfitAnyoneは、2ストリームの条件付き拡散モデルを利用することで、これらの制限に対処する。
これは、ポーズ、体形、広範囲な適用性などのスケーラビリティを調節する要因を、アニメからその場のイメージへと拡張することで、自分自身を区別する。
さまざまなシナリオにおけるOutfitAnyoneのパフォーマンスは、実世界のデプロイに対する実用性と準備性を示している。
詳細とアニメーション結果については、 \url{https://humanaigc.github.io/outfit-anyone/} を参照してください。
関連論文リスト
- AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - MV-VTON: Multi-View Virtual Try-On with Diffusion Models [91.71150387151042]
MV-VTON (Multi-View Virtual Try-ON) は、与えられた衣服を用いて複数のビューから人の着衣結果を再構築することを目的としている。
特に,ハードセレクションとソフトセレクションを適用したビューアダプティブセレクションを提案する。
実験の結果,提案手法はMVGデータセットを用いて,MV-VTONタスクの最先端化を実現する。
論文 参考訳(メタデータ) (2024-04-26T12:27:57Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Taming the Power of Diffusion Models for High-Quality Virtual Try-On
with Appearance Flow [24.187109053871833]
仮想試着は、人間と衣服の両方の詳細を保存しながら、ある画像から別の画像へ衣服を転送することを目的とした、重要な画像合成タスクである。
本稿では,拡散モデルの生成を効果的に導くために,ワープモジュールを利用する例に基づく塗装手法を提案する。
我々のアプローチ、すなわちDCI-VTON(Diffusion-based Conditional Inpainting for Virtual Try-ON)は、拡散モデルのパワーを効果的に活用する。
論文 参考訳(メタデータ) (2023-08-11T12:23:09Z) - ClothFit: Cloth-Human-Attribute Guided Virtual Try-On Network Using 3D
Simulated Dataset [5.260305201345232]
そこで我々はClosFitと呼ばれる新しい仮想試行法を提案する。
被服の実際の大きさと人的属性に基づいて、被服の被服体上のドレーピング形状を予測することができる。
実験結果から,ClosFitはフォトリアリスティックな仮想試行実験において,既存の最先端手法を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2023-06-24T08:57:36Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - ClothFormer:Taming Video Virtual Try-on in All Module [12.084652803378598]
ビデオの仮想試着は、対象の服を時間的に一貫した結果でビデオの人物に合わせることを目的としている。
ClothFormerフレームワークは、複雑な環境で現実的で時間的な一貫性のある結果をうまく合成する。
論文 参考訳(メタデータ) (2022-04-26T08:40:28Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - Weakly Supervised High-Fidelity Clothing Model Generation [67.32235668920192]
本稿では,このシナリオに対応するために,DGP (Deep Generative Projection) と呼ばれる安価でスケーラブルな弱教師付き手法を提案する。
衣服と身体の粗いアライメントをStyleGAN空間に投影することで、フォトリアリスティックな着用結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-14T07:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。