論文の概要: Multi-Garment Customized Model Generation
- arxiv url: http://arxiv.org/abs/2408.05206v1
- Date: Fri, 9 Aug 2024 17:57:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 15:05:23.665017
- Title: Multi-Garment Customized Model Generation
- Title(参考訳): マルチゲージカスタマイズモデル生成
- Authors: Yichen Liu, Penghui Du, Yi Liu Quanwei Zhang,
- Abstract要約: マルチゲージカスタマイズモデル生成は、潜在拡散モデル(LDM)に基づく統合フレームワークである
本フレームワークは,脱結合型マルチガーメント機能融合による複数衣服の条件生成を支援する。
提案する衣料エンコーダは,他の拡張モジュールと組み合わせることができるプラグアンドプレイモジュールである。
- 参考スコア(独自算出の注目度): 3.1679243514285194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Multi-Garment Customized Model Generation, a unified framework based on Latent Diffusion Models (LDMs) aimed at addressing the unexplored task of synthesizing images with free combinations of multiple pieces of clothing. The method focuses on generating customized models wearing various targeted outfits according to different text prompts. The primary challenge lies in maintaining the natural appearance of the dressed model while preserving the complex textures of each piece of clothing, ensuring that the information from different garments does not interfere with each other. To tackle these challenges, we first developed a garment encoder, which is a trainable UNet copy with shared weights, capable of extracting detailed features of garments in parallel. Secondly, our framework supports the conditional generation of multiple garments through decoupled multi-garment feature fusion, allowing multiple clothing features to be injected into the backbone network, significantly alleviating conflicts between garment information. Additionally, the proposed garment encoder is a plug-and-play module that can be combined with other extension modules such as IP-Adapter and ControlNet, enhancing the diversity and controllability of the generated models. Extensive experiments demonstrate the superiority of our approach over existing alternatives, opening up new avenues for the task of generating images with multiple-piece clothing combinations
- Abstract(参考訳): 本稿では,複数の衣服を自由な組み合わせで合成する未探索課題に対処することを目的とした,遅延拡散モデル(LDM)に基づく統合フレームワークであるマルチガーメントカスタマイズモデル生成を提案する。
この方法は、さまざまなテキストプロンプトに基づいて、さまざまなターゲットの衣装を身に着けたカスタマイズされたモデルを生成することに焦点を当てている。
第一の課題は、衣服の複雑なテクスチャを保ちながら、衣服の自然な外観を維持することであり、異なる衣服からの情報が互いに干渉しないようにすることである。
これらの課題に対処するために,我々はまず,共有重み付きトレーニング可能なUNetコピーである衣料エンコーダを開発した。
第2に,脱結合型マルチガーメント機能融合による複数衣服の条件生成をサポートし,複数の衣服特徴をバックボーンネットワークに注入し,衣服情報間の衝突を著しく軽減する。
さらに、提案する衣料エンコーダは、IP-AdapterやControlNetといった他の拡張モジュールと組み合わせることができるプラグイン・アンド・プレイモジュールであり、生成されたモデルの多様性と制御性を高める。
大規模な実験により、既存の代替品よりもアプローチが優れていることが示され、複数ピースの衣料品の組み合わせで画像を生成するための新たな道が開かれた。
関連論文リスト
- Learning to Synthesize Compatible Fashion Items Using Semantic Alignment and Collocation Classification: An Outfit Generation Framework [59.09707044733695]
衣料品全体を合成することを目的とした,新しい衣料品生成フレームワークであるOutfitGANを提案する。
OutfitGANにはセマンティックアライメントモジュールがあり、既存のファッションアイテムと合成アイテムのマッピング対応を特徴付ける。
提案モデルの性能を評価するため,20,000のファッション衣装からなる大規模データセットを構築した。
論文 参考訳(メタデータ) (2025-02-05T12:13:53Z) - BC-GAN: A Generative Adversarial Network for Synthesizing a Batch of Collocated Clothing [17.91576511810969]
ジェネレーティブネットワークを用いたコラボレーション型衣料合成は、ファッション業界における収益を上げるための経済的価値を著しく高めている。
我々はBC-GANと呼ばれる新しいバッチ衣料品生成フレームワークを導入し、複数の視覚的に配置された衣料品画像を同時に合成することができる。
われわれのモデルは、自分自身で構築した互換性のある装束を備えた大規模データセットで検証された。
論文 参考訳(メタデータ) (2025-02-03T05:41:41Z) - FCBoost-Net: A Generative Network for Synthesizing Multiple Collocated Outfits via Fashion Compatibility Boosting [37.32190866187711]
FCBoost-Netは,事前学習された生成モデルのパワーを利用する,服飾生成のための新しいフレームワークである。
FCBoost-Netは、複数のファッションアイテムをランダムに合成し、合成されたセットの互換性は、新しいファッションコンパチブルブースターを用いて、いくつかのラウンドで改善される。
実証的な証拠は、提案手法がランダムに合成されたファッションアイテムのファッション互換性を改善し、多様性を維持することができることを示している。
論文 参考訳(メタデータ) (2025-02-03T02:18:09Z) - Multimodal Latent Diffusion Model for Complex Sewing Pattern Generation [52.13927859375693]
テキストプロンプト,体形,着物スケッチによって制御される縫製パターンを生成するマルチモーダル生成モデルであるSwingLDMを提案する。
潜伏空間における縫製パターンの分布を学習するために,2段階のトレーニング戦略を設計する。
総合的定性的および定量的実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-12-19T02:05:28Z) - AnyDressing: Customizable Multi-Garment Virtual Dressing via Latent Diffusion Models [7.534556848810697]
衣服とパーソナライズされたテキストプロンプトの組み合わせで条件付き文字をカスタマイズする新しいAnyDressing法を提案する。
AnyDressingはGarmentsNetとDressingNetという2つの主要なネットワークで構成されており、それぞれが詳細な衣料品の特徴を抽出することを目的としている。
衣服のきめ細かいテクスチャの詳細を改善するため,ガーメント強化テクスチャ学習戦略を導入する。
論文 参考訳(メタデータ) (2024-12-05T13:16:47Z) - AIpparel: A Large Multimodal Generative Model for Digital Garments [71.12933771326279]
縫製パターンの生成と編集のための大規模なマルチモーダルモデルであるAIpparelを紹介する。
当社のモデルでは,12万以上のユニークな衣服をカスタマイズした大規模データセット上で,最先端の大規模マルチモーダルモデルを微調整する。
本稿では,これらの複雑な縫製パターンを簡潔に符号化し,LLMが効率的に予測できる新しいトークン化手法を提案する。
論文 参考訳(メタデータ) (2024-12-05T07:35:19Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - MMTryon: Multi-Modal Multi-Reference Control for High-Quality Fashion Generation [70.83668869857665]
MMTryonはマルチモーダルなマルチ参照VIrtual Try-ONフレームワークである。
テキスト命令と複数の衣料品画像を入力として、高品質な合成試行結果を生成することができる。
論文 参考訳(メタデータ) (2024-05-01T11:04:22Z) - Magic Clothing: Controllable Garment-Driven Image Synthesis [7.46772222515689]
我々は,未探索の衣服駆動画像合成タスクのための潜在拡散モデル(LDM)に基づくネットワークアーキテクチャであるMagic Clothingを提案する。
多様なテキストプロンプトを持つ対象の衣服を装着したカスタマイズされた文字を生成することを目指して、画像制御性が最も重要な問題である。
衣料品の特徴を捉えるために衣服抽出装置を導入し, 自覚融合を用いて予め訓練したLCDに組み込む。
論文 参考訳(メタデータ) (2024-04-15T07:15:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。