論文の概要: IMAGGarment-1: Fine-Grained Garment Generation for Controllable Fashion Design
- arxiv url: http://arxiv.org/abs/2504.13176v1
- Date: Thu, 17 Apr 2025 17:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:36:30.899512
- Title: IMAGGarment-1: Fine-Grained Garment Generation for Controllable Fashion Design
- Title(参考訳): IMAGGarment-1:制御可能なファッション設計のためのファイングラインドガーメント生成
- Authors: Fei Shen, Jian Yu, Cong Wang, Xin Jiang, Xiaoyu Du, Jinhui Tang,
- Abstract要約: IMAGGarment-1はきめ細かい衣服生成フレームワークである。
シルエット、色、ロゴの配置を正確に制御し、高忠実な衣服合成を可能にする。
- 参考スコア(独自算出の注目度): 44.46962562795136
- License:
- Abstract: This paper presents IMAGGarment-1, a fine-grained garment generation (FGG) framework that enables high-fidelity garment synthesis with precise control over silhouette, color, and logo placement. Unlike existing methods that are limited to single-condition inputs, IMAGGarment-1 addresses the challenges of multi-conditional controllability in personalized fashion design and digital apparel applications. Specifically, IMAGGarment-1 employs a two-stage training strategy to separately model global appearance and local details, while enabling unified and controllable generation through end-to-end inference. In the first stage, we propose a global appearance model that jointly encodes silhouette and color using a mixed attention module and a color adapter. In the second stage, we present a local enhancement model with an adaptive appearance-aware module to inject user-defined logos and spatial constraints, enabling accurate placement and visual consistency. To support this task, we release GarmentBench, a large-scale dataset comprising over 180K garment samples paired with multi-level design conditions, including sketches, color references, logo placements, and textual prompts. Extensive experiments demonstrate that our method outperforms existing baselines, achieving superior structural stability, color fidelity, and local controllability performance. The code and model are available at https://github.com/muzishen/IMAGGarment-1.
- Abstract(参考訳): IMAGGarment-1は, シルエット, カラー, ロゴ配置を正確に制御し, 高忠実度衣料合成を可能にする, きめ細かい衣料生成(FGG)フレームワークである。
IMAGGarment-1は、単一条件の入力に限られる既存の方法とは異なり、パーソナライズされたファッションデザインとデジタルアパレルアプリケーションにおけるマルチ条件制御の課題に対処する。
具体的には、IMAGGarment-1は、グローバルな外見とローカルな詳細を個別にモデル化し、エンドツーエンドの推論による統一および制御可能な生成を可能にするために、2段階のトレーニング戦略を採用している。
第1段階では、混合アテンションモジュールとカラーアダプターを用いてシルエットとカラーを共同で符号化するグローバルな外観モデルを提案する。
第2段階では,ユーザ定義のロゴや空間的制約を注入し,正確な配置と視覚的整合性を実現するための適応的な外観認識モジュールを備えた局所拡張モデルを提案する。
このタスクをサポートするために、スケッチ、カラー参照、ロゴ配置、テキストプロンプトなど、多段階の設計条件と組み合わせた180K以上の衣服サンプルからなる大規模なデータセットであるGarmentBenchをリリースする。
大規模実験により,本手法は既存のベースラインよりも優れ,優れた構造安定性,色忠実度,局所制御性性能を実現していることが示された。
コードとモデルはhttps://github.com/muzishen/IMAGGarment-1.comで公開されている。
関連論文リスト
- AnyDressing: Customizable Multi-Garment Virtual Dressing via Latent Diffusion Models [7.534556848810697]
衣服とパーソナライズされたテキストプロンプトの組み合わせで条件付き文字をカスタマイズする新しいAnyDressing法を提案する。
AnyDressingはGarmentsNetとDressingNetという2つの主要なネットワークで構成されており、それぞれが詳細な衣料品の特徴を抽出することを目的としている。
衣服のきめ細かいテクスチャの詳細を改善するため,ガーメント強化テクスチャ学習戦略を導入する。
論文 参考訳(メタデータ) (2024-12-05T13:16:47Z) - Multi-Garment Customized Model Generation [3.1679243514285194]
マルチゲージカスタマイズモデル生成は、潜在拡散モデル(LDM)に基づく統合フレームワークである
本フレームワークは,脱結合型マルチガーメント機能融合による複数衣服の条件生成を支援する。
提案する衣料エンコーダは,他の拡張モジュールと組み合わせることができるプラグアンドプレイモジュールである。
論文 参考訳(メタデータ) (2024-08-09T17:57:33Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - StableGarment: Garment-Centric Generation via Stable Diffusion [29.5112874761836]
衣服中心(GC)生成タスクに対処するための統合フレームワークであるStableGarmentを紹介する。
我々のソリューションは、付加的な自己注意層を備えたデノイングUNetのトレーニング可能なコピーである衣料エンコーダの開発である。
専用のtry-on ControlNetを組み込むことで、StableGarmentは仮想try-onタスクを精度良く実行できる。
論文 参考訳(メタデータ) (2024-03-16T03:05:07Z) - PIA: Your Personalized Image Animator via Plug-and-Play Modules in Text-to-Image Models [14.657472801570284]
PIAは、条件画像との整合性、テキストによる動作制御性、および特定のチューニングなしで様々なパーソナライズされたT2Iモデルとの互換性に優れる。
PIAのキーコンポーネントは条件モジュールの導入であり、入力として条件フレームとフレーム間の親和性を利用する。
論文 参考訳(メタデータ) (2023-12-21T15:51:12Z) - Composer: Creative and Controllable Image Synthesis with Composable
Conditions [57.78533372393828]
ビッグデータで学んだ最近の大規模な生成モデルは、驚くべき画像を合成できるが、制御性は限られている。
この研究は、合成品質とモデルの創造性を維持しつつ、空間配置やパレットのような出力画像の柔軟な制御を可能にする新しい世代パラダイムを提供する。
論文 参考訳(メタデータ) (2023-02-20T05:48:41Z) - Spatial Steerability of GANs via Self-Supervision from Discriminator [123.27117057804732]
本稿では,GANの空間的ステアビリティを向上させるための自己教師型アプローチを提案する。
具体的には、空間帰納バイアスとして生成モデルの中間層に符号化されるランダムなガウス熱マップを設計する。
推論中、ユーザは直感的に空間のヒートマップと対話し、シーンのレイアウトを調整したり、移動したり、オブジェクトを削除したりすることで、出力画像を編集することができる。
論文 参考訳(メタデータ) (2023-01-20T07:36:29Z) - Single Stage Virtual Try-on via Deformable Attention Flows [51.70606454288168]
仮想試行は、ショップ内服と基準人物画像が与えられた写真リアルなフィッティング結果を生成することを目的としている。
マルチフロー推定に変形性アテンションスキームを適用した,変形性アテンションフロー(DAFlow)を新たに開発した。
提案手法は,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-07-19T10:01:31Z) - Style-Based Global Appearance Flow for Virtual Try-On [119.95115739956661]
本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-04-03T10:58:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。