論文の概要: FashionMAC: Deformation-Free Fashion Image Generation with Fine-Grained Model Appearance Customization
- arxiv url: http://arxiv.org/abs/2511.14031v1
- Date: Tue, 18 Nov 2025 01:22:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.868557
- Title: FashionMAC: Deformation-Free Fashion Image Generation with Fine-Grained Model Appearance Customization
- Title(参考訳): FashionMAC: ファイングラインドモデル外観カスタマイズによる変形自由ファッション画像生成
- Authors: Rong Zhang, Jinxiao Li, Jingnan Wang, Zhiwen Zuo, Jianfeng Dong, Wei Li, Chi Wang, Weiwei Xu, Xun Wang,
- Abstract要約: ガーメント中心のファッション画像生成は、与えられた衣服を身に着けた現実的で制御可能な人間のモデルを合成することを目的としている。
既存の手法では、通常、生成過程において衣服の変形を行なわなければならないため、衣服のテクスチャの歪みが生じる。
本稿では,ファシオンMACを提案する。FashionMACは,高品質かつ制御可能なファッションショーケース画像生成を実現する,新しい拡散ベースの変形フリーフレームワークである。
- 参考スコア(独自算出の注目度): 38.10083148931327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Garment-centric fashion image generation aims to synthesize realistic and controllable human models dressing a given garment, which has attracted growing interest due to its practical applications in e-commerce. The key challenges of the task lie in two aspects: (1) faithfully preserving the garment details, and (2) gaining fine-grained controllability over the model's appearance. Existing methods typically require performing garment deformation in the generation process, which often leads to garment texture distortions. Also, they fail to control the fine-grained attributes of the generated models, due to the lack of specifically designed mechanisms. To address these issues, we propose FashionMAC, a novel diffusion-based deformation-free framework that achieves high-quality and controllable fashion showcase image generation. The core idea of our framework is to eliminate the need for performing garment deformation and directly outpaint the garment segmented from a dressed person, which enables faithful preservation of the intricate garment details. Moreover, we propose a novel region-adaptive decoupled attention (RADA) mechanism along with a chained mask injection strategy to achieve fine-grained appearance controllability over the synthesized human models. Specifically, RADA adaptively predicts the generated regions for each fine-grained text attribute and enforces the text attribute to focus on the predicted regions by a chained mask injection strategy, significantly enhancing the visual fidelity and the controllability. Extensive experiments validate the superior performance of our framework compared to existing state-of-the-art methods.
- Abstract(参考訳): ガーメント中心のファッション画像生成は、与えられた衣服を身に着けた現実的でコントロール可能な人間のモデルを合成することを目的としており、電子商取引における実用的応用により、その関心が高まっている。
タスクの主な課題は,(1)衣服の詳細を忠実に保存すること,(2)モデルの外観に対してきめ細かい制御性を得ること,の2つの側面にある。
既存の手法では、通常、生成プロセスで衣服の変形を行う必要があり、しばしば衣服のテクスチャの歪みを引き起こす。
また、特別に設計されたメカニズムが欠如しているため、生成されたモデルのきめ細かい属性を制御できない。
これらの問題に対処するために,ファシオンMACを提案する。FashionMACは,高品質かつ制御可能なファッションショーケース画像生成を実現する,新しい拡散ベースの変形フリーフレームワークである。
本フレームワークの中核となる考え方は,衣服の変形を行う必要をなくし,衣服の細部を忠実に保存し,着物から区切られた衣服を直接上回すことである。
さらに,合成されたヒトモデルに対してきめ細かな外観制御性を実現するために,新しい領域適応型非結合型注意(RADA)機構と連鎖型マスク注入戦略を提案する。
具体的には、RADは、各細粒度テキスト属性の生成された領域を適応的に予測し、チェーンマスク注入戦略により予測領域にフォーカスするようにテキスト属性を強制し、視覚的忠実度と制御性を大幅に向上させる。
大規模な実験により、既存の最先端手法と比較して、我々のフレームワークの優れた性能が検証された。
関連論文リスト
- DiffFit: Disentangled Garment Warping and Texture Refinement for Virtual Try-On [3.5655800569257896]
VTON(Virtual try-on)は、ターゲット服を着用している人のリアルなイメージを、電子商取引やデジタルファッションに広く応用することを目的としている。
DiffFitは,高忠実度仮想試行のための新しい2段階遅延拡散フレームワークである。
論文 参考訳(メタデータ) (2025-06-29T15:31:42Z) - Fine-Grained Controllable Apparel Showcase Image Generation via Garment-Centric Outpainting [39.50293003775675]
潜在拡散モデル(LDM)に基づく新しい衣服中心のアウトペイント(GCO)フレームワークを提案する。
提案フレームワークは,テキストプロンプトと顔画像を用いて,所定の衣服を身に着けたファッションモデルをカスタマイズすることを目的としている。
論文 参考訳(メタデータ) (2025-03-03T08:30:37Z) - Multimodal Latent Diffusion Model for Complex Sewing Pattern Generation [52.13927859375693]
テキストプロンプト,体形,着物スケッチによって制御される縫製パターンを生成するマルチモーダル生成モデルであるSwingLDMを提案する。
潜伏空間における縫製パターンの分布を学習するために,2段階のトレーニング戦略を設計する。
総合的定性的および定量的実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-12-19T02:05:28Z) - DAGSM: Disentangled Avatar Generation with GS-enhanced Mesh [102.84518904896737]
DAGSMは、与えられたテキストプロンプトから歪んだ人体と衣服を生成する新しいパイプラインである。
まず着ていない体を作り、次に体に基づいて個々の布を生成します。
実験では、DAGSMは高品質なアンタングルアバターを生成し、衣服の交換とリアルなアニメーションをサポートし、視覚的品質においてベースラインを上回っている。
論文 参考訳(メタデータ) (2024-11-20T07:00:48Z) - Improving Virtual Try-On with Garment-focused Diffusion Models [91.95830983115474]
拡散モデルは多くの画像合成タスクにおける生成的モデリングの革新をもたらした。
私たちは新しい拡散モデル、すなわちGarDiffを作り、衣服中心の拡散プロセスを引き起こします。
VITON-HDおよびDressCodeデータセットの実験は、最先端のVTONアプローチと比較して、GarDiffの優位性を示している。
論文 参考訳(メタデータ) (2024-09-12T17:55:11Z) - A Two-stage Personalized Virtual Try-on Framework with Shape Control and
Texture Guidance [7.302929117437442]
本稿では,2段階(形状制御とテクスチャガイダンス)を用いて衣服属性を分離する,新しい仮想試行モデル(PE-VITON)を提案する。
提案モデルでは, 衣服の折り畳みの弱さ, 複雑な姿勢下での創出効果の低下, 衣服のぼやけた縁, 従来の試行法では不明瞭なテクスチャスタイルを効果的に解決することができる。
論文 参考訳(メタデータ) (2023-12-24T13:32:55Z) - Towards Loose-Fitting Garment Animation via Generative Model of
Deformation Decomposition [4.627632792164547]
本研究では, 変形変形に基づく衣服生成モデルを構築し, 線形スキニングを使わずに, ゆるい衣服の変形を効率的にシミュレートする。
提案手法は,大規模実験により最先端のデータ駆動方式よりも優れており,定性的かつ定量的な結果解析が可能である。
論文 参考訳(メタデータ) (2023-12-22T11:26:51Z) - SwinGar: Spectrum-Inspired Neural Dynamic Deformation for Free-Swinging
Garments [6.821050909555717]
本稿では,ダイナミックエフェクトとパーソナライズドディテールを備えた衣服の変形を生成するためのスペクトルに基づく学習手法を提案する。
提案手法は,異なる衣服の動的挙動を予測する統一的な枠組みを提供することにより,制約を克服する。
我々は、周波数制御可能なアテンション機構と長期記憶を統合した動的衣服変形推定器を開発した。
論文 参考訳(メタデータ) (2023-08-05T09:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。