論文の概要: Fine-Grained Customized Fashion Design with Image-into-Prompt benchmark and dataset from LMM
- arxiv url: http://arxiv.org/abs/2509.09324v1
- Date: Thu, 11 Sep 2025 10:14:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.335615
- Title: Fine-Grained Customized Fashion Design with Image-into-Prompt benchmark and dataset from LMM
- Title(参考訳): Image-into-PromptベンチマークとLMMからのデータセットを用いたファイングラインドカスタムファッションデザイン
- Authors: Hui Li, Yi You, Qiqi Chen, Bingfeng Zhang, George Q. Huang,
- Abstract要約: 現在の世代のAIモデルは、ブレインストーミングを派手なデザインに魔法のように変換するが、細かいカスタマイズは依然としてテキストの不確実性に悩まされている。
LMMを用いたBugワークフローを提案し、画像からプロンプトへのチャットから布のデザインを自動生成し、微粒化する。
われわれのフレームワークは、言葉以外の創造性を解き放ち、更に人間の関与なしに衣料デザイン/編集の障壁を低くする。
- 参考スコア(独自算出の注目度): 16.82751074846868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI evolves the execution of complex workflows in industry, where the large multimodal model empowers fashion design in the garment industry. Current generation AI models magically transform brainstorming into fancy designs easily, but the fine-grained customization still suffers from text uncertainty without professional background knowledge from end-users. Thus, we propose the Better Understanding Generation (BUG) workflow with LMM to automatically create and fine-grain customize the cloth designs from chat with image-into-prompt. Our framework unleashes users' creative potential beyond words and also lowers the barriers of clothing design/editing without further human involvement. To prove the effectiveness of our model, we propose a new FashionEdit dataset that simulates the real-world clothing design workflow, evaluated from generation similarity, user satisfaction, and quality. The code and dataset: https://github.com/detectiveli/FashionEdit.
- Abstract(参考訳): ジェネレーティブAIは、大規模なマルチモーダルモデルが衣料業界におけるファッションデザインを促進する業界における複雑なワークフローの実行を進化させる。
現在の世代のAIモデルは、ブレインストーミングを魔法のように派手なデザインに簡単に変換するが、きめ細かいカスタマイズは、エンドユーザーからの専門的なバックグラウンド知識なしでは、まだテキストの不確実性に悩まされている。
そこで本稿では,LMMを用いたButter Understanding Generation (BUG)ワークフローを提案する。
われわれのフレームワークは、言葉以外の創造性を解き放ち、更に人間の関与なしに衣料デザイン/編集の障壁を低くする。
本モデルの有効性を証明するために,実世界の衣料デザインワークフローをシミュレートするFashionEditデータセットを提案する。
コードとデータセット:https://github.com/detectiveli/FashionEdit。
関連論文リスト
- Rethinking Layered Graphic Design Generation with a Top-Down Approach [76.33538798060326]
図形デザインは、アイデアやメッセージを伝えるのに不可欠である。デザイナーは通常、編集を簡単にするために、オブジェクト、背景、ベクトル化されたテキスト層に作業を整理する。
GenAI方式の登場により、ピクセルフォーマットにおける高品質なグラフィックデザインの無限の供給がよりアクセスしやすくなってきた。
これにもかかわらず、非層型設計は人間の設計を刺激し、レイアウトやテキストスタイルの選択に影響を与え、最終的に層型設計を導いた。
本稿では,AI生成したデザインを編集可能な階層化設計に変換する最初の試みとして,グラフィックデザイン生成フレームワークであるAccordionを提案する。
論文 参考訳(メタデータ) (2025-07-08T02:26:08Z) - AIpparel: A Multimodal Foundation Model for Digital Garments [71.12933771326279]
縫製パターンの生成と編集のためのマルチモーダル基礎モデルであるAIpparelを紹介する。
当社のモデルでは,12万以上のユニークな衣服をカスタマイズした大規模データセット上で,最先端の大規模マルチモーダルモデルを微調整する。
本稿では,これらの複雑な縫製パターンを簡潔に符号化し,LLMが効率的に予測できる新しいトークン化手法を提案する。
論文 参考訳(メタデータ) (2024-12-05T07:35:19Z) - FashionSD-X: Multimodal Fashion Garment Synthesis using Latent Diffusion [11.646594594565098]
本研究では,遅延拡散モデルを用いて,ファッションデザインのプロセスを変えるための新しい生成パイプラインを提案する。
我々は、スケッチデータを統合することで、マルチモーダルドレスコードやVITON-HDを含む最先端の仮想試行データセットを活用し、強化する。
論文 参考訳(メタデータ) (2024-04-26T14:59:42Z) - HieraFashDiff: Hierarchical Fashion Design with Multi-stage Diffusion Models [17.74292177764933]
ファッションデザインに適した,ヒエラファッシュディフ(HieraFashDiff)という新しい階層的拡散型フレームワークを提案する。
我々のモデルは、デノシングプロセスを2段階に展開することで、実用的なファッションデザインワークフローを模倣するように設計されている。
本モデルでは,ファッションデザイン生成と局所的なきめ細かい編集を一つのフレームワークでサポートする。
論文 参考訳(メタデータ) (2024-01-15T03:38:57Z) - LayoutDETR: Detection Transformer Is a Good Multimodal Layout Designer [80.61492265221817]
グラフィックレイアウトデザインは視覚コミュニケーションにおいて重要な役割を担っている。
しかし、手作りのレイアウトデザインは、スキルを要求し、時間がかかり、バッチプロダクションではスケールできない。
ジェネレーティブモデルは、設計自動化をスケーラブルにするために出現するが、デザイナの欲求に沿うデザインを作成することは、未だに容易ではない。
論文 参考訳(メタデータ) (2022-12-19T21:57:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。