論文の概要: Fine-Grained Customized Fashion Design with Image-into-Prompt benchmark and dataset from LMM
- arxiv url: http://arxiv.org/abs/2509.09324v1
- Date: Thu, 11 Sep 2025 10:14:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.335615
- Title: Fine-Grained Customized Fashion Design with Image-into-Prompt benchmark and dataset from LMM
- Title(参考訳): Image-into-PromptベンチマークとLMMからのデータセットを用いたファイングラインドカスタムファッションデザイン
- Authors: Hui Li, Yi You, Qiqi Chen, Bingfeng Zhang, George Q. Huang,
- Abstract要約: 現在の世代のAIモデルは、ブレインストーミングを派手なデザインに魔法のように変換するが、細かいカスタマイズは依然としてテキストの不確実性に悩まされている。
LMMを用いたBugワークフローを提案し、画像からプロンプトへのチャットから布のデザインを自動生成し、微粒化する。
われわれのフレームワークは、言葉以外の創造性を解き放ち、更に人間の関与なしに衣料デザイン/編集の障壁を低くする。
- 参考スコア(独自算出の注目度): 16.82751074846868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI evolves the execution of complex workflows in industry, where the large multimodal model empowers fashion design in the garment industry. Current generation AI models magically transform brainstorming into fancy designs easily, but the fine-grained customization still suffers from text uncertainty without professional background knowledge from end-users. Thus, we propose the Better Understanding Generation (BUG) workflow with LMM to automatically create and fine-grain customize the cloth designs from chat with image-into-prompt. Our framework unleashes users' creative potential beyond words and also lowers the barriers of clothing design/editing without further human involvement. To prove the effectiveness of our model, we propose a new FashionEdit dataset that simulates the real-world clothing design workflow, evaluated from generation similarity, user satisfaction, and quality. The code and dataset: https://github.com/detectiveli/FashionEdit.
- Abstract(参考訳): ジェネレーティブAIは、大規模なマルチモーダルモデルが衣料業界におけるファッションデザインを促進する業界における複雑なワークフローの実行を進化させる。
現在の世代のAIモデルは、ブレインストーミングを魔法のように派手なデザインに簡単に変換するが、きめ細かいカスタマイズは、エンドユーザーからの専門的なバックグラウンド知識なしでは、まだテキストの不確実性に悩まされている。
そこで本稿では,LMMを用いたButter Understanding Generation (BUG)ワークフローを提案する。
われわれのフレームワークは、言葉以外の創造性を解き放ち、更に人間の関与なしに衣料デザイン/編集の障壁を低くする。
本モデルの有効性を証明するために,実世界の衣料デザインワークフローをシミュレートするFashionEditデータセットを提案する。
コードとデータセット:https://github.com/detectiveli/FashionEdit。
関連論文リスト
- Rethinking Layered Graphic Design Generation with a Top-Down Approach [76.33538798060326]
図形デザインは、アイデアやメッセージを伝えるのに不可欠である。デザイナーは通常、編集を簡単にするために、オブジェクト、背景、ベクトル化されたテキスト層に作業を整理する。
GenAI方式の登場により、ピクセルフォーマットにおける高品質なグラフィックデザインの無限の供給がよりアクセスしやすくなってきた。
これにもかかわらず、非層型設計は人間の設計を刺激し、レイアウトやテキストスタイルの選択に影響を与え、最終的に層型設計を導いた。
本稿では,AI生成したデザインを編集可能な階層化設計に変換する最初の試みとして,グラフィックデザイン生成フレームワークであるAccordionを提案する。
論文 参考訳(メタデータ) (2025-07-08T02:26:08Z) - AIpparel: A Multimodal Foundation Model for Digital Garments [71.12933771326279]
縫製パターンの生成と編集のためのマルチモーダル基礎モデルであるAIpparelを紹介する。
当社のモデルでは,12万以上のユニークな衣服をカスタマイズした大規模データセット上で,最先端の大規模マルチモーダルモデルを微調整する。
本稿では,これらの複雑な縫製パターンを簡潔に符号化し,LLMが効率的に予測できる新しいトークン化手法を提案する。
論文 参考訳(メタデータ) (2024-12-05T07:35:19Z) - GLDesigner: Leveraging Multi-Modal LLMs as Designer for Enhanced Aesthetic Text Glyph Layouts [53.568057283934714]
本稿では,コンテンツ対応のテキストロゴレイアウトを生成するVLM(Vision-Language Model)ベースのフレームワークを提案する。
本稿では,複数のグリフ画像を同時に処理するための計算コストを削減する2つのモデル手法を提案する。
本モデルでは,既存の公開データセットの5倍の広義のテキストロゴデータセットを2つ構築する。
論文 参考訳(メタデータ) (2024-11-18T10:04:10Z) - PosterLLaVa: Constructing a Unified Multi-modal Layout Generator with LLM [58.67882997399021]
本研究では,グラフィックレイアウトの自動生成のための統合フレームワークを提案する。
データ駆動方式では、レイアウトを生成するために構造化テキスト(JSONフォーマット)とビジュアルインストラクションチューニングを用いる。
我々は,ユーザのデザイン意図に基づいて編集可能なポスターを生成する自動テキスト投稿システムを開発した。
論文 参考訳(メタデータ) (2024-06-05T03:05:52Z) - FashionSD-X: Multimodal Fashion Garment Synthesis using Latent Diffusion [11.646594594565098]
本研究では,遅延拡散モデルを用いて,ファッションデザインのプロセスを変えるための新しい生成パイプラインを提案する。
我々は、スケッチデータを統合することで、マルチモーダルドレスコードやVITON-HDを含む最先端の仮想試行データセットを活用し、強化する。
論文 参考訳(メタデータ) (2024-04-26T14:59:42Z) - DressCode: Autoregressively Sewing and Generating Garments from Text Guidance [61.48120090970027]
DressCodeは、初心者向けのデザインを民主化し、ファッションデザイン、バーチャルトライオン、デジタルヒューマン創造において大きな可能性を秘めている。
まず,テキスト条件の埋め込みとクロスアテンションを統合して縫製パターンを生成する,GPTベースのアーキテクチャであるSewingGPTを紹介する。
次に、トレーニング済みの安定拡散を調整し、タイルベースの衣服用物理レンダリング(PBR)テクスチャを生成します。
論文 参考訳(メタデータ) (2024-01-29T16:24:21Z) - HieraFashDiff: Hierarchical Fashion Design with Multi-stage Diffusion Models [17.74292177764933]
ファッションデザインに適した,ヒエラファッシュディフ(HieraFashDiff)という新しい階層的拡散型フレームワークを提案する。
我々のモデルは、デノシングプロセスを2段階に展開することで、実用的なファッションデザインワークフローを模倣するように設計されている。
本モデルでは,ファッションデザイン生成と局所的なきめ細かい編集を一つのフレームワークでサポートする。
論文 参考訳(メタデータ) (2024-01-15T03:38:57Z) - FashionTex: Controllable Virtual Try-on with Text and Texture [29.7855591607239]
テキストとテクスチャの両方の利点を多段階のファッション操作に組み合わせたマルチモーダル・インタラクティブ・セッティングを提案する。
FashionTexフレームワークは、アノテーション付きのペアトレーニングデータなしで、布の種類や局所的なテクスチャパターンを意味的に制御することができる。
論文 参考訳(メタデータ) (2023-05-08T04:10:36Z) - Multimodal Garment Designer: Human-Centric Latent Diffusion Models for
Fashion Image Editing [40.70752781891058]
本稿では,人間中心のファッション画像の生成を導くマルチモーダルなファッション画像編集の課題を提案する。
我々は遅延拡散モデルに基づく新しいアーキテクチャを提案することでこの問題に対処する。
タスクに適した既存のデータセットがないので、既存の2つのファッションデータセットも拡張します。
論文 参考訳(メタデータ) (2023-04-04T18:03:04Z) - LayoutDETR: Detection Transformer Is a Good Multimodal Layout Designer [80.61492265221817]
グラフィックレイアウトデザインは視覚コミュニケーションにおいて重要な役割を担っている。
しかし、手作りのレイアウトデザインは、スキルを要求し、時間がかかり、バッチプロダクションではスケールできない。
ジェネレーティブモデルは、設計自動化をスケーラブルにするために出現するが、デザイナの欲求に沿うデザインを作成することは、未だに容易ではない。
論文 参考訳(メタデータ) (2022-12-19T21:57:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。