論文の概要: Virtual Fashion Photo-Shoots: Building a Large-Scale Garment-Lookbook Dataset
- arxiv url: http://arxiv.org/abs/2510.00633v1
- Date: Wed, 01 Oct 2025 08:05:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.458096
- Title: Virtual Fashion Photo-Shoots: Building a Large-Scale Garment-Lookbook Dataset
- Title(参考訳): バーチャルファッション写真撮影:大規模ガーメント・ルークブック・データセットの構築
- Authors: Yannick Hauri, Luca A. Lanzendörfer, Till Aczel,
- Abstract要約: 本稿では,仮想的なファッション写真撮影の課題を紹介する。
我々は,eコマースとファッションメディアのギャップを埋めて,衣料品見本ペアの最初の大規模データセットを構築した。
このデータセットは、カタログスタイルの生成を超えて、創造性、雰囲気、ストーリーテリングを反映したファッションイメージに向かうモデルの基礎を提供する。
- 参考スコア(独自算出の注目度): 6.155604731137829
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fashion image generation has so far focused on narrow tasks such as virtual try-on, where garments appear in clean studio environments. In contrast, editorial fashion presents garments through dynamic poses, diverse locations, and carefully crafted visual narratives. We introduce the task of virtual fashion photo-shoot, which seeks to capture this richness by transforming standardized garment images into contextually grounded editorial imagery. To enable this new direction, we construct the first large-scale dataset of garment-lookbook pairs, bridging the gap between e-commerce and fashion media. Because such pairs are not readily available, we design an automated retrieval pipeline that aligns garments across domains, combining visual-language reasoning with object-level localization. We construct a dataset with three garment-lookbook pair accuracy levels: high quality (10,000 pairs), medium quality (50,000 pairs), and low quality (300,000 pairs). This dataset offers a foundation for models that move beyond catalog-style generation and toward fashion imagery that reflects creativity, atmosphere, and storytelling.
- Abstract(参考訳): ファッション画像生成はこれまで、クリーンスタジオ環境で衣服が現れる仮想試着のような狭いタスクに重点を置いてきた。
対照的に、編集のファッションは、ダイナミックなポーズ、多様な場所、注意深く作られたビジュアルな物語を通して衣服を提示する。
本稿では,仮想ファッション写真撮影の課題について紹介する。この課題は,標準化された衣料品イメージを文脈的基盤の編集イメージに変換することによって,このリッチさを捉えることを目的としている。
この新たな方向性を実現するために,我々は,eコマースとファッションメディアのギャップを埋める,最初の大規模な衣料品見本組のデータセットを構築した。
このようなペアは容易には利用できないため、視覚言語推論とオブジェクトレベルのローカライゼーションを組み合わせた、ドメイン間の衣服を整列する自動検索パイプラインを設計する。
高品質(10,000対)、中質(50,000対)、低品質(30,000対)の3種類の衣服見本ペア精度のデータセットを構築した。
このデータセットは、カタログスタイルの生成を超えて、創造性、雰囲気、ストーリーテリングを反映したファッションイメージに向かうモデルの基礎を提供する。
関連論文リスト
- Learning to Synthesize Compatible Fashion Items Using Semantic Alignment and Collocation Classification: An Outfit Generation Framework [59.09707044733695]
衣料品全体を合成することを目的とした,新しい衣料品生成フレームワークであるOutfitGANを提案する。
OutfitGANにはセマンティックアライメントモジュールがあり、既存のファッションアイテムと合成アイテムのマッピング対応を特徴付ける。
提案モデルの性能を評価するため,20,000のファッション衣装からなる大規模データセットを構築した。
論文 参考訳(メタデータ) (2025-02-05T12:13:53Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - Quality and Quantity: Unveiling a Million High-Quality Images for Text-to-Image Synthesis in Fashion Design [14.588884182004277]
Fashion-Diffusion データセットは,多年にわたる厳格な努力の成果である。
データセットは100万以上の高品質なファッションイメージで構成されており、詳細なテキスト記述と組み合わせている。
T2Iに基づくファッションデザイン分野の標準化を促進するために,ファッションデザインモデルの性能評価のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2023-11-19T06:43:11Z) - Multimodal Garment Designer: Human-Centric Latent Diffusion Models for
Fashion Image Editing [40.70752781891058]
本稿では,人間中心のファッション画像の生成を導くマルチモーダルなファッション画像編集の課題を提案する。
我々は遅延拡散モデルに基づく新しいアーキテクチャを提案することでこの問題に対処する。
タスクに適した既存のデータセットがないので、既存の2つのファッションデータセットも拡張します。
論文 参考訳(メタデータ) (2023-04-04T18:03:04Z) - FaD-VLP: Fashion Vision-and-Language Pre-training towards Unified
Retrieval and Captioning [66.38951790650887]
ファッション分野におけるマルチモーダルタスクは、eコマースにとって大きな可能性を秘めている。
本稿では,ファッションとテクストのペアから構築した弱教師付き三つ組に基づく,ファッション特有の事前学習フレームワークを提案する。
3重項に基づくタスクは、標準的なマルチモーダル事前学習タスクに有効な追加であることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:01:19Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - From Culture to Clothing: Discovering the World Events Behind A Century
of Fashion Images [100.20851232528925]
本稿では,着る衣服に影響を及ぼす特定の文化的要因を特定するための,データ駆動型アプローチを提案する。
私たちの仕事は、計算的、スケーラブルで、簡単にリフレッシュ可能なアプローチによる、カルチャーと衣服のリンクに向けた第一歩です。
論文 参考訳(メタデータ) (2021-02-02T18:58:21Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。