論文の概要: AesRec: A Dataset for Aesthetics-Aligned Clothing Outfit Recommendation
- arxiv url: http://arxiv.org/abs/2602.03416v1
- Date: Tue, 03 Feb 2026 11:44:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.422812
- Title: AesRec: A Dataset for Aesthetics-Aligned Clothing Outfit Recommendation
- Title(参考訳): AesRec: 美容に配慮した衣服のアウトフィット勧告のためのデータセット
- Authors: Wenxin Ye, Lin Li, Ming Li, Yang Shen, Kanghong Wang, Jimmy Xiangji Huang,
- Abstract要約: 本稿では,体系的な定量的美学アノテーションを特徴とするAesRecベンチマークデータセットを提案する。
アイテムレベルでは、シルエット、色度、物質性、職人技、着用性、アイテムレベルの印象の6つの次元が独立して評価される。
我々は、ファッションデータセット上で厳密な人間と機械の整合性検証を行い、生成した評価の信頼性を確認する。
- 参考スコア(独自算出の注目度): 17.478482513222826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clothing recommendation extends beyond merely generating personalized outfits; it serves as a crucial medium for aesthetic guidance. However, existing methods predominantly rely on user-item-outfit interaction behaviors while overlooking explicit representations of clothing aesthetics. To bridge this gap, we present the AesRec benchmark dataset featuring systematic quantitative aesthetic annotations, thereby enabling the development of aesthetics-aligned recommendation systems. Grounded in professional apparel quality standards and fashion aesthetic principles, we define a multidimensional set of indicators. At the item level, six dimensions are independently assessed: silhouette, chromaticity, materiality, craftsmanship, wearability, and item-level impression. Transitioning to the outfit level, the evaluation retains the first five core attributes while introducing stylistic synergy, visual harmony, and outfit-level impression as distinct metrics to capture the collective aesthetic impact. Given the increasing human-like proficiency of Vision-Language Models in multimodal understanding and interaction, we leverage them for large-scale aesthetic scoring. We conduct rigorous human-machine consistency validation on a fashion dataset, confirming the reliability of the generated ratings. Experimental results based on AesRec further demonstrate that integrating quantified aesthetic information into clothing recommendation models can provide aesthetic guidance for users while fulfilling their personalized requirements.
- Abstract(参考訳): 服飾推奨は、単にパーソナライズされた服を作るだけでなく、美的指導のための重要な媒体として機能する。
しかし,既存の手法は,衣料美学の明示的な表現を軽視しながら,ユーザ・イテム・アウトフィットなインタラクション行動に大きく依存している。
このギャップを埋めるために,体系的な定量的な美学アノテーションを特徴とするAesRecベンチマークデータセットを提案する。
プロのアパレル品質基準とファッション美学の原則に基づいて,多次元の指標セットを定義する。
アイテムレベルでは、シルエット、色度、物質性、職人技、着用性、アイテムレベルの印象の6つの次元が独立して評価される。
服のレベルに移行し、評価は最初の5つのコア特性を保持しながら、スタイリスティックな相乗効果、視覚調和、および衣装レベルの印象を、総合的な美的影響を捉えるための異なる指標として導入する。
マルチモーダル理解とインタラクションにおける視覚・言語モデルの人間的習熟度の増加を考慮し,それらを大規模審美評価に活用する。
我々は、ファッションデータセット上で厳密な人間と機械の整合性検証を行い、生成した評価の信頼性を確認する。
さらに、AesRecに基づく実験結果により、服飾推奨モデルに定量化された美的情報を統合することで、パーソナライズされた要求を満たしながら、ユーザに対して美的ガイダンスを提供することを示した。
関連論文リスト
- TATTOO: Training-free AesTheTic-aware Outfit recOmmendation [9.087314807392415]
TATTOOはトレーニング不要のAesTheTic-aware Outfitレコメンデーションアプローチである。
MLLMを用いてまずターゲットイテム記述を生成し、続いてイメージを構造化された審美プロファイルに蒸留するために使用される審美連鎖を生成する。
実世界の評価セットであるAesthetic-100の実験では、TATTOOは既存のトレーニングベース手法と比較して最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-09-27T10:46:55Z) - StyleTailor: Towards Personalized Fashion Styling via Hierarchical Negative Feedback [11.510316659758718]
StyleTailorは、パーソナライズされたアパレルデザイン、ショッピングレコメンデーション、バーチャルトライオン、システマティックな評価を結合的なワークフローに統合する最初のコラボレーティブエージェントフレームワークである。
我々のフレームワークは2つのコアエージェント、すなわちパーソナライズされた衣服選択のためのデザイナと仮想試着のためのコンサルタントを備えており、そのアウトプットは階層的な視覚言語モデルフィードバックによって徐々に洗練されている。
パフォーマンスを評価するために,スタイルの整合性,視覚的品質,顔の類似性,芸術的評価を含む総合的な評価スイートを導入する。
論文 参考訳(メタデータ) (2025-08-06T08:42:42Z) - Learning to Synthesize Compatible Fashion Items Using Semantic Alignment and Collocation Classification: An Outfit Generation Framework [59.09707044733695]
衣料品全体を合成することを目的とした,新しい衣料品生成フレームワークであるOutfitGANを提案する。
OutfitGANにはセマンティックアライメントモジュールがあり、既存のファッションアイテムと合成アイテムのマッピング対応を特徴付ける。
提案モデルの性能を評価するため,20,000のファッション衣装からなる大規模データセットを構築した。
論文 参考訳(メタデータ) (2025-02-05T12:13:53Z) - Prompt2Fashion: An automatically generated fashion dataset [1.8817715864806608]
生成モデルを利用して、ユーザが指示するさまざまな機会、スタイル、身体タイプに合わせて、ファッションイメージデータセットを自動構築する。
我々は、異なるLarge Language Models(LLMs)を使用し、高度な美的品質、詳細、専門家と非専門家の双方の要求に関連のあるパーソナライズされた衣装を提供するための戦略を推進します。
論文 参考訳(メタデータ) (2024-09-10T11:48:05Z) - Aligning Vision Models with Human Aesthetics in Retrieval: Benchmarks and Algorithms [91.19304518033144]
検索システムにおける視覚モデルと人間の審美基準の整合を図る。
本研究では、視覚モデルと人間の美学をよりよく整合させるために、視覚モデルを微調整する嗜好に基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:20Z) - Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人物の再識別は、重複しないカメラで同じ人物の衣服の変化を認識することを目的としている。
衣服の外観からの干渉を効果的に軽減し、堅牢なアイデンティティ関連コンテンツと有能なセマンティックス・セマンティックス・マイニング・リファインメント(SMR)を抽出する統合されたセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールを提案する。
提案手法は,3種類の布質変化ベンチマーク上での最先端性能を実現し,先進的な競合相手に対する優位性を実証する。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - Learning Diverse Fashion Collocation by Neural Graph Filtering [78.9188246136867]
本稿では,グラフニューラルネットワークを用いて,フレキシブルなファッションアイテムセットをモデル化する新しいファッションコロケーションフレームワークであるNeural Graph Filteringを提案する。
エッジベクトルに対称演算を適用することにより、このフレームワークは様々な入力/出力を許容し、それらの順序に不変である。
提案手法を,Polyvoreデータセット,Polyvore-Dデータセット,Amazon Fashionデータセットの3つの一般的なベンチマークで評価した。
論文 参考訳(メタデータ) (2020-03-11T16:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。