論文の概要: Learning Tuple Compatibility for Conditional OutfitRecommendation
- arxiv url: http://arxiv.org/abs/2008.08189v1
- Date: Tue, 18 Aug 2020 23:22:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:59:45.389791
- Title: Learning Tuple Compatibility for Conditional OutfitRecommendation
- Title(参考訳): 条件付きアウトフィットレコメンデーションのための学習タプル適合性
- Authors: Xuewen Yang, Dongliang Xie, Xin Wang, Jiangbo Yuan, Wanying Ding,
Pengyun Yan
- Abstract要約: MCAN(Mixed Category Attention Net)は、細粒度および粗いカテゴリ情報をレコメンデーションに統合する。
MCANは必要に応じて、多種多様な制御可能なレコメンデーションを明示的にかつ効果的に生成できる。
新しいデータセットIQONはレコメンデーションシステムの一般化をテストするために使用できる。
- 参考スコア(独自算出の注目度): 13.265372545945112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Outfit recommendation requires the answers of some challenging outfit
compatibility questions such as 'Which pair of boots and school bag go well
with my jeans and sweater?'. It is more complicated than conventional
similarity search, and needs to consider not only visual aesthetics but also
the intrinsic fine-grained and multi-category nature of fashion items. Some
existing approaches solve the problem through sequential models or learning
pair-wise distances between items. However, most of them only consider coarse
category information in defining fashion compatibility while neglecting the
fine-grained category information often desired in practical applications. To
better define the fashion compatibility and more flexibly meet different needs,
we propose a novel problem of learning compatibility among multiple tuples
(each consisting of an item and category pair), and recommending fashion items
following the category choices from customers. Our contributions include: 1)
Designing a Mixed Category Attention Net (MCAN) which integrates both
fine-grained and coarse category information into recommendation and learns the
compatibility among fashion tuples. MCAN can explicitly and effectively
generate diverse and controllable recommendations based on need. 2)
Contributing a new dataset IQON, which follows eastern culture and can be used
to test the generalization of recommendation systems. Our extensive experiments
on a reference dataset Polyvore and our dataset IQON demonstrate that our
method significantly outperforms state-of-the-art recommendation methods.
- Abstract(参考訳): アウトフィット・レコメンデーションには、「靴と学校用バッグのどちらがジーンズとセーターに合うのか?」といった、難しい服装互換性の問題の答えが求められている。
従来の類似検索よりも複雑であり、視覚美学だけでなく、内在的なきめ細やかなファッションアイテムの性質も考慮する必要がある。
既存のアプローチでは、シーケンシャルモデルやアイテム間のペアワイズ距離の学習を通じて問題を解決している。
しかし、そのほとんどはファッション適合性の定義において粗いカテゴリ情報のみを考慮し、実用的な用途でしばしば望まれる細かなカテゴリ情報を無視している。
ファッションの互換性をよりよく定義し、異なるニーズを柔軟に満たすために、複数のタプル(各アイテムとカテゴリペアからなる)間の互換性を学習する新しい問題を提案し、顧客からのカテゴリ選択に従ってファッションアイテムを推薦する。
私たちの貢献には
1)細粒度と粗度の両方のカテゴリ情報をレコメンデーションに統合し,ファッションタプル間の互換性を学習するMCAN(Mixed Category Attention Net)を設計する。
MCANは必要に応じて、多種多様な制御可能なレコメンデーションを明示的にかつ効果的に生成できる。
2)東欧文化に倣い,レコメンデーションシステムの一般化を検証できる新しいデータセットIQONのコントリビューションを行う。
リファレンスデータセットポリボアとデータセット iqon に関する広範な実験により,本手法が最先端の推奨手法を大幅に上回ることを示した。
関連論文リスト
- Preview-based Category Contrastive Learning for Knowledge Distillation [53.551002781828146]
知識蒸留(PCKD)のための新しい予見型カテゴリーコントラスト学習法を提案する。
まず、インスタンスレベルの特徴対応と、インスタンスの特徴とカテゴリ中心の関係の両方の構造的知識を蒸留する。
カテゴリ表現を明示的に最適化し、インスタンスとカテゴリの表現を明確に関連付けることができる。
論文 参考訳(メタデータ) (2024-10-18T03:31:00Z) - MMTryon: Multi-Modal Multi-Reference Control for High-Quality Fashion Generation [70.83668869857665]
MMTryonはマルチモーダルなマルチ参照VIrtual Try-ONフレームワークである。
テキスト命令と複数の衣料品画像を入力として、高品質な合成試行結果を生成することができる。
論文 参考訳(メタデータ) (2024-05-01T11:04:22Z) - Lost Your Style? Navigating with Semantic-Level Approach for
Text-to-Outfit Retrieval [2.07180164747172]
ファッションレコメンデーションの基盤となるアプローチとして,テキスト・ツー・アウトフィット検索タスクを導入する。
我々のモデルは3つのセマンティックレベル、スタイル、服装で考案され、各レベルがデータを段階的に集約し、一貫性のある服装勧告を形成する。
メリーランド・ポリボアとポリボア・アウトフィットのデータセットを用いて,本手法はテキストビデオ検索タスクにおける最先端モデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-11-03T07:23:21Z) - Outfit Generation and Recommendation -- An Experimental Study [0.0]
我々は、ヨーロッパ最大のファッションストアのオンライン、現実世界のユーザーデータを用いて、衣装生成とレコメンデーションのための異なるアルゴリズムを比較した。
我々は、パーソナライズされた衣料品生成に適したものにするために、これらのモデルのいくつかのモデルに適用した適応を提示する。
論文 参考訳(メタデータ) (2022-11-29T16:36:00Z) - VICTOR: Visual Incompatibility Detection with Transformers and
Fashion-specific contrastive pre-training [18.753508811614644]
Visual InCompatibility TransfORmer (VICTOR) は、1) 回帰としての全体的な互換性、2) ミスマッチアイテムの検出の2つのタスクに最適化されている。
Polyvore-MISFITと呼ばれる新しいデータセットを作成し、部分的にミスマッチした服を生成するために、Polyvoreの服のベンチマークを構築した。
一連のアブレーションと比較分析により、提案されたアーキテクチャは、現在のPolyvoreデータセットの最先端を競合し、越えることが可能であることを示している。
論文 参考訳(メタデータ) (2022-07-27T11:18:55Z) - Hybrid Relation Guided Set Matching for Few-shot Action Recognition [51.3308583226322]
本稿では,2つの鍵成分を組み込んだHybrid Relation Guided Set Matching (HyRSM) 手法を提案する。
ハイブリッドリレーションモジュールの目的は、エピソード内の関連関係とクロスビデオの完全活用により、タスク固有の埋め込みを学習することである。
我々は,HyRSMを6つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-04-28T11:43:41Z) - Fashionformer: A simple, Effective and Unified Baseline for Human
Fashion Segmentation and Recognition [80.74495836502919]
本研究では,共同ファッションセグメンテーションと属性認識に着目した。
本稿では,セグメンテーションのためのオブジェクトクエリと属性予測のための属性クエリを紹介する。
属性ストリームのために,よりきめ細かい特徴を探索する新しいマルチレイヤレンダリングモジュールを設計する。
論文 参考訳(メタデータ) (2022-04-10T11:11:10Z) - Discovering Relationships between Object Categories via Universal
Canonical Maps [80.07703460198198]
変形可能なオブジェクトの複数カテゴリの幾何学を共同で学習する問題に取り組む。
近年の研究では、関連オブジェクトのいくつかのカテゴリに対して、統合された高密度ポーズ予測器を学習できることが示されている。
改良された対応性は,カテゴリ固有の高密度ポーズ予測器の自然な副産物として自動的に学習できることを示す。
論文 参考訳(メタデータ) (2021-06-17T18:38:18Z) - Fashion Recommendation and Compatibility Prediction Using Relational
Network [18.13692056232815]
我々は、新しい互換性学習モデルを開発するための関係ネットワーク(RN)を開発する。
FashionRNは、任意の数のアイテムを任意の順序で、服全体の互換性を学習する。
我々はPolyvoreのウェブサイトから収集した49,740の服の大規模なデータセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2020-05-13T21:00:54Z) - Learning Diverse Fashion Collocation by Neural Graph Filtering [78.9188246136867]
本稿では,グラフニューラルネットワークを用いて,フレキシブルなファッションアイテムセットをモデル化する新しいファッションコロケーションフレームワークであるNeural Graph Filteringを提案する。
エッジベクトルに対称演算を適用することにより、このフレームワークは様々な入力/出力を許容し、それらの順序に不変である。
提案手法を,Polyvoreデータセット,Polyvore-Dデータセット,Amazon Fashionデータセットの3つの一般的なベンチマークで評価した。
論文 参考訳(メタデータ) (2020-03-11T16:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。