論文の概要: OutfitTransformer: Learning Outfit Representations for Fashion
Recommendation
- arxiv url: http://arxiv.org/abs/2204.04812v1
- Date: Mon, 11 Apr 2022 00:55:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 06:29:38.647346
- Title: OutfitTransformer: Learning Outfit Representations for Fashion
Recommendation
- Title(参考訳): outfittransformer: ファッションレコメンデーションのための衣装表現の学習
- Authors: Rohan Sarkar, Navaneeth Bodla, Mariya Vasileva, Yen-Liang Lin, Anurag
Beniwal, Alan Lu, Gerard Medioni
- Abstract要約: 本稿では,全項目間の互換性関係を符号化した効果的な衣服レベルの表現を学習するフレームワークであるOutfitTransformerを提案する。
互換性予測のために,グローバルな装束表現を捕捉し,分類損失を用いてフレームワークを訓練するための装束トークンを設計する。
補完的な項目検索のために,対象項目の仕様を考慮に入れたターゲット項目トークンを設計する。
生成されたターゲットアイテムの埋め込みは、残りの服にマッチする互換性のあるアイテムを検索するために使用される。
- 参考スコア(独自算出の注目度): 6.890771095769622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning an effective outfit-level representation is critical for predicting
the compatibility of items in an outfit, and retrieving complementary items for
a partial outfit. We present a framework, OutfitTransformer, that uses the
proposed task-specific tokens and leverages the self-attention mechanism to
learn effective outfit-level representations encoding the compatibility
relationships between all items in the entire outfit for addressing both
compatibility prediction and complementary item retrieval tasks. For
compatibility prediction, we design an outfit token to capture a global outfit
representation and train the framework using a classification loss. For
complementary item retrieval, we design a target item token that additionally
takes the target item specification (in the form of a category or text
description) into consideration. We train our framework using a proposed
set-wise outfit ranking loss to generate a target item embedding given an
outfit, and a target item specification as inputs. The generated target item
embedding is then used to retrieve compatible items that match the rest of the
outfit. Additionally, we adopt a pre-training approach and a curriculum
learning strategy to improve retrieval performance. Since our framework learns
at an outfit-level, it allows us to learn a single embedding capturing
higher-order relations among multiple items in the outfit more effectively than
pairwise methods. Experiments demonstrate that our approach outperforms
state-of-the-art methods on compatibility prediction, fill-in-the-blank, and
complementary item retrieval tasks. We further validate the quality of our
retrieval results with a user study.
- Abstract(参考訳): 効果的な衣服レベルの表現の学習は、衣服におけるアイテムの互換性を予測し、部分的な衣服のための補完的なアイテムを取得するために重要である。
本稿では,提案したタスク固有のトークンを用いて,適合予測と補完項目検索の両タスクに対処するために,全項目間の互換性関係を符号化する効果的な服飾レベルの表現を学習するフレームワークであるOutfitTransformerを提案する。
互換性予測のために,グローバルな装束表現を捕捉し,分類損失を用いてフレームワークを訓練するための装束トークンを設計する。
補完的な項目検索のために,対象項目の仕様(カテゴリやテキスト記述の形式で)を考慮に入れたターゲット項目トークンを設計する。
提案するセットワイズ方式の着衣ランキングの損失を用いて,着衣に埋め込まれた対象アイテムと対象アイテムの仕様を入力として生成するフレームワークをトレーニングする。
生成されたターゲットアイテムの埋め込みは、残りの服と一致する互換性のあるアイテムを検索するために使用される。
さらに,事前学習アプローチとカリキュラム学習戦略を採用し,検索性能を向上させる。
当社のフレームワークは,衣装レベルで学習するため,複数項目間の高次関係を,ペア方式よりも効率的にキャプチャする単一埋め込みを学習することができる。
提案手法は, 互換性予測, 補足的項目検索, 補足的項目検索において, 最先端の手法よりも優れていることを示す。
さらに,検索結果の質をユーザ・スタディで検証する。
関連論文リスト
- GarmentAligner: Text-to-Garment Generation via Retrieval-augmented Multi-level Corrections [63.82168065819053]
GarmentAlignerは、検索強化マルチレベル補正で訓練されたテキスト間拡散モデルである。
コンポーネントレベルでのセマンティックアライメントを実現するために,自動コンポーネント抽出パイプラインを導入する。
衣服画像内の成分関係を活用すべく,各衣服の検索サブセットを構築した。
論文 参考訳(メタデータ) (2024-08-22T12:50:45Z) - Clothes-Changing Person Re-Identification with Feasibility-Aware Intermediary Matching [86.04494755636613]
現在の衣服変更者の再識別(re-id)アプローチは通常、衣服に関係のない特徴に基づいて検索を行う。
本稿では,ファッション関連機能を検索に利用するためのFAIMフレームワークを提案する。
提案手法は, 広く使用されている衣服変化型re-idベンチマークにおいて, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-04-15T06:58:09Z) - Knowledge-Aware Prompt Tuning for Generalizable Vision-Language Models [64.24227572048075]
本稿では,視覚言語モデルのためのKnowledge-Aware Prompt Tuning(KAPT)フレームワークを提案する。
我々のアプローチは、人間の知性からインスピレーションを得ており、外部知識は、通常、オブジェクトの新たなカテゴリを認識するために組み込まれています。
論文 参考訳(メタデータ) (2023-08-22T04:24:45Z) - Transformer-based Graph Neural Networks for Outfit Generation [22.86041284499166]
TGNNは、畳み込みグラフニューラルネットワークにおけるメッセージパッシングステップとして、多面的な自己注意を利用して、グラフ内の衣服アイテム間の関係をキャプチャする。
畳み込みグラフニューラルネットワークにおけるメッセージパッシングステップとして,多面的な自己注意を利用して,グラフ内の衣服アイテム間の関係をキャプチャするトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-17T09:18:45Z) - VICTOR: Visual Incompatibility Detection with Transformers and
Fashion-specific contrastive pre-training [18.753508811614644]
Visual InCompatibility TransfORmer (VICTOR) は、1) 回帰としての全体的な互換性、2) ミスマッチアイテムの検出の2つのタスクに最適化されている。
Polyvore-MISFITと呼ばれる新しいデータセットを作成し、部分的にミスマッチした服を生成するために、Polyvoreの服のベンチマークを構築した。
一連のアブレーションと比較分析により、提案されたアーキテクチャは、現在のPolyvoreデータセットの最先端を競合し、越えることが可能であることを示している。
論文 参考訳(メタデータ) (2022-07-27T11:18:55Z) - Learning Fashion Compatibility from In-the-wild Images [6.591937706757015]
筆者らは,自己教師型学習を通じて,現在地にあるストリートファッション画像から,互換性予測のための表現を学習する。
本研究の前提課題は、同一人物が着用する異なる項目の表現が、他人が着用するものよりも近いように定式化されている。
ファッションコンフィグレーションベンチマークとして,Polyvore と Polyvore-Disjoint の2種類について実験を行った。
論文 参考訳(メタデータ) (2022-06-13T09:05:25Z) - Fashionformer: A simple, Effective and Unified Baseline for Human
Fashion Segmentation and Recognition [80.74495836502919]
本研究では,共同ファッションセグメンテーションと属性認識に着目した。
本稿では,セグメンテーションのためのオブジェクトクエリと属性予測のための属性クエリを紹介する。
属性ストリームのために,よりきめ細かい特徴を探索する新しいマルチレイヤレンダリングモジュールを設計する。
論文 参考訳(メタデータ) (2022-04-10T11:11:10Z) - Semi-Supervised Visual Representation Learning for Fashion Compatibility [17.893627646979038]
そこで本研究では,フライ時に擬陽性で擬陰性な衣服を作成できる半教師付き学習手法を提案する。
トレーニングバッチ内の各ラベル付き服について、ラベル付服の各項目とラベル付品とをマッチングすることにより、擬似アウトフィットを得る。
我々はPolyvore、Polyvore-D、新たに作成した大規模Fashion Outfitsデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-16T15:35:38Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Fashion Recommendation and Compatibility Prediction Using Relational
Network [18.13692056232815]
我々は、新しい互換性学習モデルを開発するための関係ネットワーク(RN)を開発する。
FashionRNは、任意の数のアイテムを任意の順序で、服全体の互換性を学習する。
我々はPolyvoreのウェブサイトから収集した49,740の服の大規模なデータセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2020-05-13T21:00:54Z) - Improving Few-shot Learning by Spatially-aware Matching and
CrossTransformer [116.46533207849619]
数ショット学習シナリオにおけるスケールと位置ミスマッチの影響について検討する。
本稿では,複数のスケールや場所のマッチングを効果的に行うための,空間認識型マッチング手法を提案する。
論文 参考訳(メタデータ) (2020-01-06T14:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。