論文の概要: A Tale of Color Variants: Representation and Self-Supervised Learning in
Fashion E-Commerce
- arxiv url: http://arxiv.org/abs/2112.02910v1
- Date: Mon, 6 Dec 2021 10:24:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 14:27:50.983242
- Title: A Tale of Color Variants: Representation and Self-Supervised Learning in
Fashion E-Commerce
- Title(参考訳): カラーバリアントの物語:ファッションEコマースにおける表現と自己指導型学習
- Authors: Ujjal Kr Dutta, Sandeep Repakula, Maulik Parmar, Abhinav Ravi
- Abstract要約: 当社のファッション電子商取引プラットフォームにおけるこの問題に対処するため、深層視覚表現学習をその中心に活用する汎用フレームワークを提案する。
我々のフレームワークは、手動で得られる三つ子という形で、監督的な信号で訓練することができる。
しかし、興味深いことに、ファッションeコマースにおけるこの決定的な問題は、単純なカラージッタベースの画像拡張によって解決される可能性がある。
- 参考スコア(独自算出の注目度): 2.3449131636069898
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we address a crucial problem in fashion e-commerce (with
respect to customer experience, as well as revenue): color variants
identification, i.e., identifying fashion products that match exactly in their
design (or style), but only to differ in their color. We propose a generic
framework, that leverages deep visual Representation Learning at its heart, to
address this problem for our fashion e-commerce platform. Our framework could
be trained with supervisory signals in the form of triplets, that are obtained
manually. However, it is infeasible to obtain manual annotations for the entire
huge collection of data usually present in fashion e-commerce platforms, such
as ours, while capturing all the difficult corner cases. But, to our rescue,
interestingly we observed that this crucial problem in fashion e-commerce could
also be solved by simple color jitter based image augmentation, that recently
became widely popular in the contrastive Self-Supervised Learning (SSL)
literature, that seeks to learn visual representations without using manual
labels. This naturally led to a question in our mind: Could we leverage SSL in
our use-case, and still obtain comparable performance to our supervised
framework? The answer is, Yes! because, color variant fashion objects are
nothing but manifestations of a style, in different colors, and a model trained
to be invariant to the color (with, or without supervision), should be able to
recognize this! This is what the paper further demonstrates, both
qualitatively, and quantitatively, while evaluating a couple of
state-of-the-art SSL techniques, and also proposing a novel method.
- Abstract(参考訳): 本稿では、ファッションeコマースにおける重要な問題(顧客体験と収益に関して)について論じる。 カラーバリエーションの識別、すなわち、デザイン(またはスタイル)にぴったり一致するが、色にしか違いがないファッション製品を特定する。
当社のファッション電子商取引プラットフォームにおけるこの問題に対処するため、深層視覚表現学習をその中心に活用する汎用フレームワークを提案する。
我々のフレームワークは、手動で得られる三重項の形で監視信号で訓練することができる。
しかしながら、私たちのようなファッションeコマースプラットフォームで一般的に見られる膨大なデータコレクション全体に対して、手作業でアノテーションを取得することは不可能です。
しかし、興味深いことに、私たちはファッションeコマースにおけるこの重要な問題は、手作業のラベルを使わずに視覚的表現を学習しようとする対照的な自己教師付き学習(ssl)文学で最近広く普及したシンプルなカラージッタベースの画像拡張によっても解決できると観察した。
私たちのユースケースではsslを活用できますし、監視されたフレームワークに匹敵するパフォーマンスを得ることができますか?
その答えはイエスだ!なぜなら、カラーバリエーションのファッションオブジェクトは、スタイルをあらわすだけでなく、異なる色で表現し、色に不変であるように訓練されたモデル(または監督なしで)は、これを認識できるはずだからである。
この論文は、質的にも定量的にも、いくつかの最先端SSL技術を評価しながら、新しい手法を提案しながら、さらにこれを実証している。
関連論文リスト
- Exploring Color Invariance through Image-Level Ensemble Learning [7.254270666779331]
本研究ではランダムカラー消去という学習戦略を紹介する。
元の画像構造を乱すことなく、トレーニングデータの部分的又は完全な色情報を選択的に消去する。
このアプローチは、過剰適合のリスクを軽減し、色の変化を処理するモデルの能力を強化する。
論文 参考訳(メタデータ) (2024-01-19T06:04:48Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - StyleAdv: Meta Style Adversarial Training for Cross-Domain Few-Shot
Learning [89.86971464234533]
Cross-Domain Few-Shot Learning (CD-FSL)は、最近登場したタスクで、異なるドメインにわたる数ショットの学習に対処している。
本稿では,モデルに依存しないメタスタイル逆アタック(StyleAdv)手法と,新しいスタイル逆アタック手法を提案する。
本手法は視覚的スタイルに対して徐々に頑健であり,新たなターゲットデータセットの一般化能力を高める。
論文 参考訳(メタデータ) (2023-02-18T11:54:37Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Wave-SAN: Wavelet based Style Augmentation Network for Cross-Domain
Few-Shot Learning [95.78635058475439]
クロスドメイン少ショット学習は、一般的な自然画像から新しいドメイン固有のターゲットカテゴリへ知識を伝達することを目的としている。
本稿では、ソースデータセットのスタイル分布を分散させることにより、CD-FSLの問題点を考察する。
我々のモデルを視覚的スタイルに堅牢にするために、低周波成分のスタイルを交換することで、ソースイメージを拡張します。
論文 参考訳(メタデータ) (2022-03-15T05:36:41Z) - Formal Analysis of Art: Proxy Learning of Visual Concepts from Style
Through Language Models [10.854399031287393]
本稿では,美術の視覚的要素と原理を用いて絵画を定量化する機械学習システムを提案する。
本稿では,絵画の視覚概念を学習する手法として,プロキシ学習(プロキシラーニング)を提案する。
論文 参考訳(メタデータ) (2022-01-05T21:03:29Z) - Semi-Supervised Visual Representation Learning for Fashion Compatibility [17.893627646979038]
そこで本研究では,フライ時に擬陽性で擬陰性な衣服を作成できる半教師付き学習手法を提案する。
トレーニングバッチ内の各ラベル付き服について、ラベル付服の各項目とラベル付品とをマッチングすることにより、擬似アウトフィットを得る。
我々はPolyvore、Polyvore-D、新たに作成した大規模Fashion Outfitsデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-16T15:35:38Z) - Color Variants Identification via Contrastive Self-Supervised
Representation Learning [2.3449131636069898]
深層視覚表現学習を用いて、色変化の同定の課題に対処します。
コントラスト損失に基づく自己監督型カラーバリアントモデルを提案する。
本手法を定量的・定性的に評価し,既存の自己管理手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-17T15:51:56Z) - Self-supervised Visual Attribute Learning for Fashion Compatibility [71.73414832639698]
トレーニング中にラベルを必要とせずに、色やテクスチャを意識した機能を学ぶことができるSSLフレームワークを提案する。
当社のアプローチは,事前の作業で無視される異なる概念を捉えるために設計された3つの自己教師型タスクから構成される。
当社のアプローチは,異なるデータセット上で高いパフォーマンスを達成しながら,ひとつのデータセットでトレーニングできることを実証して,トランスファーラーニングに使用することができることを示す。
論文 参考訳(メタデータ) (2020-08-01T21:53:22Z) - Learning Diverse Fashion Collocation by Neural Graph Filtering [78.9188246136867]
本稿では,グラフニューラルネットワークを用いて,フレキシブルなファッションアイテムセットをモデル化する新しいファッションコロケーションフレームワークであるNeural Graph Filteringを提案する。
エッジベクトルに対称演算を適用することにより、このフレームワークは様々な入力/出力を許容し、それらの順序に不変である。
提案手法を,Polyvoreデータセット,Polyvore-Dデータセット,Amazon Fashionデータセットの3つの一般的なベンチマークで評価した。
論文 参考訳(メタデータ) (2020-03-11T16:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。